Spaces:
Sleeping
Sleeping
File size: 1,818 Bytes
e47948f |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 |
import torch
from torch import nn
from transformers import AutoImageProcessor, AutoModel
from PIL import Image
import base64
from io import BytesIO
from fastapi import FastAPI, HTTPException
from pydantic import BaseModel
# Nome do modelo no Hugging Face Hub
MODEL_NAME = "facebook/dinov2-small"
# Carregando processador e modelo
processor = AutoImageProcessor.from_pretrained(MODEL_NAME)
model = AutoModel.from_pretrained(MODEL_NAME)
# Projeção para 512D
projection = nn.Linear(model.config.hidden_size, 512)
# Inicializa o FastAPI
app = FastAPI(
title="API de Embedding de Imagem",
description="Endpoint para obter o embedding de uma imagem usando o modelo DINOv2.",
version="1.0.0"
)
# Define o modelo de dados para a requisição
class ImageRequest(BaseModel):
image: str
# Define o endpoint para o embedding da imagem
@app.post("/embed")
async def get_embedding(request: ImageRequest):
try:
# Extrai a string Base64 do formato "data:image/png;base64,..."
header, img_base64 = request.image.split(",", 1)
# Decodifica a string Base64
image_data = base64.b64decode(img_base64)
# Abre a imagem com Pillow
image = Image.open(BytesIO(image_data))
# Preprocessamento
inputs = processor(images=image, return_tensors="pt")
with torch.no_grad():
outputs = model(**inputs)
last_hidden_state = outputs.last_hidden_state
embedding = last_hidden_state[:, 0]
embedding_512 = projection(embedding)
# Converte para lista Python e retorna
return {"embedding": embedding_512.squeeze().tolist()}
except Exception as e:
raise HTTPException(status_code=400, detail=f"Erro ao processar a imagem: {e}") |