O que é o Supabase Vector
O Supabase Vector é um recurso de busca vetorial que utiliza a extensão pgvector do PostgreSQL. Permite realizar busca semântica e RAG (Geração Aumentada por Recuperação) necessários para aplicações de IA/ML no seu banco de dados PostgreSQL existente.
Configuração
Habilitando pgvector
-- Habilitar extensão pgvector
CREATE EXTENSION IF NOT EXISTS vector;
-- Criar tabela com coluna vetorial
CREATE TABLE documents (
id BIGSERIAL PRIMARY KEY,
content TEXT,
embedding VECTOR(1536), -- Dimensões do OpenAI ada-002
metadata JSONB,
created_at TIMESTAMPTZ DEFAULT NOW()
);
Criando Índices
-- Índice IVFFlat (rápido, busca aproximada)
CREATE INDEX ON documents
USING ivfflat (embedding vector_cosine_ops)
WITH (lists = 100);
-- Índice HNSW (maior precisão)
CREATE INDEX ON documents
USING hnsw (embedding vector_cosine_ops)
WITH (m = 16, ef_construction = 64);
Geração e Armazenamento de Vetores
Usando OpenAI Embeddings
import { createClient } from '@supabase/supabase-js';
import OpenAI from 'openai';
const supabase = createClient(SUPABASE_URL, SUPABASE_KEY);
const openai = new OpenAI();
async function addDocument(content: string, metadata: object) {
// Gerar Embedding
const embeddingResponse = await openai.embeddings.create({
model: 'text-embedding-ada-002',
input: content
});
const embedding = embeddingResponse.data[0].embedding;
// Salvar no Supabase
const { error } = await supabase
.from('documents')
.insert({
content,
embedding,
metadata
});
if (error) throw error;
}
Busca Vetorial
Busca por Similaridade
async function searchSimilar(query: string, limit = 5) {
// Gerar Embedding da query
const embeddingResponse = await openai.embeddings.create({
model: 'text-embedding-ada-002',
input: query
});
const queryEmbedding = embeddingResponse.data[0].embedding;
// Busca vetorial
const { data, error } = await supabase.rpc('match_documents', {
query_embedding: queryEmbedding,
match_threshold: 0.7,
match_count: limit
});
return data;
}
Função SQL para Busca
CREATE OR REPLACE FUNCTION match_documents(
query_embedding VECTOR(1536),
match_threshold FLOAT,
match_count INT
)
RETURNS TABLE (
id BIGINT,
content TEXT,
metadata JSONB,
similarity FLOAT
)
LANGUAGE plpgsql
AS $$
BEGIN
RETURN QUERY
SELECT
documents.id,
documents.content,
documents.metadata,
1 - (documents.embedding <=> query_embedding) AS similarity
FROM documents
WHERE 1 - (documents.embedding <=> query_embedding) > match_threshold
ORDER BY documents.embedding <=> query_embedding
LIMIT match_count;
END;
$$;
Construindo Aplicações RAG
async function askQuestion(question: string) {
// 1. Buscar documentos relevantes
const relevantDocs = await searchSimilar(question, 3);
// 2. Construir contexto
const context = relevantDocs
.map(doc => doc.content)
.join('\n\n');
// 3. Gerar resposta com LLM
const response = await openai.chat.completions.create({
model: 'gpt-4',
messages: [
{
role: 'system',
content: `Responda à pergunta usando o contexto abaixo.
Se não houver informação no contexto, responda "Não sei".
Contexto:
${context}`
},
{ role: 'user', content: question }
]
});
return {
answer: response.choices[0].message.content,
sources: relevantDocs
};
}
Busca Híbrida
Combina busca vetorial com busca full-text.
CREATE OR REPLACE FUNCTION hybrid_search(
query_text TEXT,
query_embedding VECTOR(1536),
match_count INT
)
RETURNS TABLE (
id BIGINT,
content TEXT,
similarity FLOAT
)
LANGUAGE plpgsql
AS $$
BEGIN
RETURN QUERY
SELECT
d.id,
d.content,
(
0.5 * (1 - (d.embedding <=> query_embedding)) +
0.5 * ts_rank(to_tsvector('portuguese', d.content), plainto_tsquery('portuguese', query_text))
) AS similarity
FROM documents d
WHERE to_tsvector('portuguese', d.content) @@ plainto_tsquery('portuguese', query_text)
ORDER BY similarity DESC
LIMIT match_count;
END;
$$;
Integração com Edge Functions
// supabase/functions/embed-and-search/index.ts
import { serve } from 'https://deno.land/std@0.168.0/http/server.ts';
import { createClient } from 'https://esm.sh/@supabase/supabase-js@2';
serve(async (req) => {
const { query } = await req.json();
// Gerar Embedding via API OpenAI
const embeddingRes = await fetch('https://api.openai.com/v1/embeddings', {
method: 'POST',
headers: {
'Authorization': `Bearer ${Deno.env.get('OPENAI_API_KEY')}`,
'Content-Type': 'application/json'
},
body: JSON.stringify({
model: 'text-embedding-ada-002',
input: query
})
});
const { data } = await embeddingRes.json();
const embedding = data[0].embedding;
// Buscar no Supabase
const supabase = createClient(
Deno.env.get('SUPABASE_URL')!,
Deno.env.get('SUPABASE_SERVICE_ROLE_KEY')!
);
const { data: results } = await supabase.rpc('match_documents', {
query_embedding: embedding,
match_threshold: 0.7,
match_count: 5
});
return new Response(JSON.stringify(results), {
headers: { 'Content-Type': 'application/json' }
});
});
Dicas de Desempenho
| Configuração | Valor Recomendado |
|---|---|
| IVFFlat lists | sqrt(número de linhas) |
| HNSW m | 16-32 |
| HNSW ef_construction | 64-128 |
Resumo
O Supabase Vector realiza busca vetorial aproveitando as vantagens do PostgreSQL. Permite adicionar recursos de IA a bancos de dados existentes, facilitando a construção de aplicações RAG.
← Voltar para a lista