Rememberizer Docs
Sign inSign upContact us
Português
Português
  • Por que Rememberizer?
  • Contexto
    • O que são Embeddings Vetoriais e Bancos de Dados Vetoriais?
    • Glossário
    • Terminologia Padronizada
  • Uso Pessoal
    • Introdução
      • Pesquise seu conhecimento
      • Acesso ao Filtro de Mementos
      • Conhecimento Comum
      • Gerencie seu conhecimento incorporado
  • Integrações
    • Aplicativo Rememberizer
    • Integração do Rememberizer com o Slack
    • Integração do Rememberizer com o Google Drive
    • Integração do Rememberizer com o Dropbox
    • Integração do Rememberizer com o Gmail
    • Integração do Rememberizer com a Memória
    • Servidores MCP do Rememberizer
    • Gerenciar aplicativos de terceiros
  • Recursos para Desenvolvedores
    • Visão Geral do Desenvolvedor
  • Opções de Integração
    • Registrando e usando Chaves de API
    • Registrando aplicativos Rememberizer
    • Autorizando aplicativos Rememberizer
    • Criando um Rememberizer GPT
    • Integração com LangChain
    • Armazenamentos de Vetores
    • Talk-to-Slack o Aplicativo Web de Exemplo
  • Integração Empresarial
    • Padrões de Integração Empresarial
  • Referência da API
    • Página Inicial da Documentação da API
    • Autenticação
  • APIs Principais
    • Pesquisar documentos por similaridade semântica
    • Recuperar documentos
    • Recuperar conteúdos de documentos
    • Recuperar conteúdo do Slack
    • Memorizar conteúdo para Rememberizer
  • Conta e Configuração
    • Recuperar detalhes da conta do usuário atual
    • Listar integrações de fontes de dados disponíveis
    • Mementos
    • Obter todo o conhecimento público adicionado
  • APIs de Armazenamento Vetorial
    • Documentação do Armazenamento Vetorial
    • Obter informações do armazenamento vetorial
    • Obter uma lista de documentos em um Armazenamento Vetorial
    • Obter informações do documento
    • Adicionar novo documento de texto a um Armazenamento Vetorial
    • Enviar arquivos para um Armazenamento Vetorial
    • Atualizar conteúdo de arquivo em um Armazenamento Vetorial
    • Remover um documento no Armazenamento Vetorial
    • Pesquisar documentos do Armazenamento Vetorial por similaridade semântica
  • Recursos Adicionais
    • Avisos
      • Termos de Uso
      • Política de Privacidade
      • B2B
        • Sobre o Reddit Agent
  • Lançamentos
    • Notas de Lançamento
  • Lançamentos de 2025
    • 25 de Abr, 2025
    • 18 de Abr, 2025
    • 11 de Abr, 2025
    • 4 de Abr, 2025
    • 28 de Mar, 2025
    • 21 de Mar, 2025
    • 14 de Mar, 2025
    • 17 de Jan, 2025
  • Lançamentos de 2024
    • 27 de Dezembro de 2024
    • 20 de Dezembro de 2024
    • 13 de Dezembro de 2024
    • 6 de Dezembro de 2024
  • 29 de Nov, 2024
  • 22 de Nov, 2024
  • 15 de Nov, 2024
  • 8 de Nov, 2024
  • 1 de Nov, 2024
  • 25 de Out, 2024
  • 18 de Out, 2024
  • 11 de Out, 2024
  • 4 de Out, 2024
  • 27 de Set, 2024
  • 20 de Set, 2024
  • 13 de Set, 2024
  • 16 de Ago, 2024
  • 9 de Ago, 2024
  • 2 de Ago, 2024
  • 26 de Jul, 2024
  • 12 de Jul, 2024
  • 28 de Jun, 2024
  • 14 de Jun, 2024
  • 31 de Maio de 2024
  • 17 de Maio de 2024
  • 10 de Maio de 2024
  • 26 de Abr, 2024
  • 19 de Abr, 2024
  • 12 de Abr, 2024
  • 5 de Abr, 2024
  • 25 de Mar, 2024
  • 18 de Mar, 2024
  • 11 de Mar, 2024
  • 4 de Mar, 2024
  • 26 de Fev, 2024
  • 19 de Fev, 2024
  • 12 de Fev, 2024
  • 5 de Fev, 2024
  • 29 de Jan, 2024
  • 22 de Jan, 2024
  • 15 de Jan, 2024
  • Documentação LLM
    • Documentação LLM Ready do Rememberizer
Powered by GitBook
On this page
  • Como a Rememberizer Usa Embeddings Vetoriais
  • Compreendendo Embeddings Vetoriais
  • Além do Texto: Embeddings Multimodais
  • Aplicações no Mundo Real
  • Como a Busca Vetorial do Rememberizer Difere da Busca por Palavras-chave
  • Recursos Técnicos
  • A Fundação da IA Moderna
  1. Contexto

O que são Embeddings Vetoriais e Bancos de Dados Vetoriais?

Por que o Rememberizer é mais do que apenas um banco de dados ou um mecanismo de busca por palavras-chave

PreviousContextoNextGlossário

Last updated 23 days ago

Rememberizer usa embeddings vetoriais em bancos de dados vetoriais para permitir buscas por similaridade semântica dentro das fontes de conhecimento do usuário. Esta é uma forma fundamentalmente mais avançada e sutil de recuperação de informações do que simplesmente procurar palavras-chave em conteúdo através de um mecanismo de busca ou banco de dados tradicional.

Como a Rememberizer Usa Embeddings Vetoriais

Na sua forma mais avançada (como usado pela Rememberizer), os embeddings vetoriais são criados por modelos de linguagem com arquiteturas semelhantes aos LLMs de IA (Modelos de Linguagem de Grande Escala) que sustentam os modelos GPT da OpenAI e o serviço ChatGPT, assim como modelos/serviços do Google (Gemini), Anthropic (Claude), Meta (LLaMA) e outros.

Compreendendo Embeddings Vetoriais

Como é um embedding vetorial? Considere uma coordenada (x,y) em duas dimensões. Se ela representa uma linha da origem até este ponto, podemos pensar nela como uma linha com uma direção—em outras palavras, um vetor em duas dimensões.

No contexto do Rememberizer, um embedding vetorial é tipicamente uma lista de várias centenas de números (geralmente 768, 1024 ou 1536) representando um vetor em um espaço de alta dimensão. Esta lista de números pode representar pesos em um modelo Transformer que definem o significado em uma frase como "Um raio do nada." Esta é fundamentalmente a mesma representação subjacente de significado usada em modelos como o GPT-4. Como resultado, um bom embedding vetorial possibilita a mesma compreensão sofisticada que vemos em modelos de linguagem de IA modernos.

Além do Texto: Embeddings Multimodais

Embeddings vetoriais podem representar mais do que apenas texto—eles também podem codificar outros tipos de dados, como imagens ou som. Com modelos devidamente treinados, você pode comparar diferentes tipos de mídia, permitindo que um embedding vetorial de texto seja comparado a uma imagem, ou vice-versa.

Atualmente, o Rememberizer permite buscas dentro do componente de texto de documentos e conhecimentos dos usuários. As capacidades de busca de texto para imagem e de imagem para texto estão no roadmap do Rememberizer para desenvolvimento futuro.

Aplicações no Mundo Real

Grandes empresas de tecnologia utilizam embeddings vetoriais em seus produtos:

Como a Busca Vetorial do Rememberizer Difere da Busca por Palavras-chave

A busca por palavras-chave encontra correspondências exatas ou sinônimos predeterminados. Em contraste, a busca vetorial do Rememberizer encontra conteúdo que está conceitualmente relacionado, mesmo quando uma terminologia diferente é usada. Por exemplo:

  • Uma busca por palavras-chave para "cuidados com cães" pode perder um documento relevante sobre "manutenção da saúde canina"

  • A busca vetorial do Rememberizer reconheceria esses conceitos como semanticamente semelhantes e retornaria ambos

Essa capacidade torna o Rememberizer particularmente poderoso para recuperar informações relevantes de diversas fontes de conhecimento.

Em breve: Visualização do Processo de Busca Vetorial

Este diagrama ilustrará o fluxo de trabalho completo da busca semântica no Rememberizer:

  • Divisão e pré-processamento de documentos

  • Processo de geração de embeddings vetoriais

  • Armazenamento em banco de dados vetorial

  • Embedding de consulta de busca

  • Cálculo de correspondência de similaridade

  • Comparação lado a lado com a busca tradicional por palavras-chave

Recursos Técnicos

Para entender profundamente como funcionam as incorporações vetoriais e os bancos de dados vetoriais:

A Fundação da IA Moderna

As tecnologias por trás das incorporações vetoriais evoluíram significativamente ao longo do tempo:

Um aspecto notável dos modelos baseados em Transformer são suas propriedades de escalabilidade—à medida que usam mais dados e têm mais parâmetros, sua compreensão e capacidades melhoram dramaticamente. Essa propriedade de escalabilidade foi observada com modelos como o GPT-2 e tem impulsionado o rápido avanço das capacidades de IA.

Isso torna os embeddings vetoriais uma escolha natural para descobrir conhecimento relevante a ser incluído no contexto dos prompts dos modelos de IA. As tecnologias são complementares e conceitualmente relacionadas. Por essa razão, a maioria dos provedores de LLMs como serviço também produz embeddings vetoriais como serviço (por exemplo: ou ).

Google usa embeddings vetoriais para impulsionar tanto sua busca de texto (texto-para-texto) quanto suas capacidades de busca de imagem (texto-para-imagem) ()

Meta (Facebook) implementou embeddings para a busca em sua rede social ()

Snapchat utiliza embeddings vetoriais para entender o contexto e servir publicidade direcionada ()

Comece com a

Pinecone (um serviço de banco de dados vetorial) oferece uma boa

A biblioteca FAISS da Meta: "FAISS: A Library for Efficient Similarity Search and Clustering of Dense Vectors" por Johnson, Douze e Jégou (2017) fornece insights abrangentes sobre busca de similaridade vetorial eficiente ()

O artigo de 2017 "Attention Is All You Need" () introduziu a arquitetura Transformer que alimenta os LLMs modernos e modelos de incorporação avançados

"Approximate Nearest Neighbors: Towards Removing the Curse of Dimensionality" (, ) estabeleceu a teoria para busca de similaridade eficiente em espaços de alta dimensão

BERT (2018, ) demonstrou o poder do treinamento bidirecional para tarefas de compreensão de linguagem

Métodos anteriores como GloVe (2014, ) e Word2Vec (2013, ) lançaram as bases para incorporações de palavras neurais

Para detalhes de implementação técnica e orientações voltadas para desenvolvedores sobre o uso de lojas vetoriais com o Rememberizer, veja .

Pesquisadores do Google estavam por trás da arquitetura Transformer original descrita em "Attention Is All You Need" (), embora muitas organizações tenham desde então construído e ampliado esse trabalho fundamental.

o endpoint de embeddings da Together AI
os embeddings de texto e código da OpenAI
referência
referência
referência
visão geral da Hugging Face
introdução às incorporações vetoriais
repositório do GitHub
referência
1998
2010
referência
referência
referência
Lojas Vetoriais
referência da patente
Visualização de um espaço vetorial multidimensional
Uma visualização de um espaço vetorial multidimensional