Rememberizer Docs
Iniciar sesiónInscribirseContáctenos
Español
Español
  • ¿Por qué Rememberizer?
  • Antecedentes
    • ¿Qué son los Embeddings Vectoriales y las Bases de Datos Vectoriales?
    • Glosario
    • Terminología Estandarizada
  • Uso Personal
    • Comenzando
      • Buscar tu conocimiento
      • Acceso al Filtro de Mementos
      • Conocimiento Común
      • Gestiona tu conocimiento incrustado
  • Integraciones
    • Aplicación Rememberizer
    • Integración de Rememberizer con Slack
    • Integración de Rememberizer con Google Drive
    • Integración de Rememberizer con Dropbox
    • Integración de Rememberizer con Gmail
    • Integración de Rememberizer con Memory
    • Servidores MCP de Rememberizer
    • Gestionar aplicaciones de terceros
  • Recursos para Desarrolladores
    • Descripción General del Desarrollador
  • Opciones de Integración
    • Registrar y usar claves API
    • Registrar aplicaciones de Rememberizer
    • Autorizar aplicaciones de Rememberizer
    • Crear un Rememberizer GPT
    • Integración de LangChain
    • Almacenes de Vectores
    • Hablar con Slack la Aplicación Web de Ejemplo
  • Integración Empresarial
    • Patrones de Integración Empresarial
  • Referencia de la API
    • Inicio de la Documentación de la API
    • Autenticación
  • APIs principales
    • Buscar documentos por similitud semántica
    • Recuperar documentos
    • Recuperar contenidos de documentos
    • Recuperar contenido de Slack
    • Memorizar contenido en Rememberizer
  • Cuenta y Configuración
    • Recuperar detalles de la cuenta de usuario actual
    • Listar integraciones de fuentes de datos disponibles
    • Mementos
    • Obtener todo el conocimiento público agregado
  • APIs de Almacenamiento de Vectores
    • Documentación del Almacenamiento de Vectores
    • Obtener información del almacenamiento de vectores
    • Obtener una lista de documentos en un Almacenamiento de Vectores
    • Obtener información del documento
    • Agregar un nuevo documento de texto a un Almacenamiento de Vectores
    • Subir archivos a un Almacenamiento de Vectores
    • Actualizar el contenido del archivo en un Almacenamiento de Vectores
    • Eliminar un documento en el Almacenamiento de Vectores
    • Buscar documentos del Almacenamiento de Vectores por similitud semántica
  • Recursos Adicionales
    • Avisos
      • Términos de Uso
      • Política de Privacidad
      • B2B
        • Acerca de Reddit Agent
  • Lanzamientos
    • Notas de la versión Inicio
  • Lanzamientos 2025
    • 25 de abr, 2025
    • 18 de abr, 2025
    • 11 de abr, 2025
    • 4 de abr, 2025
    • 28 de mar, 2025
    • 21 de mar, 2025
    • 14 de mar, 2025
    • 17 de ene, 2025
  • Lanzamientos 2024
    • 27 de diciembre de 2024
    • 20 de diciembre de 2024
    • 13 de diciembre de 2024
    • 6 de diciembre de 2024
  • 29 de Noviembre de 2024
  • 22 de Noviembre de 2024
  • 15 de Noviembre de 2024
  • 8 de Noviembre de 2024
  • 1 de Noviembre de 2024
  • 25 de oct, 2024
  • 18 de oct, 2024
  • 11 de oct, 2024
  • 4 de oct, 2024
  • 27 de sep, 2024
  • 20 de sep, 2024
  • 13 de sep, 2024
  • 16 de agosto de 2024
  • 9 de agosto de 2024
  • 2 de agosto de 2024
  • 26 de julio de 2024
  • 12 de julio de 2024
  • 28 de jun, 2024
  • 14 de jun, 2024
  • 31 de mayo de 2024
  • 17 de mayo de 2024
  • 10 de mayo de 2024
  • 26 de abr, 2024
  • 19 de abr, 2024
  • 12 de abr, 2024
  • 5 de abr, 2024
  • 25 de mar, 2024
  • 18 de mar, 2024
  • 11 de mar, 2024
  • 4 de mar, 2024
  • 26 de Febrero de 2024
  • 19 de Febrero de 2024
  • 12 de Febrero de 2024
  • 5 de Febrero de 2024
  • 29 de enero de 2024
  • 22 de enero de 2024
  • 15 de enero de 2024
  • Documentación LLM
    • Documentación Lista para LLM de Rememberizer
Powered by GitBook
On this page
  • Cómo Rememberizer Utiliza Embeddings Vectoriales
  • Comprendiendo los Embeddings Vectoriales
  • Más Allá del Texto: Embeddings Multimodales
  • Aplicaciones en el Mundo Real
  • Cómo se Diferencia la Búsqueda Vectorial de Rememberizer de la Búsqueda por Palabras Clave
  • Recursos Técnicos
  • La Fundación de la IA Moderna
  1. Antecedentes

¿Qué son los Embeddings Vectoriales y las Bases de Datos Vectoriales?

Por qué Rememberizer es más que una base de datos o un motor de búsqueda por palabras clave

PreviousAntecedentesNextGlosario

Last updated 14 days ago

Rememberizer utiliza embeddings vectoriales en bases de datos vectoriales para habilitar búsquedas de similitud semántica dentro de las fuentes de conocimiento del usuario. Esta es una forma fundamentalmente más avanzada y matizada de recuperación de información que simplemente buscar palabras clave en el contenido a través de un motor de búsqueda o base de datos tradicional.

Cómo Rememberizer Utiliza Embeddings Vectoriales

En su forma más avanzada (como la que utiliza Rememberizer), los embeddings vectoriales son creados por modelos de lenguaje con arquitecturas similares a los LLMs de IA (Modelos de Lenguaje de Gran Escala) que sustentan los modelos GPT de OpenAI y el servicio ChatGPT, así como modelos/servicios de Google (Gemini), Anthropic (Claude), Meta (LLaMA) y otros.

Comprendiendo los Embeddings Vectoriales

¿Cómo se ve un embedding vectorial? Considera una coordenada (x,y) en dos dimensiones. Si representa una línea desde el origen hasta este punto, podemos pensar en ella como una línea con una dirección; en otras palabras, un vector en dos dimensiones.

En el contexto de Rememberizer, un embedding vectorial es típicamente una lista de varios cientos de números (a menudo 768, 1024 o 1536) que representan un vector en un espacio de alta dimensión. Esta lista de números puede representar pesos en un modelo Transformer que definen el significado en una frase como "Un rayo de luz de la nada." Esta es fundamentalmente la misma representación subyacente del significado utilizada en modelos como GPT-4. Como resultado, un buen embedding vectorial permite la misma comprensión sofisticada que vemos en los modelos de lenguaje de IA modernos.

Más Allá del Texto: Embeddings Multimodales

Los embeddings vectoriales pueden representar más que solo texto; también pueden codificar otros tipos de datos como imágenes o sonido. Con modelos adecuadamente entrenados, puedes comparar entre tipos de medios, lo que permite que un embedding vectorial de texto se compare con una imagen, o viceversa.

Actualmente, Rememberizer permite búsquedas dentro del componente de texto de los documentos y conocimientos del usuario. Las capacidades de búsqueda de texto a imagen y de imagen a texto están en la hoja de ruta de Rememberizer para el desarrollo futuro.

Aplicaciones en el Mundo Real

Las principales empresas de tecnología aprovechan los embeddings vectoriales en sus productos:

Cómo se Diferencia la Búsqueda Vectorial de Rememberizer de la Búsqueda por Palabras Clave

La búsqueda por palabras clave encuentra coincidencias exactas o sinónimos predeterminados. En contraste, la búsqueda vectorial de Rememberizer encuentra contenido que está conceptualmente relacionado, incluso cuando se utiliza una terminología diferente. Por ejemplo:

  • Una búsqueda por palabras clave para "cuidado de perros" podría perder un documento relevante sobre "mantenimiento de la salud canina"

  • La búsqueda vectorial de Rememberizer reconocería estos conceptos como semánticamente similares y devolvería ambos

Esta capacidad hace que Rememberizer sea particularmente poderoso para recuperar información relevante de diversas fuentes de conocimiento.

Próximamente: Visualización del Proceso de Búsqueda Vectorial

Este diagrama ilustrará el flujo de trabajo completo de búsqueda semántica en Rememberizer:

  • Fragmentación y preprocesamiento de documentos

  • Proceso de generación de incrustaciones vectoriales

  • Almacenamiento en la base de datos vectorial

  • Incrustación de consulta de búsqueda

  • Cálculo de coincidencia de similitud

  • Comparación lado a lado con la búsqueda tradicional por palabras clave

Recursos Técnicos

Para comprender profundamente cómo funcionan las incrustaciones vectoriales y las bases de datos vectoriales:

La Fundación de la IA Moderna

Las tecnologías detrás de los embeddings vectoriales han evolucionado significativamente con el tiempo:

Un aspecto notable de los modelos basados en Transformer son sus propiedades de escalado; a medida que utilizan más datos y tienen más parámetros, su comprensión y capacidades mejoran drásticamente. Esta propiedad de escalado se observó con modelos como GPT-2 y ha impulsado el rápido avance de las capacidades de IA.

Esto hace que los embeddings vectoriales sean una elección natural para descubrir conocimiento relevante que incluir en el contexto de los prompts de modelos de IA. Las tecnologías son complementarias y conceptualmente relacionadas. Por esta razón, la mayoría de los proveedores de LLMs como servicio también producen embeddings vectoriales como servicio (por ejemplo: o ).

Google utiliza embeddings vectoriales para potenciar tanto su búsqueda de texto (texto a texto) como su búsqueda de imágenes (texto a imagen) ()

Meta (Facebook) ha implementado embeddings para la búsqueda en su red social ()

Snapchat utiliza embeddings vectoriales para entender el contexto y ofrecer publicidad dirigida ()

Comienza con la

Pinecone (un servicio de base de datos vectorial) ofrece una buena

La biblioteca FAISS de Meta: "FAISS: A Library for Efficient Similarity Search and Clustering of Dense Vectors" de Johnson, Douze y Jégou (2017) proporciona información completa sobre la búsqueda de similitud vectorial eficiente ()

El artículo de 2017 "Attention Is All You Need" () introdujo la arquitectura Transformer que impulsa los LLM modernos y modelos de embedding avanzados

"Approximate Nearest Neighbors: Towards Removing the Curse of Dimensionality" (, ) estableció la teoría para la búsqueda de similitud eficiente en espacios de alta dimensión

BERT (2018, ) demostró el poder del entrenamiento bidireccional para tareas de comprensión del lenguaje

Métodos anteriores como GloVe (2014, ) y Word2Vec (2013, ) sentaron las bases para los embeddings de palabras neuronales

Para detalles de implementación técnica y orientación para desarrolladores sobre el uso de almacenes vectoriales con Rememberizer, consulte .

Los investigadores de Google estuvieron detrás de la arquitectura Transformer original descrita en "Attention Is All You Need" (), aunque muchas organizaciones han construido y ampliado este trabajo fundamental desde entonces.

el endpoint de embeddings de Together AI
los embeddings de texto y código de OpenAI
referencia
referencia
referencia
visión general de Hugging Face
introducción a las incrustaciones vectoriales
repositorio de GitHub
referencia
1998
2010
referencia
referencia
referencia
Vector Stores
referencia de patente
Visualización de un espacio vectorial multidimensional
Una visualización de un espacio vectorial multidimensional