Rememberizer Docs
anmeldenMelden Sie sich anKontaktiere uns
Deutsch
Deutsch
  • Warum Rememberizer?
  • Hintergrund
    • Was sind Vektor-Embeddings und Vektor-Datenbanken?
    • Glossar
    • Standardisierte Terminologie
  • Persönliche Nutzung
    • Erste Schritte
      • Durchsuche dein Wissen
      • Zugriff auf Mementos-Filter
      • Allgemeines Wissen
      • Verwalte dein eingebettetes Wissen
  • Integrationen
    • Rememberizer App
    • Rememberizer Slack-Integration
    • Rememberizer Google Drive-Integration
    • Rememberizer Dropbox-Integration
    • Rememberizer Gmail-Integration
    • Rememberizer Memory-Integration
    • Rememberizer MCP-Server
    • Drittanbieter-Apps verwalten
  • Entwicklerressourcen
    • Entwicklerübersicht
  • Integrationsoptionen
    • Registrierung und Verwendung von API-Schlüsseln
    • Registrierung von Rememberizer-Apps
    • Autorisierung von Rememberizer-Apps
    • Erstellung eines Rememberizer GPT
    • LangChain-Integration
    • Vektor-Speicher
    • Talk-to-Slack die Beispiel-Webanwendung
  • Unternehmensintegration
    • Muster der Unternehmensintegration
  • API-Referenz
    • API-Dokumentation Startseite
    • Authentifizierung
  • Kern-APIs
    • Dokumente nach semantischer Ähnlichkeit suchen
    • Dokumente abrufen
    • Inhalte von Dokumenten abrufen
    • Slack-Inhalte abrufen
    • Inhalte an Rememberizer merken
  • Konto & Konfiguration
    • Aktuelle Kontodetails des Benutzers abrufen
    • Verfügbare Datenquellenintegrationen auflisten
    • Mementos
    • Alle hinzugefügten öffentlichen Kenntnisse abrufen
  • Vektor-Speicher-APIs
    • Dokumentation zum Vektor-Speicher
    • Vektor-Speicherinformationen abrufen
    • Liste der Dokumente in einem Vektor-Speicher abrufen
    • Dokumentinformationen abrufen
    • Neues Textdokument zu einem Vektor-Speicher hinzufügen
    • Dateien in einen Vektor-Speicher hochladen
    • Dateiinhalte in einem Vektor-Speicher aktualisieren
    • Ein Dokument im Vektor-Speicher entfernen
    • Nach Dokumenten im Vektor-Speicher anhand semantischer Ähnlichkeit suchen
  • Zusätzliche Ressourcen
    • Hinweise
      • Nutzungsbedingungen
      • Datenschutzrichtlinie
      • B2B
        • Über Reddit Agent
  • Veröffentlichungen
    • Versionshinweise Startseite
  • 2025 Veröffentlichungen
    • 25. Apr 2025
    • 18. Apr 2025
    • 11. Apr 2025
    • 4. Apr 2025
    • 28. Mär 2025
    • 21. Mär 2025
    • 14. Mär 2025
    • 17. Jan 2025
  • 2024 Veröffentlichungen
    • 27. Dez 2024
    • 20. Dez 2024
    • 13. Dez 2024
    • 6. Dez 2024
  • 29. Nov 2024
  • 22. Nov 2024
  • 15. Nov 2024
  • 8. Nov 2024
  • 1. Nov 2024
  • 25. Okt 2024
  • 18. Okt 2024
  • 11. Okt 2024
  • 4. Okt 2024
  • 27. Sep 2024
  • 20. Sep 2024
  • 13. Sep 2024
  • 16. Aug 2024
  • 9. Aug 2024
  • 2. Aug 2024
  • 26. Juli 2024
  • 12. Juli 2024
  • 28. Juni 2024
  • 14. Juni 2024
  • 31. Mai 2024
  • 17. Mai 2024
  • 10. Mai 2024
  • 26. Apr 2024
  • 19. Apr 2024
  • 12. Apr 2024
  • 5. Apr 2024
  • 25. März 2024
  • 18. März 2024
  • 11. März 2024
  • 4. März 2024
  • 26. Feb 2024
  • 19. Feb 2024
  • 12. Feb 2024
  • 5. Feb 2024
  • 29. Jan 2024
  • 22. Jan 2024
  • 15. Jan 2024
  • LLM-Dokumentation
    • Rememberizer LLM Bereit Dokumentation
Powered by GitBook
On this page
  • Wie Rememberizer Vektor-Embeddings Verwendet
  • Verständnis von Vektor-Embeddings
  • Über Text hinaus: Multimodale Einbettungen
  • Anwendungsbeispiele aus der Praxis
  • Wie sich die Vektorsuche von Rememberizer von der Schlüsselwortsuche unterscheidet
  • Technische Ressourcen
  • Die Grundlage der modernen KI
  1. Hintergrund

Was sind Vektor-Embeddings und Vektor-Datenbanken?

Warum Rememberizer mehr als nur eine Datenbank oder eine Schlüsselwort-Suchmaschine ist

PreviousHintergrundNextGlossar

Last updated 27 days ago

Rememberizer verwendet Vektor-Embeddings in Vektor-Datenbanken, um Suchen nach semantischer Ähnlichkeit innerhalb von Benutzerwissensquellen zu ermöglichen. Dies ist eine grundsätzlich fortschrittlichere und nuanciertere Form der Informationsbeschaffung als einfach nur nach Schlüsselwörtern in Inhalten über eine traditionelle Suchmaschine oder Datenbank zu suchen.

Wie Rememberizer Vektor-Embeddings Verwendet

In ihrer fortschrittlichsten Form (wie sie von Rememberizer verwendet werden) werden Vektor-Embeddings von Sprachmodellen mit Architekturen erstellt, die den KI-LLMs (Large Language Models) ähneln, die den GPT-Modellen und dem ChatGPT-Dienst von OpenAI zugrunde liegen, sowie Modellen/Diensten von Google (Gemini), Anthropic (Claude), Meta (LLaMA) und anderen.

Verständnis von Vektor-Embeddings

Wie sieht ein Vektor-Embedding aus? Betrachten Sie eine Koordinate (x,y) in zwei Dimensionen. Wenn sie eine Linie vom Ursprung zu diesem Punkt darstellt, können wir sie als eine Linie mit einer Richtung betrachten—mit anderen Worten, als einen Vektor in zwei Dimensionen.

Im Kontext von Rememberizer ist ein Vektor-Embedding typischerweise eine Liste von mehreren hundert Zahlen (oft 768, 1024 oder 1536), die einen Vektor in einem hochdimensionalen Raum darstellen. Diese Liste von Zahlen kann Gewichte in einem Transformer-Modell repräsentieren, die die Bedeutung in einem Satz wie "Ein Blitz aus heiterem Himmel." definieren. Dies ist grundsätzlich die gleiche zugrunde liegende Darstellung von Bedeutung, die in Modellen wie GPT-4 verwendet wird. Infolgedessen ermöglicht ein gutes Vektor-Embedding das gleiche anspruchsvolle Verständnis, das wir in modernen KI-Sprachmodellen sehen.

Über Text hinaus: Multimodale Einbettungen

Vektor-Einbettungen können mehr als nur Text darstellen – sie können auch andere Datentypen wie Bilder oder Ton kodieren. Mit richtig trainierten Modellen können Sie über Medientypen hinweg vergleichen, sodass eine Vektor-Einbettung von Text mit einem Bild oder umgekehrt verglichen werden kann.

Derzeit ermöglicht Rememberizer Suchen innerhalb des Textkomponenten von Benutzerdokumenten und Wissen. Die Funktionen zur Text-zu-Bild- und Bild-zu-Text-Suche stehen auf der Roadmap von Rememberizer für die zukünftige Entwicklung.

Anwendungsbeispiele aus der Praxis

Große Technologieunternehmen nutzen Vektor-Embeddings in ihren Produkten:

Wie sich die Vektorsuche von Rememberizer von der Schlüsselwortsuche unterscheidet

Die Schlüsselwortsuche findet exakte Übereinstimmungen oder vorbestimmte Synonyme. Im Gegensatz dazu findet die Vektorsuche von Rememberizer Inhalte, die konzeptionell verwandt sind, selbst wenn unterschiedliche Terminologie verwendet wird. Zum Beispiel:

  • Eine Schlüsselwortsuche nach "Hundepflege" könnte ein relevantes Dokument über "Hunde-Gesundheitsmanagement" übersehen

  • Die Vektorsuche von Rememberizer würde diese Konzepte als semantisch ähnlich erkennen und beide zurückgeben

Diese Fähigkeit macht Rememberizer besonders leistungsfähig, um relevante Informationen aus verschiedenen Wissensquellen abzurufen.

Demnächst: Visualisierung des Vektorsuche-Prozesses

Dieses Diagramm wird den vollständigen semantischen Suchworkflow in Rememberizer veranschaulichen:

  • Dokumentchunking und Vorverarbeitung

  • Prozess der Vektoreinbettungsgenerierung

  • Speicherung in der Vektordatenbank

  • Einbettung der Suchanfrage

  • Berechnung der Ähnlichkeitsübereinstimmung

  • Seiten-by-Seiten-Vergleich mit traditioneller Schlüsselwortsuche

Technische Ressourcen

Um zu verstehen, wie Vektor-Embeddings und Vektor-Datenbanken funktionieren:

Die Grundlage der modernen KI

Die Technologien hinter Vektor-Embeddings haben sich im Laufe der Zeit erheblich weiterentwickelt:

Ein bemerkenswerter Aspekt von auf Transformern basierenden Modellen sind ihre Skalierungseigenschaften – je mehr Daten sie verwenden und je mehr Parameter sie haben, desto dramatischer verbessert sich ihr Verständnis und ihre Fähigkeiten. Diese Skalierungseigenschaft wurde bei Modellen wie GPT-2 beobachtet und hat den raschen Fortschritt der KI-Fähigkeiten vorangetrieben.

Dies macht Vektor-Embeddings zu einer natürlichen Wahl, um relevantes Wissen zu entdecken, das im Kontext von KI-Modellaufforderungen einbezogen werden kann. Die Technologien sind komplementär und konzeptionell miteinander verbunden. Aus diesem Grund produzieren die meisten Anbieter von LLMs als Dienst auch Vektor-Embeddings als Dienst (zum Beispiel: oder ).

Google verwendet Vektor-Embeddings, um sowohl ihre Textsuche (Text-zu-Text) als auch ihre Bildsuche (Text-zu-Bild) zu unterstützen ()

Meta (Facebook) hat Embeddings für die Suche in ihrem sozialen Netzwerk implementiert ()

Snapchat nutzt Vektor-Embeddings, um den Kontext zu verstehen und gezielte Werbung auszuspielen ()

Beginnen Sie mit der

Pinecone (ein Vektor-Datenbankdienst) bietet eine gute

Metas FAISS-Bibliothek: "FAISS: A Library for Efficient Similarity Search and Clustering of Dense Vectors" von Johnson, Douze und Jégou (2017) bietet umfassende Einblicke in die effiziente Vektorähnlichkeitssuche ()

Das Papier von 2017 "Attention Is All You Need" () führte die Transformer-Architektur ein, die moderne LLMs und fortschrittliche Embedding-Modelle antreibt

"Approximate Nearest Neighbors: Towards Removing the Curse of Dimensionality" (, ) etablierte die Theorie für effiziente Ähnlichkeitssuche in hochdimensionalen Räumen

BERT (2018, ) demonstrierte die Kraft des bidirektionalen Trainings für Aufgaben des Sprachverständnisses

Frühere Methoden wie GloVe (2014, ) und Word2Vec (2013, ) legten das Fundament für neuronale Wort-Embeddings

Für technische Implementierungsdetails und entwicklerorientierte Anleitungen zur Verwendung von Vektor-Speichern mit Rememberizer siehe .

Google-Forscher waren hinter der ursprünglichen Transformer-Architektur, die in "Attention Is All You Need" beschrieben wird (), obwohl viele Organisationen seitdem auf dieser grundlegenden Arbeit aufgebaut und sie erweitert haben.

Together AIs Embeddings-Endpunkt
OpenAIs Text- und Code-Embeddings
Referenz
Referenz
Referenz
Übersicht von Hugging Face
Einführung in Vektor-Embeddings
GitHub-Repository
reference
1998
2010
reference
reference
reference
Vector Stores
patent reference
Visualisierung eines mehrdimensionalen Vektorraums
Eine Visualisierung eines mehrdimensionalen Vektorraums