Rememberizer Docs
Sign inSign upContact us
Dansk
Dansk
  • Hvorfor Rememberizer?
  • Baggrund
    • Hvad er Vektorindlejringer og Vektordatabaser?
    • Ordliste
    • Standardiseret Terminologi
  • Personlig Brug
    • Kom godt i gang
      • Søg i din viden
      • Adgang til Mementos-filter
      • Almindelig viden
      • Administrer din indlejrede viden
  • Integrationer
    • Rememberizer App
    • Rememberizer Slack integration
    • Rememberizer Google Drive integration
    • Rememberizer Dropbox integration
    • Rememberizer Gmail integration
    • Rememberizer Memory integration
    • Rememberizer MCP Servers
    • Administrer tredjepartsapps
  • Udviklerressourcer
    • Udvikleroversigt
  • Integrationsmuligheder
    • Registrering og brug af API-nøgler
    • Registrering af Rememberizer-apps
    • Autorisation af Rememberizer-apps
    • Oprettelse af en Rememberizer GPT
    • LangChain-integration
    • Vektorlager
    • Talk-to-Slack den eksempel-webapp
  • Enterprise Integration
    • Enterprise Integration Patterns
  • API Referencer
    • API Dokumentation Hjem
    • Godkendelse
  • Kerne-API'er
    • Søg efter dokumenter efter semantisk lighed
    • Hent dokumenter
    • Hent dokumentindhold
    • Hent Slack-indhold
    • Husk indhold til Rememberizer
  • Konto & Konfiguration
    • Hent nuværende brugerkontodetaljer
    • Liste over tilgængelige datakildeintegrationer
    • Mementos
    • Få alle tilføjede offentlige viden
  • Vektorbutik API'er
    • Vektorbutik Dokumentation
    • Hent information om vektorbutik
    • Hent en liste over dokumenter i en Vektorbutik
    • Hent dokumentinformation
    • Tilføj nyt tekstdokument til en Vektorbutik
    • Upload filer til en Vektorbutik
    • Opdater filindhold i en Vektorbutik
    • Fjern et dokument i Vektorbutik
    • Søg efter Vektorbutik dokumenter efter semantisk lighed
  • Yderligere Ressourcer
    • Meddelelser
      • Brugsvilkår
      • Privatlivspolitik
      • B2B
        • Om Reddit Agent
  • Udgivelser
    • Udgivelsesnoter Hjem
  • 2025 Udgivelser
    • 25. apr 2025
    • 18. apr 2025
    • 11. apr 2025
    • 4. apr 2025
    • 28. mar 2025
    • 21. mar 2025
    • 14. mar 2025
    • 17. jan 2025
  • 2024 Udgivelser
    • 27. dec 2024
    • 20. dec 2024
    • 13. dec 2024
    • 6. dec 2024
  • 29. nov 2024
  • 22. nov 2024
  • 15. nov 2024
  • 8. nov 2024
  • 1. nov 2024
  • 25. okt 2024
  • 18. okt 2024
  • 11. okt 2024
  • 4. okt 2024
  • 27. sep 2024
  • 20. sep 2024
  • 13. sep 2024
  • 16. aug 2024
  • 9. aug 2024
  • 2. aug 2024
  • 26. jul 2024
  • 12. jul 2024
  • 28. jun 2024
  • 14. jun 2024
  • 31. maj 2024
  • 17. maj 2024
  • 10. maj 2024
  • 26. apr 2024
  • 19. apr 2024
  • 12. apr 2024
  • 5. apr 2024
  • 25. mar 2024
  • 18. mar 2024
  • 11. mar 2024
  • 4. mar 2024
  • 26. feb 2024
  • 19. feb 2024
  • 12. feb 2024
  • 5. feb 2024
  • 29. jan 2024
  • 22. jan 2024
  • 15. jan 2024
  • LLM Dokumentation
    • Rememberizer LLM Klar Dokumentation
Powered by GitBook
On this page
  • Hvordan Rememberizer Bruger Vektorindlejringer
  • Forståelse af Vektorindlejringer
  • Udover tekst: Multimodale indlejringer
  • Virkelige Anvendelser
  • Hvordan Rememberizers Vektor Søgning Adskiller Sig Fra Nøgleords Søgning
  • Tekniske Ressourcer
  • Grundlaget for Moderne AI
  1. Baggrund

Hvad er Vektorindlejringer og Vektordatabaser?

Hvorfor Rememberizer er mere end bare en database eller søgemaskine til nøgleord

PreviousBaggrundNextOrdliste

Last updated 17 days ago

Rememberizer bruger vektorindlejringer i vektordatabaser for at muliggøre søgninger efter semantisk lighed inden for brugerens videnskilder. Dette er en fundamentalt mere avanceret og nuanceret form for informationshentning end blot at lede efter nøgleord i indhold gennem en traditionel søgemaskine eller database.

Visualisering af et multidimensionelt vektorrum

Hvordan Rememberizer Bruger Vektorindlejringer

I deres mest avancerede form (som anvendt af Rememberizer) skabes vektorindlejringer af sprogmodeller med arkitekturer, der ligner AI LLM'erne (Store Sprogmodeller), som understøtter OpenAIs GPT-modeller og ChatGPT-tjenesten, samt modeller/tjenester fra Google (Gemini), Anthropic (Claude), Meta (LLaMA) og andre.

Forståelse af Vektorindlejringer

Hvordan ser en vektorindlejring ud? Overvej en koordinat (x,y) i to dimensioner. Hvis det repræsenterer en linje fra origo til dette punkt, kan vi tænke på det som en linje med en retning—med andre ord, en vektor i to dimensioner.

I konteksten af Rememberizer er en vektorindlejring typisk en liste af flere hundrede tal (ofte 768, 1024 eller 1536), der repræsenterer en vektor i et højdimensionelt rum. Denne liste af tal kan repræsentere vægte i en Transformer-model, der definerer betydningen i en sætning som "Et lyn fra en klar himmel." Dette er fundamentalt den samme underliggende repræsentation af betydning, der bruges i modeller som GPT-4. Som et resultat muliggør en god vektorindlejring den samme sofistikerede forståelse, som vi ser i moderne AI-sprogmodeller.

Udover tekst: Multimodale indlejringer

Vektorindlejringer kan repræsentere mere end blot tekst—de kan også kode andre typer data såsom billeder eller lyd. Med korrekt trænede modeller kan du sammenligne på tværs af medietyper, hvilket gør det muligt at sammenligne en vektorindlejring af tekst med et billede, eller omvendt.

I øjeblikket muliggør Rememberizer søgninger inden for tekstkomponenten af brugerens dokumenter og viden. Funktioner til tekst-til-billede og billede-til-tekst søgning er på Rememberizers køreplan for fremtidig udvikling.

Virkelige Anvendelser

Store teknologivirksomheder udnytter vektorindlejringer i deres produkter:

Hvordan Rememberizers Vektor Søgning Adskiller Sig Fra Nøgleords Søgning

Nøgleords søgning finder præcise match eller forudbestemte synonymer. I kontrast finder Rememberizers vektor søgning indhold, der er konceptuelt relateret, selv når der bruges forskellig terminologi. For eksempel:

  • En nøgleords søgning efter "hund pleje" kunne misse et relevant dokument om "kanin sundhedsvedligeholdelse"

  • Rememberizers vektor søgning ville genkende disse begreber som semantisk lignende og returnere begge

Denne evne gør Rememberizer særligt kraftfuld til at hente relevant information fra forskellige videnskilder.

Kommer snart: Visualisering af Vektor Søgning Processen

Dette diagram vil illustrere den komplette semantiske søgearbejdsgang i Rememberizer:

  • Dokument chunking og forbehandling

  • Vektor indlejring genereringsproces

  • Lagring i vektor database

  • Søgeforespørgsels indlejring

  • Beregnings af lighedsmatch

  • Sammenligning side om side med traditionel nøgleords søgning

Tekniske Ressourcer

For at forstå, hvordan vektorindlejringer og vektordatabaser fungerer:

Grundlaget for Moderne AI

Teknologierne bag vektorindlejringer har udviklet sig betydeligt over tid:

En bemærkelsesværdig egenskab ved Transformer-baserede modeller er deres skaleringsegenskaber—da de bruger mere data og har flere parametre, forbedres deres forståelse og kapaciteter dramatisk. Denne skaleringsegenskab blev observeret med modeller som GPT-2 og har drevet den hurtige udvikling af AI-kapaciteter.

Dette gør vektorindlejringer til et naturligt valg for at opdage relevant viden, der skal inkluderes i konteksten af AI-modellens prompts. Teknologierne er komplementære og konceptuelt relaterede. Af denne grund producerer de fleste udbydere af LLM'er som en tjeneste også vektorindlejringer som en tjeneste (for eksempel: eller ).

Google bruger vektorindlejringer til at drive både deres tekstsøgning (tekst-til-tekst) og billedsøgning (tekst-til-billede) funktioner ()

Meta (Facebook) har implementeret indlejringer til deres sociale netværkssøgning ()

Snapchat bruger vektorindlejringer til at forstå kontekst og levere målrettet reklame ()

Start med

Pinecone (en vektordatabaseservice) tilbyder en god

Metas FAISS-bibliotek: "FAISS: A Library for Efficient Similarity Search and Clustering of Dense Vectors" af Johnson, Douze og Jégou (2017) giver omfattende indsigt i effektiv vektor lighedssøgning ()

Den 2017 artikel "Attention Is All You Need" () introducerede Transformer-arkitekturen, der driver moderne LLM'er og avancerede indlejringsmodeller

"Approximate Nearest Neighbors: Towards Removing the Curse of Dimensionality" (, ) etablerede teorien for effektiv lighedssøgning i højdimensionale rum

BERT (2018, ) demonstrerede kraften i bidirektional træning til sprogforståelsesopgaver

Tidligere metoder som GloVe (2014, ) og Word2Vec (2013, ) lagde grundlaget for neurale ordindlejringer

For tekniske implementeringsdetaljer og udviklerorienteret vejledning om brug af vektorbutikker med Rememberizer, se .

Google-forskere stod bag den oprindelige Transformer-arkitektur beskrevet i "Attention Is All You Need" (), selvom mange organisationer siden da har bygget videre på og udvidet dette grundlæggende arbejde.

Together AIs indlejrings-endpoint
OpenAIs tekst- og kodeindlejringer
reference
reference
reference
oversigten fra Hugging Face
introduktion til vektorindlejringer
GitHub-repository
reference
1998
2010
reference
reference
reference
Vektorbutikker
patent reference
En visualisering af et multidimensionelt vektorrum