Hvad er Vektorindlejringer og Vektordatabaser?
Hvorfor Rememberizer er mere end bare en database eller søgemaskine til nøgleord
Last updated
Hvorfor Rememberizer er mere end bare en database eller søgemaskine til nøgleord
Last updated
Rememberizer bruger vektorindlejringer i vektordatabaser for at muliggøre søgninger efter semantisk lighed inden for brugerens videnskilder. Dette er en fundamentalt mere avanceret og nuanceret form for informationshentning end blot at lede efter nøgleord i indhold gennem en traditionel søgemaskine eller database.
I deres mest avancerede form (som anvendt af Rememberizer) skabes vektorindlejringer af sprogmodeller med arkitekturer, der ligner AI LLM'erne (Store Sprogmodeller), som understøtter OpenAIs GPT-modeller og ChatGPT-tjenesten, samt modeller/tjenester fra Google (Gemini), Anthropic (Claude), Meta (LLaMA) og andre.
Hvordan ser en vektorindlejring ud? Overvej en koordinat (x,y) i to dimensioner. Hvis det repræsenterer en linje fra origo til dette punkt, kan vi tænke på det som en linje med en retning—med andre ord, en vektor i to dimensioner.
I konteksten af Rememberizer er en vektorindlejring typisk en liste af flere hundrede tal (ofte 768, 1024 eller 1536), der repræsenterer en vektor i et højdimensionelt rum. Denne liste af tal kan repræsentere vægte i en Transformer-model, der definerer betydningen i en sætning som "Et lyn fra en klar himmel." Dette er fundamentalt den samme underliggende repræsentation af betydning, der bruges i modeller som GPT-4. Som et resultat muliggør en god vektorindlejring den samme sofistikerede forståelse, som vi ser i moderne AI-sprogmodeller.
Vektorindlejringer kan repræsentere mere end blot tekst—de kan også kode andre typer data såsom billeder eller lyd. Med korrekt trænede modeller kan du sammenligne på tværs af medietyper, hvilket gør det muligt at sammenligne en vektorindlejring af tekst med et billede, eller omvendt.
I øjeblikket muliggør Rememberizer søgninger inden for tekstkomponenten af brugerens dokumenter og viden. Funktioner til tekst-til-billede og billede-til-tekst søgning er på Rememberizers køreplan for fremtidig udvikling.
Store teknologivirksomheder udnytter vektorindlejringer i deres produkter:
Nøgleords søgning finder præcise match eller forudbestemte synonymer. I kontrast finder Rememberizers vektor søgning indhold, der er konceptuelt relateret, selv når der bruges forskellig terminologi. For eksempel:
En nøgleords søgning efter "hund pleje" kunne misse et relevant dokument om "kanin sundhedsvedligeholdelse"
Rememberizers vektor søgning ville genkende disse begreber som semantisk lignende og returnere begge
Denne evne gør Rememberizer særligt kraftfuld til at hente relevant information fra forskellige videnskilder.
Kommer snart: Visualisering af Vektor Søgning Processen
Dette diagram vil illustrere den komplette semantiske søgearbejdsgang i Rememberizer:
Dokument chunking og forbehandling
Vektor indlejring genereringsproces
Lagring i vektor database
Søgeforespørgsels indlejring
Beregnings af lighedsmatch
Sammenligning side om side med traditionel nøgleords søgning
For at forstå, hvordan vektorindlejringer og vektordatabaser fungerer:
Teknologierne bag vektorindlejringer har udviklet sig betydeligt over tid:
Dette gør vektorindlejringer til et naturligt valg for at opdage relevant viden, der skal inkluderes i konteksten af AI-modellens prompts. Teknologierne er komplementære og konceptuelt relaterede. Af denne grund producerer de fleste udbydere af LLM'er som en tjeneste også vektorindlejringer som en tjeneste (for eksempel: eller ).
Google bruger vektorindlejringer til at drive både deres tekstsøgning (tekst-til-tekst) og billedsøgning (tekst-til-billede) funktioner ()
Meta (Facebook) har implementeret indlejringer til deres sociale netværkssøgning ()
Snapchat bruger vektorindlejringer til at forstå kontekst og levere målrettet reklame ()
Start med
Pinecone (en vektordatabaseservice) tilbyder en god
Metas FAISS-bibliotek: "FAISS: A Library for Efficient Similarity Search and Clustering of Dense Vectors" af Johnson, Douze og Jégou (2017) giver omfattende indsigt i effektiv vektor lighedssøgning ()
Den 2017 artikel "Attention Is All You Need" () introducerede Transformer-arkitekturen, der driver moderne LLM'er og avancerede indlejringsmodeller
"Approximate Nearest Neighbors: Towards Removing the Curse of Dimensionality" (, ) etablerede teorien for effektiv lighedssøgning i højdimensionale rum
BERT (2018, ) demonstrerede kraften i bidirektional træning til sprogforståelsesopgaver
Tidligere metoder som GloVe (2014, ) og Word2Vec (2013, ) lagde grundlaget for neurale ordindlejringer
For tekniske implementeringsdetaljer og udviklerorienteret vejledning om brug af vektorbutikker med Rememberizer, se .
Google-forskere stod bag den oprindelige Transformer-arkitektur beskrevet i "Attention Is All You Need" (), selvom mange organisationer siden da har bygget videre på og udvidet dette grundlæggende arbejde.