LangChain-integration

Lær hvordan du integrerer Rememberizer som en LangChain retriever for at give din LangChain-applikation adgang til kraftfuld søgning i vektordatabase.

LangChain Integration

Rememberizer integreres med LangChain gennem RememberizerRetriever klassen, hvilket gør det muligt for dig nemt at inkorporere Rememberizers semantiske søgefunktioner i dine LangChain-drevne applikationer. Denne vejledning forklarer, hvordan du opsætter og bruger denne integration til at bygge avancerede LLM-applikationer med adgang til din vidensbase.

Introduktion

LangChain er et populært framework til at bygge applikationer med store sprogmodeller (LLMs). Ved at integrere Rememberizer med LangChain kan du:

  • Bruge din Rememberizer vidensbase i RAG (Retrieval Augmented Generation) applikationer

  • Oprette chatbots med adgang til dine dokumenter og data

  • Bygge spørgsmål-svar systemer, der udnytter din viden

  • Udvikle agenter, der kan søge og ræsonnere over dine oplysninger

Integrationen er tilgængelig i langchain_community.retrievers modulet.

Kom godt i gang

Forudsætninger

Før du begynder, skal du have:

  1. En Rememberizer-konto med Common Knowledge oprettet

  2. En API-nøgle til at få adgang til din Common Knowledge

  3. Et Python-miljø med LangChain installeret

For detaljerede instruktioner om oprettelse af Common Knowledge og generering af en API-nøgle, se Registrering og brug af API-nøgler.

Installation

Installer de nødvendige pakker:

Hvis du planlægger at bruge OpenAI-modeller (som vist i eksemplerne nedenfor):

Godkendelsesopsætning

Der er to måder at godkende RememberizerRetriever på:

  1. Miljøvariabel: Sæt miljøvariablen REMEMBERIZER_API_KEY

  2. Direkte parameter: Giv API-nøglen direkte, når du initialiserer retrieveren

Konfigurationsmuligheder

RememberizerRetriever klassen accepterer disse parametre:

Parameter
Type
Standard
Beskrivelse

top_k_results

int

10

Antal dokumenter der skal returneres fra søgningen

rememberizer_api_key

str

None

API-nøgle til autentificering (valgfri hvis sat som miljøvariabel)

Bag kulisserne foretager retrieveren API-opkald til Rememberizers søge-endpoint med yderligere konfigurerbare parametre:

Avanceret Parameter
Beskrivelse

prev_chunks

Antal chunks før den matchede chunk der skal inkluderes (standard: 2)

next_chunks

Antal chunks efter den matchede chunk der skal inkluderes (standard: 2)

return_full_content

Om der skal returneres fuldt dokumentindhold (standard: true)

Grundlæggende Brug

Her er et simpelt eksempel på at hente dokumenter fra Rememberizer ved hjælp af LangChain:

Indstil din API-nøgle

os.environ["REMEMBERIZER_API_KEY"] = "rem_ck_your_api_key"

Initialiser retrieveren

retriever = RememberizerRetriever(top_k_results=5)

Hent relevante dokumenter til en forespørgsel

docs = retriever.get_relevant_documents(query="Hvordan fungerer vektorembeddings?")

Vis det første dokument

if docs: print(f"Dokument: {docs[0].metadata['name']}") print(f"Indhold: {docs[0].page_content[:200]}...")

Avancerede Eksempler

Bygning af et RAG Spørgsmål-Svar System

Dette eksempel opretter et spørgsmål-svar system, der henter information fra Rememberizer og bruger GPT-3.5 til at formulere svar:

Opsæt API-nøgler

os.environ["REMEMBERIZER_API_KEY"] = "rem_ck_your_api_key" os.environ["OPENAI_API_KEY"] = "your_openai_api_key"

Initialiser retrieveren og sprogmodellen

retriever = RememberizerRetriever(top_k_results=5) llm = ChatOpenAI(model_name="gpt-3.5-turbo", temperature=0)

Opret en retrieval QA kæde

qa_chain = RetrievalQA.from_chain_type( llm=llm, chain_type="stuff", # Den simpleste metode - bare fyld alle dokumenter ind i prompten retriever=retriever, return_source_documents=True )

Stil et spørgsmål

response = qa_chain.invoke({"query": "Hvad er RAG i konteksten af AI?"})

print(f"Svar: {response['result']}") print("\nKilder:") for idx, doc in enumerate(response['source_documents']): print(f"{idx+1}. {doc.metadata['name']}")

Opsæt API-nøgler

os.environ["REMEMBERIZER_API_KEY"] = "rem_ck_your_api_key" os.environ["OPENAI_API_KEY"] = "your_openai_api_key"

Initialiser komponenter

retriever = RememberizerRetriever(top_k_results=5) llm = ChatOpenAI(model_name="gpt-3.5-turbo") memory = ConversationBufferMemory( memory_key="chat_history", return_messages=True )

Opret den samtale kæde

conversation = ConversationalRetrievalChain.from_llm( llm=llm, retriever=retriever, memory=memory )

Eksempel på samtale

questions = [ "Hvad er RAG?", "Hvordan bruger store sprogmodeller det?", "Hvad er begrænsningerne ved denne tilgang?", ]

for question in questions: response = conversation.invoke({"question": question}) print(f"Spørgsmål: {question}") print(f"Svar: {response['answer']}\n")

Opret retrievere

rememberizer_retriever = RememberizerRetriever(top_k_results=3) web_retriever = WebResearchRetriever(...) # Konfigurer en anden retriever

Opret et ensemble med vægtet score

ensemble_retriever = EnsembleRetriever( retrievers=[rememberizer_retriever, web_retriever], weights=[0.7, 0.3] # Rememberizer-resultater har højere vægt )

  • Undersøg rå søgeresultater, før de sendes til LLM for at identificere hentningsproblemer

Relaterede ressourcer

Last updated