Kurzzeitgedächtnis (ConversationBufferMemory) hinzufügen
Dieser Tipp erklärt, wie man 'ConversationBufferMemory' in LangChain verwendet, um den Verlauf einer Konversation zu speichern. Dies ermöglicht es dem Agenten, sich an frühere Äußerungen in der aktuellen Sitzung zu erinnern und diese in nachfolgenden Prompts zu nutzen, um Kontext zu wahren.
Originalvideo ansehen: You NEED to try these open-source AI projects right now...5 Schritte
1
Importieren Sie die notwendigen Klassen.
Sie benötigen 'ConversationBufferMemory' für das Gedächtnis und 'LLMChain' zur Verknüpfung von LLM und Gedächtnis.
from langchain.memory import ConversationBufferMemory
from langchain.chains import LLMChain
from langchain.prompts import PromptTemplate2
Definieren Sie ein Prompt-Template mit einem Platzhalter für den Chat-Verlauf.
Der 'chat_history'-Platzhalter wird automatisch vom Gedächtnis gefüllt.
template = """You are a friendly chatbot.
{chat_history}
Human: {input}
AI:"""
prompt = PromptTemplate(input_variables=["chat_history", "input"], template=template)3
Instanziieren Sie das Gedächtnis.
Der 'memory_key' muss mit dem Platzhalter im Prompt-Template übereinstimmen.
memory = ConversationBufferMemory(memory_key="chat_history")4
Erstellen Sie eine LLMChain mit dem Gedächtnis.
Die Kette verknüpft das LLM, den Prompt und das Gedächtnis.
chain = LLMChain(llm=llm, prompt=prompt, memory=memory)5
Nutzen Sie die Kette für Konversationen.
Jeder Aufruf von 'run' aktualisiert das Gedächtnis.
chain.run("Hi, mein Name ist Jason.")
chain.run("Was ist mein Name?")