OpenAI Embeddings erstellen und in Pinecone speichern
Generieren Sie Vektor-Embeddings aus Texten mithilfe von OpenAI und speichern Sie diese in Ihrem Pinecone-Index. Dies bildet die Wissensbasis für das Langzeitgedächtnis Ihres Agenten.
Originalvideo ansehen: Googles KI-OFFENSIVE in Deutschland! Live vom AI Center Berl...Importieren Sie die notwendigen Klassen.
Importieren Sie `OpenAIEmbeddings` und `Pinecone` (als VectorStore-Wrapper für LangChain).
from langchain.embeddings.openai import OpenAIEmbeddings
from langchain.vectorstores import PineconeInitialisieren Sie das Embedding-Modell.
Erstellen Sie eine Instanz von `OpenAIEmbeddings`. Dieses Modell wird verwendet, um Texte in Vektoren umzuwandeln.
embeddings = OpenAIEmbeddings()Bereiten Sie die Texte vor.
Definieren Sie die Texte, die Sie in Ihre Wissensbasis aufnehmen möchten. In einem realen Szenario würden diese aus Dokumenten geladen.
texts = [
'Der Gründer von The AI Epiphany ist John Doe.',
'The AI Epiphany konzentriert sich auf die Entwicklung von KI-Agenten.',
'LangChain ist ein Framework zur Entwicklung von Anwendungen mit LLMs.'
]Erstellen Sie den Pinecone Vector Store.
Verwenden Sie `Pinecone.from_texts`, um die Texte zu embedden und in den zuvor erstellten Pinecone-Index hochzuladen.
docsearch = Pinecone.from_texts(texts, embeddings, index_name=index_name)Erstellen Sie einen Retriever aus dem Vector Store.
Wandeln Sie den `docsearch`-Objekt in einen Retriever um, der später als Tool für den Agenten verwendet werden kann.
retriever = docsearch.as_retriever()