LangChain, OpenAI, Pinecone intermediate coding 90% Usefulness

OpenAI Embeddings erstellen und in Pinecone speichern

Generieren Sie Vektor-Embeddings aus Texten mithilfe von OpenAI und speichern Sie diese in Ihrem Pinecone-Index. Dies bildet die Wissensbasis für das Langzeitgedächtnis Ihres Agenten.

Originalvideo ansehen: Googles KI-OFFENSIVE in Deutschland! Live vom AI Center Berl...
5 Schritte
1

Importieren Sie die notwendigen Klassen.

Importieren Sie `OpenAIEmbeddings` und `Pinecone` (als VectorStore-Wrapper für LangChain).

from langchain.embeddings.openai import OpenAIEmbeddings
from langchain.vectorstores import Pinecone
2

Initialisieren Sie das Embedding-Modell.

Erstellen Sie eine Instanz von `OpenAIEmbeddings`. Dieses Modell wird verwendet, um Texte in Vektoren umzuwandeln.

embeddings = OpenAIEmbeddings()
3

Bereiten Sie die Texte vor.

Definieren Sie die Texte, die Sie in Ihre Wissensbasis aufnehmen möchten. In einem realen Szenario würden diese aus Dokumenten geladen.

texts = [
    'Der Gründer von The AI Epiphany ist John Doe.',
    'The AI Epiphany konzentriert sich auf die Entwicklung von KI-Agenten.',
    'LangChain ist ein Framework zur Entwicklung von Anwendungen mit LLMs.'
]
4

Erstellen Sie den Pinecone Vector Store.

Verwenden Sie `Pinecone.from_texts`, um die Texte zu embedden und in den zuvor erstellten Pinecone-Index hochzuladen.

docsearch = Pinecone.from_texts(texts, embeddings, index_name=index_name)
5

Erstellen Sie einen Retriever aus dem Vector Store.

Wandeln Sie den `docsearch`-Objekt in einen Retriever um, der später als Tool für den Agenten verwendet werden kann.

retriever = docsearch.as_retriever()
← Alle Playbooks anzeigen