Ollama beginner coding 90% Usefulness

Lokale LLMs mit Ollama ausführen

Lernen Sie, wie Sie Large Language Models (LLMs) wie Llama 3 oder Mistral direkt auf Ihrem Computer ausführen können, um Datenschutz und Kontrolle zu gewährleisten. Ollama vereinfacht den Download und die Ausführung dieser Modelle.

Originalvideo ansehen: Top 5 Claude Skills für dein E-Commerce Business
3 Schritte
1

Ollama installieren

Laden Sie Ollama von der offiziellen Website herunter und installieren Sie es auf Ihrem Betriebssystem (macOS, Linux, Windows).

Tipp: Stellen Sie sicher, dass Ihre GPU-Treiber aktuell sind, falls Sie eine GPU verwenden möchten.
2

Ein Modell herunterladen

Öffnen Sie Ihr Terminal oder Ihre Kommandozeile und laden Sie ein gewünschtes Modell herunter, z.B. Llama 3.

ollama pull llama3
Tipp: Auf der Ollama-Website finden Sie eine Liste der verfügbaren Modelle.
Warnung: Große Modelle benötigen viel Speicherplatz und können lange zum Herunterladen brauchen.
3

Das Modell ausführen und interagieren

Starten Sie das heruntergeladene Modell und beginnen Sie, mit ihm zu chatten oder es über die bereitgestellte API zu nutzen.

ollama run llama3
Tipp: Nach dem Start können Sie direkt im Terminal mit dem Modell interagieren. Für API-Nutzung konsultieren Sie die Ollama-Dokumentation.
Warnung: Die Leistung hängt stark von Ihrer Hardware ab.
← Alle Playbooks anzeigen