KI lokal nutzen mit OLLAMA & Co. - Eigene LLMs ohne Cloud betreiben | KI-Schulung
NEU2 TagePräsenz oder Online

KI lokal nutzen mit OLLAMA & Co. - Eigene LLMs ohne Cloud betreiben

Betreiben Sie moderne Sprachmodelle lokal und datenschutzkonform. Alles zu OLLAMA, Hardware-Anforderungen und Integration.

Zielsetzung

In dieser zweitägigen Schulung lernen Sie, wie moderne Sprachmodelle lokal betrieben werden können, ohne auf Cloud Anbieter angewiesen zu sein. Sie erhalten ein klares Verständnis darüber, wie Large Language Models aufgebaut sind und wodurch sich lokal ausgeführte Modelle von Cloud basierten Lösungen unterscheiden. Sie installieren OLLAMA, richten erste Modelle ein und experimentieren mit weiteren Frameworks für lokale KI Nutzung. Mittels praktischer Übungen erstellen Sie eigene KI gestützte Anwendungen, optimieren Modelle mit Feintuning und verbessern die Ergebnisse durch gezieltes Prompt Design. Darüber hinaus lernen Sie, Hardware Anforderungen einzuschätzen, Leistung zu messen und rechtliche sowie organisatorische Rahmenbedingungen zu berücksichtigen. Nach Abschluss der Schulung sind Sie in der Lage, lokale KI Lösungen eigenständig aufzubauen, weiterzuentwickeln und produktiv einzusetzen.

Ihr Nutzen:

  • Unabhängigkeit von Cloud-Anbietern
  • Maximale Datensicherheit durch lokalen Betrieb
  • Verständnis für Hardware-Anforderungen
  • Fähigkeit zur Integration lokaler Modelle

Voraussetzungen

Für eine optimale Teilnahme am Kurs empfehlen wir folgende Vorkenntnisse:

  • Grundlegendes Verständnis von künstlicher Intelligenz und Machine Learning
  • Kenntnisse über die Arbeitsprozesse und Herausforderungen im eigenen Fachgebiet oder Arbeitsbereich

Agenda

1Grundlagen zu Large Language Models

  • Was ein Large Language Model ist und welche Rolle es in modernen KI Systemen spielt
  • Wie Modelle trainiert werden und welche Architekturprinzipien dahinterstehen
  • Welche technischen und organisatorischen Herausforderungen bei LLMs eine Rolle spielen

2Lokale Nutzung im Vergleich zu Cloud Lösungen

  • Unterschiede zwischen lokalem Betrieb und Cloud Modellen in Bezug auf Sicherheit, Kosten und Skalierbarkeit
  • Installation von OLLAMA auf unterschiedlichen Systemen und erste Konfiguration
  • Überblick über alternative Frameworks für lokale Modelle wie llama.cpp, GPT4All, vLLM, Mistral, DeepSeek und weitere

3Praxis: Entwicklung eigener KI Anwendungen

  • Nutzung der OLLAMA API zur Einbindung in eigene Softwarelösungen
  • Optimierung der Ergebnisse durch Feintuning bestehender Modelle
  • Verbesserung der Ausgabequalität durch gezieltes Prompt Engineering
  • Auswahl eines geeigneten Modells und Bewertung der passenden Hardware
  • Praktischer Workshop zur Erstellung eines ersten eigenen KI Tools

4Einsatz im Unternehmenskontext

  • Grundlagen des Benchmarkings und Methoden zur Leistungsbewertung
  • Strategien zum Modellvergleich und Wechsel auf leistungsfähigere Versionen
  • Anforderungen zu Datenschutz, Governance und ethisch verantwortlichem Einsatz lokaler KI

Preisrechner

Kalkulieren Sie Ihr individuelles Angebot basierend auf der Teilnehmerzahl.

5
1102030+
Preis pro Person1.100
Gesamtpreis (Netto)5.500
Jetzt anfragen

Alle Preise zzgl. MwSt.

Ihr Zertifikat

Nach erfolgreicher Teilnahme erhalten Sie ein offizielles Zertifikat.

KI lokal nutzen mit OLLAMA & Co. - Eigene LLMs ohne Cloud betreiben
KI lokal nutzen mit OLLAMA & Co. - Eigene LLMs ohne Cloud betreiben
CERTIFIED
Musterzertifikat ansehen (PDF)