NEU2 TagePräsenz oder Online
KI lokal nutzen mit OLLAMA & Co. - Eigene LLMs ohne Cloud betreiben
Betreiben Sie moderne Sprachmodelle lokal und datenschutzkonform. Alles zu OLLAMA, Hardware-Anforderungen und Integration.
Zielsetzung
In dieser zweitägigen Schulung lernen Sie, wie moderne Sprachmodelle lokal betrieben werden können, ohne auf Cloud Anbieter angewiesen zu sein. Sie erhalten ein klares Verständnis darüber, wie Large Language Models aufgebaut sind und wodurch sich lokal ausgeführte Modelle von Cloud basierten Lösungen unterscheiden.
Sie installieren OLLAMA, richten erste Modelle ein und experimentieren mit weiteren Frameworks für lokale KI Nutzung. Mittels praktischer Übungen erstellen Sie eigene KI gestützte Anwendungen, optimieren Modelle mit Feintuning und verbessern die Ergebnisse durch gezieltes Prompt Design. Darüber hinaus lernen Sie, Hardware Anforderungen einzuschätzen, Leistung zu messen und rechtliche sowie organisatorische Rahmenbedingungen zu berücksichtigen. Nach Abschluss der Schulung sind Sie in der Lage, lokale KI Lösungen eigenständig aufzubauen, weiterzuentwickeln und produktiv einzusetzen.
Ihr Nutzen:
- Unabhängigkeit von Cloud-Anbietern
- Maximale Datensicherheit durch lokalen Betrieb
- Verständnis für Hardware-Anforderungen
- Fähigkeit zur Integration lokaler Modelle
Voraussetzungen
Für eine optimale Teilnahme am Kurs empfehlen wir folgende Vorkenntnisse:
- Grundlegendes Verständnis von künstlicher Intelligenz und Machine Learning
- Kenntnisse über die Arbeitsprozesse und Herausforderungen im eigenen Fachgebiet oder Arbeitsbereich
Agenda
1Grundlagen zu Large Language Models
- Was ein Large Language Model ist und welche Rolle es in modernen KI Systemen spielt
- Wie Modelle trainiert werden und welche Architekturprinzipien dahinterstehen
- Welche technischen und organisatorischen Herausforderungen bei LLMs eine Rolle spielen
2Lokale Nutzung im Vergleich zu Cloud Lösungen
- Unterschiede zwischen lokalem Betrieb und Cloud Modellen in Bezug auf Sicherheit, Kosten und Skalierbarkeit
- Installation von OLLAMA auf unterschiedlichen Systemen und erste Konfiguration
- Überblick über alternative Frameworks für lokale Modelle wie llama.cpp, GPT4All, vLLM, Mistral, DeepSeek und weitere
3Praxis: Entwicklung eigener KI Anwendungen
- Nutzung der OLLAMA API zur Einbindung in eigene Softwarelösungen
- Optimierung der Ergebnisse durch Feintuning bestehender Modelle
- Verbesserung der Ausgabequalität durch gezieltes Prompt Engineering
- Auswahl eines geeigneten Modells und Bewertung der passenden Hardware
- Praktischer Workshop zur Erstellung eines ersten eigenen KI Tools
4Einsatz im Unternehmenskontext
- Grundlagen des Benchmarkings und Methoden zur Leistungsbewertung
- Strategien zum Modellvergleich und Wechsel auf leistungsfähigere Versionen
- Anforderungen zu Datenschutz, Governance und ethisch verantwortlichem Einsatz lokaler KI
Preisrechner
Kalkulieren Sie Ihr individuelles Angebot basierend auf der Teilnehmerzahl.
5
1102030+
Preis pro Person€ 1.100
Gesamtpreis (Netto)€ 5.500
Alle Preise zzgl. MwSt.
Ihr Zertifikat
Nach erfolgreicher Teilnahme erhalten Sie ein offizielles Zertifikat.
Musterzertifikat ansehen (PDF)