LLM - Large Language Models & Transformer
Enable AI
Aktionen
Kursbeschreibung
Dieses zweitägige Seminar (jeweils 9 bis 15 Uhr) vermittelt praxisnah die Grundlagen und moderne Anwendungsmöglichkeiten von Large Language Models (LLMs):
Überblick über die Architektur und Funktionsweise von Transformern
Nutzung vortrainierter Modelle für Textklassifikation, Informationsextraktion und Textzusammenfassung
Tokenisierung, Kontextfenster und Embeddings verstehen und anwenden
Pre-Training, Fine-Tuning und effiziente Anpassungsstrategien
Praktische Übungen mit Hugging Face Transformers und Python für eigene Projekte
Beschreibung des LLM / Transformer Seminars
Large Language Models (LLMs) und Transformer-Architekturen sind allgegenwärtig in modernen Anwendungen der Sprachverarbeitung. Hierzu zählen:
Automatische Textklassifikation
Informationsextraktion aus Dokumenten
Textzusammenfassungen
Maschinelle Übersetzung
Intelligente Suchfunktionen
Recommender-Systeme
Chat- und Assistenzsysteme
und viele weitere Einsatzfelder. Der Kurs „Large Language Models & Transformer“ führt die Teilnehmer praxisnah durch moderne Verfahren der maschinellen Sprachverarbeitung. Der Kurs vermittelt theoretische Grundlagen unterstützt durch praktische Übungen in vielseitigen Anwendungsbereichen.
Wir beginnen mit einer Einführung in LLMs und Transformer-Architekturen, gefolgt von Tokenisierung, Kontextfenstern und Embeddings, um ein Verständnis dafür zu entwickeln, wie Sprache für Modelle numerisch dargestellt wird. Danach wenden die Teilnehmer vortrainierte LLMs für Aufgaben wie Textklassifikation, Informationsextraktion und Textzusammenfassung an.
Ein weiterer Schwerpunkt liegt auf Pre-Training, Fine-Tuning und modernen, parameter-effizienten Anpassungsmethoden. Die praxisnahen Übungen erfolgen mit Python und Hugging Face Transformers, sodass die erlernten Methoden direkt auf eigene Projekte übertragen werden können. Abschließend werden typische Fehlerbilder analysiert, Modelle verglichen und Optimierungsstrategien vermittelt, um LLMs effizient in produktiven Workflows einzusetzen.
Was lernen Sie im LLM Kurs?
Diese Schulung vermittelt die Grundlagen der Large Language Models (LLMs) und Transformer-Architekturen mit dem Ziel, dass jeder Teilnehmer nach Abschluss das Gelernte selbständig auf eigene NLP-Probleme anwenden kann.
Am Anfang stehen Tokenisierung, Kontextfenster und Embeddings, die notwendig sind, um Textdaten für eine Verarbeitung durch LLMs aufzubereiten. Danach wenden die Teilnehmer vortrainierte LLMs für verschiedene Aufgaben an, z.B.
Textklassifikation
Informationsextraktion
Textzusammenfassung
Maschinelle Übersetzung
Semantische Analyse
Durchgeführt werden die Übungen in Python unter Verwendung von Standardbibliotheken. Für die Arbeit mit Hugging Face Transformers und Deep-Learning-Modellen nutzen die Teilnehmer Jupyter Notebooks mit GPU-Unterstützung, falls nötig. Dabei wird der Fokus auf praxisnahen Workflows gelegt, sodass die erlernten Methoden direkt auf eigene Projekte übertragen werden können.
Besonderheit dieser Schulung
Insbesondere für die Berechnung von Deep-Learning-Modellen ist eine GPU von großer Bedeutung. Daher arbeitet jeder Teilnehmer im Seminar in der Cloud auf einer eigenen NVIDIA GPU, um neuronale Netze oder Large Language Models eigenständig zu programmieren, zu trainieren und auszuwerten. Der Zugang erfolgt bequem über den Webbrowser, sodass typische Fragestellungen und Probleme, die in der praktischen Anwendung beim Rechnen mit GPUs auftreten, direkt behandelt werden können.
Vergleichen Sie unser Seminarangebot: Viele andere Schulungen bieten keine oder nur leistungsschwache GPUs für die Teilnehmer, was die praktische Umsetzung stark einschränkt.
Kursinformationen
Königstraße 10C
70199 Stuttgart