LLM - Large Language Models & Transformer

Enable AI

Der Anbieter gewährt Ihnen bei einer Buchung über fortbildung-bw.de einen Rabatt von 10% auf die reguläre Teilnahmegebühr.

Ihre (unverbindliche) Anmeldung wird direkt an den Anbieter übermittelt.


Sie sparen 119,00  € (pro TN)

Sie möchten den Kurs "LLM - Large Language Models & Transformer" buchen. Wir leiten Ihre Buchung direkt an den Anbieter weiter. Es ist keine Registrierung erforderlich.

Um Sie vor unbeabsichtigten oder durch Dritte veranlasste Buchungen zu schützen, verwenden wir das folgende Verfahren. Es stellt sicher, dass die Anfrage durch Sie getätigt wurde.

  1. Geben Sie bitte hier Ihre Daten an und klicken auf "Jetzt prüfen!"
  2. Sie erhalten eine E-Mail mit den Daten zur Kontrolle und einem Link mit dem Sie den Vorgang fortsetzen können.
  3. Durch Öffnen des Links kommen Sie auf die Seite "Buchung bestätigen" und können Ihre Angaben an den Anbieter weiter leiten.
  4. Auf der Seite "Buchung bestätigen" klicken Sie dann den Button "Buchung bestätigen"

Schritt 1/4 - Geben Sie bitte hier Ihre Daten an

Die folgenden Angaben werden ausschließlich an den Anbieter übermittelt.

*
*
*
*

*




Aktionen

Kursbeschreibung

Dieses zweitägige Seminar (jeweils 9 bis 15 Uhr) vermittelt praxisnah die Grundlagen und moderne Anwendungsmöglichkeiten von Large Language Models (LLMs):

Überblick über die Architektur und Funktionsweise von Transformern
Nutzung vortrainierter Modelle für Textklassifikation, Informationsextraktion und Textzusammenfassung
Tokenisierung, Kontextfenster und Embeddings verstehen und anwenden
Pre-Training, Fine-Tuning und effiziente Anpassungsstrategien
Praktische Übungen mit Hugging Face Transformers und Python für eigene Projekte


Beschreibung des LLM / Transformer Seminars

Large Language Models (LLMs) und Transformer-Architekturen sind allgegenwärtig in modernen Anwendungen der Sprachverarbeitung. Hierzu zählen:

Automatische Textklassifikation
Informationsextraktion aus Dokumenten
Textzusammenfassungen
Maschinelle Übersetzung
Intelligente Suchfunktionen
Recommender-Systeme
Chat- und Assistenzsysteme

und viele weitere Einsatzfelder. Der Kurs „Large Language Models & Transformer“ führt die Teilnehmer praxisnah durch moderne Verfahren der maschinellen Sprachverarbeitung. Der Kurs vermittelt theoretische Grundlagen unterstützt durch praktische Übungen in vielseitigen Anwendungsbereichen.

Wir beginnen mit einer Einführung in LLMs und Transformer-Architekturen, gefolgt von Tokenisierung, Kontextfenstern und Embeddings, um ein Verständnis dafür zu entwickeln, wie Sprache für Modelle numerisch dargestellt wird. Danach wenden die Teilnehmer vortrainierte LLMs für Aufgaben wie Textklassifikation, Informationsextraktion und Textzusammenfassung an.

Ein weiterer Schwerpunkt liegt auf Pre-Training, Fine-Tuning und modernen, parameter-effizienten Anpassungsmethoden. Die praxisnahen Übungen erfolgen mit Python und Hugging Face Transformers, sodass die erlernten Methoden direkt auf eigene Projekte übertragen werden können. Abschließend werden typische Fehlerbilder analysiert, Modelle verglichen und Optimierungsstrategien vermittelt, um LLMs effizient in produktiven Workflows einzusetzen.
Was lernen Sie im LLM Kurs?

Diese Schulung vermittelt die Grundlagen der Large Language Models (LLMs) und Transformer-Architekturen mit dem Ziel, dass jeder Teilnehmer nach Abschluss das Gelernte selbständig auf eigene NLP-Probleme anwenden kann.

Am Anfang stehen Tokenisierung, Kontextfenster und Embeddings, die notwendig sind, um Textdaten für eine Verarbeitung durch LLMs aufzubereiten. Danach wenden die Teilnehmer vortrainierte LLMs für verschiedene Aufgaben an, z.B.

Textklassifikation
Informationsextraktion
Textzusammenfassung
Maschinelle Übersetzung
Semantische Analyse

Durchgeführt werden die Übungen in Python unter Verwendung von Standardbibliotheken. Für die Arbeit mit Hugging Face Transformers und Deep-Learning-Modellen nutzen die Teilnehmer Jupyter Notebooks mit GPU-Unterstützung, falls nötig. Dabei wird der Fokus auf praxisnahen Workflows gelegt, sodass die erlernten Methoden direkt auf eigene Projekte übertragen werden können.
Besonderheit dieser Schulung

Insbesondere für die Berechnung von Deep-Learning-Modellen ist eine GPU von großer Bedeutung. Daher arbeitet jeder Teilnehmer im Seminar in der Cloud auf einer eigenen NVIDIA GPU, um neuronale Netze oder Large Language Models eigenständig zu programmieren, zu trainieren und auszuwerten. Der Zugang erfolgt bequem über den Webbrowser, sodass typische Fragestellungen und Probleme, die in der praktischen Anwendung beim Rechnen mit GPUs auftreten, direkt behandelt werden können.

Vergleichen Sie unser Seminarangebot: Viele andere Schulungen bieten keine oder nur leistungsschwache GPUs für die Teilnehmer, was die praktische Umsetzung stark einschränkt.

Kursinformationen

Tags

datenverarbeitung

programmierung

programmiersprache

intelligenz

programmieren

datenanalyse

kuenstliche

Anbieter
Dauer
2 Tage
Unterrichtszeiten
9 bis 15 Uhr
Termin
18.06.2026 bis 19.06.2026
Kosten
1.190,00 €
Zielgruppe
Dieses zweitägige Seminar (jeweils 9 bis 15 Uhr) vermittelt praxisnah die Grundlagen und moderne Anwendungsmöglichkeiten von Large Language Models (LLMs)
Bildungsart
Fortbildung/Qualifizierung
Unterrichtsform
Sonstige Präsenzveranstaltung
Voraussetzung
Grundkenntnisse in Python oder solide Erfahrung in einer anderen Programmiersprache werden vorausgesetzt. Erste einfache Erfahrung mit Bilddaten ist notwendig. Folgende Kenntnisse sind sehr hilfreich: Eine Funktion in Python schreiben, for-Schleife, Laden von Python-Modulen, einen einfachen Plot mit Matplotlib erstellen, Grundfunktionen der Numpy-Bibliothek, ein Bild als Matrix von Farbkanälen ver
Förderung
Bildungscheck NRW
Präsenzkurs
Dies ist keine Anwesenheitsveranstaltung.
mind. Teilnehmerzahl
3
max. Teilnehmerzahl
10
URL des Kurses
Anmelde URL des Kurses
spezielles Angebot für Dozenten
Nein.
Veranstaltungsort
Regus
Königstraße 10C
70199 Stuttgart
Abendkurs
Nein
Bildungsgutschein
Nein
Barierrefreier Zugang
Ja