Deep Learning
alfatraining Bildungszentrum GmbH Stuttgart
Aktionen
Kursbeschreibung
Der Kurs erläutert die Methoden des Deep Learnings auf Basis von neuronalen Netzen. Deep Learning, als Teilbereich des Machine Learnings, nutzt Algorithmen für intelligente Lernprozesse. Der Lehrgang vermittelt dazugehörige Tools wie TensorFlow und Keras und erläutert Bildklassifizierung anhand von Convolutional Neural Networks (CNN). Im weiteren Verlauf werden auch Recurrent Neural Networks (RNN) und Generative Modelle vorgestellt.
Deep Learning
Einführung Deep Learning (ca. 1 Tag)
Deep Learning als eine Art von Machine Learning
Grundlagen in neuronalen Netzen (ca. 4 Tage)
Multilayer-Perzeptronen
Berechnung neuronaler Netze
Optimierung der Modellparameter, Backpropagation
Deep-Learning-Bibliotheken
Regression vs. Klassifikation
Typische Loss- und Aktivierungsfunktionen
Mit Metriken die Modellprognose bewerten
Regressions- und Klassifikationsmetriken
Lernkurven, Überanpassung und Regularisierung
Hyperparameteroptimierung
L1/12-Regularisierung
Dropout
Early-Stopping
Stochastischer Gradientenabstieg (SGD)
Momentum, Adam Optimizer
Optimierung der Lernrate
Dynamische Lernraten-Anpassung
Reduce Learningrate on Plateau
Lernraten-Optimierung mit dem TensorBoard
Mit Callbacks den Fitprozess steuern
Modelle speichern und laden
Convolutional Neural Network (CNN) (ca. 2 Tage)
Bildklassifizierung
Convolutional‐Schichten, Pooling‐Schichten
Reshaping‐Schichten, Flatten, Global‐Average‐Pooling
CNN‐Architekturen ImageNet‐Competition
Tiefe neuronale Netze, Vanishing Gradients, Skip‐Verbindungen, Batch‐Normalization
Transfer Learning (ca. 1 Tag)
Anpassen und Kombinieren von Modellen
Unüberwachtes Vortrainieren
Image‐Data‐Augmentation, Explainable AI
Dataloader
Regional CNN (ca. 1 Tag)
Objektlokalisierung
Semantische Segmentierung
Regressionsprobleme
Verzweigte neuronale Netze
YOLO-Architektur
U-Net-Modelle
Methoden der kreativen Bilderzeugung (ca. 1 Tag)
Generative Adversarial Networks (GAN)
Deepfakes
Diffusionsmodelle
Superresolution
Bildbereiche ergänzen
Foundations Models von Hugging Face anwenden
Multimodale Modelle
LoRA-Fine-Tuning
Anwendungsgebiete generativer Modelle
Rechtliche Einschränkungen
Recurrente neurale Netze (ca. 2 Tage)
Sequenzanalyse
Rekurrente Schichten
Backpropagation through time (BPTT)
Analyse von Zeitreihen
Exploding und Vanishing Gradient Probleme
LSTM (Long Short‐Term Memory)
GRU (Gated Recurrent Unit)
Deep RNN
Deep LSTM
Textverarbeitung durch neuronale Netze (ca. 2 Tage)
Text-Preprocessing
Embedding-Schichten
Text-Klassifizierung
Sentimentanalyse
Natural Language Processing (NLP)
Übersetzungen
Textgeneration
Seqence-to-Sequence-Verfahren, Encoder-Decoder-Architektur
Encoder-Only- und Decoder-Only-Modelle
Lokale Anwendung von Large Language Models
Sprachmodelle (ca. 1 Tag)
Transfomer Architektur
Attention und Multihead-Attention
Positional Encodings
Fine-Tuning großer Sprachmodelle
Prompting
Textgeneration-Pipelines
Summarization
Chatbots
Retrieval Augmented Generation
KI-Agenten
Deep Reinforcement Learning (ca. 1 Tag)
Steuerung dynamischer Systeme
Agentensysteme
Training durch Belohnungen
Policy Gradients
Deep‐Q‐Learning
Bayes'sche neuronale Netze (ca. 1 Tag)
Unsicherheiten in neuronalen Netzen
Statistische Bewertung von Prognosen
Konfidenz, Standardabweichung
Unbalancierte Daten
Sampling‐Methoden
Projektarbeit (ca. 3 Tage)
Zur Vertiefung der gelernten Inhalte
Präsentation der Projektergebnisse
Änderungen möglich. Die Lehrgangsinhalte werden regelmäßig aktualisiert.
Kursinformationen
Friedrichstraße 13
70174 Stuttgart