AI Consultant
alfatraining Bildungszentrum GmbH Konstanz
Aktionen
Kursbeschreibung
Als AI Consultant unterstützt du Unternehmen bei der Implementierung von KI-Lösungen. Hierfür bietet der Kurs zunächst eine umfassende Vertiefung in fortgeschrittene Themen der Python-Programmierung, einschließlich der Verwendung von Python-Modulen und Drittanbieter-Paketen. Im Anschluss führt er in die Grundlagen des Machine Learnings ein, behandelt überwachtes und unüberwachtes Lernen und schließt mit Evaluierung und Verbesserung ab. Die Methoden des Deep Learnings als Teilbereich des Machine Learnings, basierend auf neuronalen Netzen, werden ebenfalls behandelt.
Python Advanced
Module, Pakete und Fehlerbehandlungen (ca. 4 Tage)
Einführung in Python-Module und Pakete
Importieren und Verwenden von Standard- und Drittanbieter-Paketen
Benutzerdefinierte Module und Pakete erstellen
Arbeiten mit sys und os (Host-Plattform-Funktionen)
Einführung in Ausnahmen und Fehlerbehandlung (try, except, finally)
Selbstdefinierte Ausnahmen erstellen und verwenden
Best Practices für robuste Fehlerbehandlung
Künstliche Intelligenz (KI) im Arbeitsprozess
Vorstellung von konkreten KI‐Technologien
sowie Anwendungsmöglichkeiten im beruflichen Umfeld
Strings und OOP-Grundlagen (ca. 8 Tage)
Einführung in die Arbeit mit Zeichenfolgen
Integrierte String-Methoden (split, join, find, replace usw.)
Formatieren und Verarbeiten von Zeichenketten
String-Slicing und Arbeiten mit regulären Ausdrücken (RegEx)
Einführung in Klassen, Objekte, Instanzmethoden und -variablen
Kapselung, Vererbung und Polymorphie
Konstruktoren (__init__) und Destruktoren (__del__)
Vererbungshierarchien und Superklassen
Vertiefung in die objektorientierte Programmierung (ca. 2,5 Tage)
Vertiefung in Vererbung und Polymorphie
Anwendung von Magic Methods (__str__, __repr__, __eq__, __lt__, usw.)
Properties und Dekoratoren in Klassen
Design Patterns: Singleton, Factory, usw.
List Comprehensions zur effizienten Listenverarbeitung
Lambda-Funktionen und anonymes Funktionenschreiben
Closures und Scoping in Python
Generatoren und Iteratoren verstehen und verwenden
Arbeiten mit Dateien, Datenbanken und Webentwicklung (ca. 2,5 Tage)
Lesen und Schreiben von Dateien (CSV, JSON)
Einführung in SQL und Verbindung zu SQLite-Datenbanken
CRUD-Operationen in einer Datenbank (Create, Read, Update, Delete)
Einführung in Flask und Erstellung einer einfachen Webanwendung
Routen und Vorlagen in Flask
CRUD-Anwendungen in Flask (Datenbankintegration)
Projektarbeit, Zertifizierungsvorbereitung und Zertifizierungsprüfung „PCAP™ – Certified Associate Python Programmer“ in englischer Sprache (ca. 3 Tage)
Machine Learning
Einführung in Machine Learning (ca. 5 Tage)
Warum Machine Learning?
Anwendungsbeispiele
Überwachtes Lernen, Unüberwachtes Lernen, Teilüberwachtes Lernen, Reinforcement Lernen
Beispiele für Datenbestände
Daten kennenlernen
Trainings-, Validierungs- und Testdaten
Daten sichten
Vorhersagen treffen
Überwachtes Lernen (ca. 5 Tage)
Klassifikation und Regression
Verallgemeinerung, Overfitting und Underfitting
Größe des Datensatzes
Algorithmen zum überwachten Lernen
Lineare Modelle
Bayes-Klassifikatoren
Entscheidungsbäume
Random Forest
Gradient Boosting
k-nächste-Nachbarn
Support Vector Machines
Conditional Random Field
Neuronale Netze und Deep Learning
Wahrscheinlichkeiten
Unüberwachtes Lernen (ca. 5 Tage)
Arten unüberwachten Lernens
Vorverarbeiten und Skalieren
Datentransformationen
Trainings- und Testdaten skalieren
Dimensionsreduktion
Feature Engineering
Manifold Learning
Hauptkomponentenzerlegung (PCA)
Nicht-negative-Matrix-Faktorisierung (NMF)
Manifold Learning mit t-SNE
Clusteranalyse
k-Means-Clustering
Agglomeratives Clustering
Hierarchische Clusteranalyse
DBSCAN
Clusteralgorithmen
Evaluierung und Verbesserung (ca. 2 Tage)
Modellauswahl und Modellevaluation
Abstimmung der Hyperparameter eines Schätzers
Kreuzvalidierung
Gittersuche
Evaluationsmetriken
Klassifikation
Projektarbeit (ca. 3 Tage)
Zur Vertiefung der gelernten Inhalte
Präsentation der Projektergebnisse
Deep Learning
Einführung Deep Learning (ca. 1 Tag)
Deep Learning als eine Art von Machine Learning
Grundlagen in neuronalen Netzen (ca. 4 Tage)
Multilayer-Perzeptronen
Berechnung neuronaler Netze
Optimierung der Modellparameter, Backpropagation
Deep-Learning-Bibliotheken
Regression vs. Klassifikation
Typische Loss- und Aktivierungsfunktionen
Mit Metriken die Modellprognose bewerten
Regressions- und Klassifikationsmetriken
Lernkurven, Überanpassung und Regularisierung
Hyperparameteroptimierung
L1/12-Regularisierung
Dropout
Early-Stopping
Stochastischer Gradientenabstieg (SGD)
Momentum, Adam Optimizer
Optimierung der Lernrate
Dynamische Lernraten-Anpassung
Reduce Learningrate on Plateau
Lernraten-Optimierung mit dem TensorBoard
Mit Callbacks den Fitprozess steuern
Modelle speichern und laden
Convolutional Neural Network (CNN) (ca. 2 Tage)
Bildklassifizierung
Convolutional‐Schichten, Pooling‐Schichten
Reshaping‐Schichten, Flatten, Global‐Average‐Pooling
CNN‐Architekturen ImageNet‐Competition
Tiefe neuronale Netze, Vanishing Gradients, Skip‐Verbindungen, Batch‐Normalization
Transfer Learning (ca. 1 Tag)
Anpassen und Kombinieren von Modellen
Unüberwachtes Vortrainieren
Image‐Data‐Augmentation, Explainable AI
Dataloader
Regional CNN (ca. 1 Tag)
Objektlokalisierung
Semantische Segmentierung
Regressionsprobleme
Verzweigte neuronale Netze
YOLO-Architektur
U-Net-Modelle
Methoden der kreativen Bilderzeugung (ca. 1 Tag)
Generative Adversarial Networks (GAN)
Deepfakes
Diffusionsmodelle
Superresolution
Bildbereiche ergänzen
Foundations Models von Hugging Face anwenden
Multimodale Modelle
LoRA-Fine-Tuning
Anwendungsgebiete generativer Modelle
Rechtliche Einschränkungen
Recurrente neurale Netze (ca. 2 Tage)
Sequenzanalyse
Rekurrente Schichten
Backpropagation through time (BPTT)
Analyse von Zeitreihen
Exploding und Vanishing Gradient Probleme
LSTM (Long Short‐Term Memory)
GRU (Gated Recurrent Unit)
Deep RNN
Deep LSTM
Textverarbeitung durch neuronale Netze (ca. 2 Tage)
Text-Preprocessing
Embedding-Schichten
Text-Klassifizierung
Sentimentanalyse
Natural Language Processing (NLP)
Übersetzungen
Textgeneration
Seqence-to-Sequence-Verfahren, Encoder-Decoder-Architektur
Encoder-Only- und Decoder-Only-Modelle
Lokale Anwendung von Large Language Models
Sprachmodelle (ca. 1 Tag)
Transfomer Architektur
Attention und Multihead-Attention
Positional Encodings
Fine-Tuning großer Sprachmodelle
Prompting
Textgeneration-Pipelines
Summarization
Chatbots
Retrieval Augmented Generation
KI-Agenten
Deep Reinforcement Learning (ca. 1 Tag)
Steuerung dynamischer Systeme
Agentensysteme
Training durch Belohnungen
Policy Gradients
Deep‐Q‐Learning
Bayes'sche neuronale Netze (ca. 1 Tag)
Unsicherheiten in neuronalen Netzen
Statistische Bewertung von Prognosen
Konfidenz, Standardabweichung
Unbalancierte Daten
Sampling‐Methoden
Projektarbeit (ca. 3 Tage)
Zur Vertiefung der gelernten Inhalte
Präsentation der Projektergebnisse
Änderungen möglich. Die Lehrgangsinhalte werden regelmäßig aktualisiert.
Kursinformationen
Reichenaustraße 11
78467 Konstanz