Customer Data Analyst
alfatraining Bildungszentrum GmbH Ulm
Aktionen
Kursbeschreibung
Als Customer Data Analyst führst du datenbasierte und systematische Untersuchungen zu den Themen Kundendaten und -verhalten durch, auf deren Basis kundenbezogene Prozesse im Hinblick auf die Wirtschaftlichkeit und eine effektvollere Kundenansprache, generiert werden. Der Lehrgang vermittelt hierfür relevantes Fachwissen: Das Customer Relationship Management anhand einer CRM-Software, statistische Methoden und die Versuchsplanung werden behandelt, außerdem die für die Datenauswertung und -visualisierung besonders geeignete Programmiersprache Python sowie Kenntnisse in der Data Warehouse Modellierung und dem ETL-Prozess, in der Datenanalyse, -visualisierung und dem Datenmanagement werden vermittelt. Ergänzend wirst du in den Einsatz Künstlicher Intelligenz in diesem Bereich eingeführt.
Kundenservice mit CRM
Grundlagen & Strategisches CRM (ca. 2 Tage)
CRM als strategische Unternehmensfunktion
Companyblueprint: Unternehmensprozesse
CRM vs. reine Softwarelösung
Businessmodelle & Zielgruppenanalyse (ca. 1 Tage)
Geschäftsmodelle im CRM-Umfeld
Markt- und Zielgruppendefinition
Personas für differenzierte Kundenansprache
Vertriebskanäle im strategischen CRM
Kundenwelten & individuelle Beziehungen (ca. 1 Tage)
Definition der Kundenwelt
Customer Journey, Customer Experience
Customer-Needs-Demands-Motive
ERP & operatives CRM (ca. 1 Tage)
Ressourcenplanung und BWL Zusammenhänge
CRM in der Wertschöpfungskette
Synergie zwischen Vertrieb, Marketing & Service
Datenschutz & DSGVO (ca. 1 Tag)
Datenschutz
DSGVO im Marketing
DSGVO-Praxisfälle
CRM-Software-Systeme (ca. 2 Tage)
Einführung in CRM-Systeme
Implementierung von Software
Prozesse abbilden, Workflows automatisieren
Künstliche Intelligenz (KI) im CRM (ca. 1 Tag)
Vorstellung von konkreten KI-Technologien
Predictive Analytics
Sentiment Analytics
KI-Humanizer zur Kundenbindung
Analytisches CRM (ca. 2 Tage)
KPIs zur Erfolgsmessung
Data Mining, OLAP
SWOT-Analyse im CRM
Drill-Down-Analyse
Customer Relationship Cycle & Kundenzufriedenheit (ca. 2 Tage)
Customer Relationship Cycle
Zufriedenheitsmanagement: NPS, CSAT, KANO & Stellgrößen zur Optimierung
Kundengewinnung, Kundenbindung & Profitabilitätssteigerung (ca. 2 Tage)
Account-Based Marketing (ABM)
Strategische Akquiseprozesse
Loyalty-Programme
Profitabilität steigern
Kundenkommunikation als Beziehungsgarant (ca. 2 Tage)
Gesprächsführung und Empathie im Kundenkontakt
Psychologie der Kundenbeziehungen
Deeskalationstechniken für kritische Kundenmomente
Wie authentische Kommunikation langfristige Beziehungen schafft
Projektarbeit (ca. 3 Tage)
Zur Vertiefung der gelernten Inhalte
Präsentation der Projektergebnisse
Statistik
Statistische Grundlagen (ca. 6 Tage)
Messtheoretische Grundlagen (Grundgesamtheit und Stichprobe, Stichprobenarten, Messung und Skalenniveaus)
Univariate Deskriptivstatistik (Häufigkeitsverteilungen, Zentralmaße, Streuungsmaße, Standardwert, Histogramme, Balkendiagramme, Kreisdiagramme, Liniendiagramme und Boxplots)
Bivariate Deskriptivstatistik (Zusammenhangsmaße, Korrelationskoeffizienten, Kreuztabellen, Streudiagramme und gruppierte Balkendiagramme)
Grundlagen der induktiven Inferenzstatistik (Wahrscheinlichkeitsverteilung, Normalverteilung, Mittelwerteverteilung, Signifikanztest, Nullhypothesentest nach Fisher, Effektgröße, Parameterschätzung, Konfidenzintervalle, Fehlerbalkendiagramme, Poweranalysen und Ermittlung des optimalen Stichprobenumfangs)
Künstliche Intelligenz (KI) im Arbeitsprozess
Vorstellung von konkreten KI‐Technologien
sowie Anwendungsmöglichkeiten im beruflichen Umfeld
Methoden zum Vergleich von zwei Gruppen (ca. 5 Tage)
z- und t-Test für eine Stichprobe (Abweichung von einem vorgegebenen Wert)
t-Test für den Mittelwertsunterschied von zwei unabhängigen/verbundenen Stichproben
Prüfung der Wirksamkeit von Aktionen, Maßnahmen, Interventionen und anderen Veränderungen mit t-Tests (Pretest-Posttest-Designs mit zwei Gruppen)
Unterstützende Signifikanztests (Anderson-Darling-Test, Ryan-Joiner-Test, Levene-Test, Bonnet-Test, Signifikanztest für Korrelationen)
Nonparametrische Verfahren (Wilcoxon-Test, Vorzeichentest, Mann-Whitney-Test)
Kontingenzanalysen (Binomialtest, Exakter Test nach Fisher, Chi-Quadrat-Test, Kreuztabellen mit Assoziationsmaße)
Methoden zum Mittelwertvergleich von mehreren Gruppen (ca. 5 Tage)
Ein- und zweifaktorielle Varianzanalyse (einfache und balancierte ANOVA)
Mehrfaktorielle Varianzanalyse (Allgemeines lineares Modell)
Feste, zufällige, gekreuzte und geschachtelte Faktoren
Mehrfachvergleichsverfahren (Tukey-HSD, Dunnett, Hsu-MCB, Games-Howell)
Interaktionsanalyse (Analyse von Wechselwirkungseffekten)
Trennschärfe und Poweranalyse bei Varianzanalysen
Einführung in die Versuchsplanung (DoE, Design of Experiments) (ca. 1 Tag)
Voll- und teilfaktorielle Versuchspläne
Projektarbeit (ca. 3 Tage)
Zur Vertiefung der gelernten Inhalte
Präsentation der Projektergebnisse
Relationale Datenbanken mit SQL
Grundlagen von Datenbanksystemen und SQL (ca. 3 Tage)
Überblick über Datenbanksysteme und -modelle
Redundante Daten und Datenintegrität
Normalisierung und BCNF
Datenbankentwurf und Entity-Relationship-Modell (ERM)
Primär- und Fremdschlüssel
Beziehungen zwischen Relationen
Datentypen in SQL
Indizes und Performance
Einschränkungen und Validierung
Abfragen (SQL)
Formulare und Berichte in modernen DBMS
Zirkelbezug und Abhängigkeitsmanagement
Einführung in SQL Server Management Studio (SSMS) (ca. 2 Tage)
Überblick über SQL Server und SSMS
Physisches Datenbankdesign
Erstellen von Tabellen und Definieren von Datentypen
Einschränkungen, Standardwerte und Beziehungen
Datenbankdiagramme und Beziehungen
Backup und Restore
Künstliche Intelligenz (KI) im Arbeitsprozess
Vorstellung von konkreten KI‐Technologien
sowie Anwendungsmöglichkeiten im beruflichen Umfeld
Einführung in DDL (Data Definition Language) (ca. 8 Tage)
SQL-Grundlagen und erweiterte Syntax
Erstellen von Tabellen und Definieren von Constraints
Operatoren und Funktionsdefinitionen
Abfragen und Manipulation von Daten
Fehlerbehandlung und Transaktionsmanagement
DCL – Data Control Language und Sicherheit (ca. 1 Tag)
Benutzerverwaltung und Berechtigungen
Rollen, Berechtigungen und Auditing
Datentypen, Datenimport und -export in modernen Systemen (ca. 1 Tag)
Datenimport und -export
Moderne Datentypen
Projektarbeit (ca. 5 Tage)
Zur Vertiefung der gelernten Inhalte
Präsentation der Projektergebnisse
Programmierung mit Python
Grundlagen Python (ca. 1 Tag)
Geschichte, Konzepte
Verwendung und Einsatzgebiete
Syntax
Lexis, Semantik
PEP-8-Konventionen
Interpreter vs. Compiler
Erste Schritte mit Python (ca. 5 Tage)
Zahlen
Zeichenketten
Datum und Zeit
Standardeingabe und -ausgabe
Numerische Operatoren
Vergleichs-, logische und bitweise Operatoren
Datentypumwandlung
list, tuple dict, set
List-Funktionen und -Methoden
Verzweigungen und Schleifen (if, for, while)
Mitgliedsoperatoren
Künstliche Intelligenz (KI) im Arbeitsprozess
Vorstellung von konkreten KI‐Technologien
sowie Anwendungsmöglichkeiten im beruflichen Umfeld
Funktionen (ca. 5 Tage)
Eigene Funktionen definieren
Variablen
Parameter und Argumente
Rückgabewerte
Rekursion
Namensräume
Funktionale Programmierung
Fehlerbehebung (ca. 0,5 Tage)
try, except
Fehlerarten
Programmunterbrechungen abfangen
Fehlerweitergabe zwischen Funktionen
Objektorientierte Programmierung (ca. 4,5 Tage)
Python-Klassen
Methoden
Unveränderliche Objekte
Datenklasse
Vererbung
Projektarbeit, Zertifizierungsvorbereitung und Zertifizierungsprüfung „PCEP™ - Certified Entry-Level Python Programmer” in englischer Sprache (ca. 4 Tage)
Data Engineer
Grundlagen Business Intelligence (ca. 2 Tage)
Anwendungsfelder, Dimensionen einer BI Architektur
Grundlagen Business Intelligence, OLAP, OLTP, Aufgaben der Data Engineers
Data Warehousing (DWH): Umgang und Verarbeitung von strukturierten, semi-strukturierten und unstrukturierten Daten
Anforderungsmanagement (ca. 2 Tage)
Aufgaben, Ziele und Vorgehensweise in der Anforderungsanalyse
Datenmodellierung, Einführung/Modellierung mit ERM
Einführung/Modellierung in der UML
· Klassendiagramme
· Use-Case Analyse
· Aktivitätsdiagramme
Künstliche Intelligenz (KI) im Arbeitsprozess
Vorstellung von konkreten KI‐Technologien
sowie Anwendungsmöglichkeiten im beruflichen Umfeld
Datenbanken (ca. 3 Tage)
Grundlagen von Datenbanksystemen
Architektur von Datenbankmanagementsystemen
Anwendung RDBMS
Umsetzung Datenmodell in RDBMS, Normalformen
Praktische und theoretische Einführung in SQL
Grenzen von Relationalen Datenbanken, csv, json
Data Warehouse (ca. 4 Tage)
Star Schema
Datenmodellierung
Erstellung Star Schema in RDBMS
Snowflake Schema, Grundlagen, Datenmodellierung
Erstellung Snowflake Schema in RDBMS
Galaxy Schema: Grundlagen, Datenmodellierung
Slowly Changing Dimension Tables Typ 1 bis 5 – Restating, Stacking, Reorganizing, mini Dimension und Typ 5
Einführung in normal, causal, mini und monster, heterogeneous und sub Dimensions
Vergleich von state und transaction oriented
Faktentabellen, Density und Storage vom DWH
ETL (ca. 4 Tage)
Data Cleansing
· Null Values
· Aufbereitung von Daten
· Harmonisierung von Daten
· Anwendung von Regular Expressions
Data Understanding
· Datenvalidierung
· Statistische Datenanalyse
Datenschutz, Datensicherheit
Praktischer Aufbau von ETL-Strecken
Data Vault 2.0, Grundlagen, Hubs, Links, Satellites, Hash Key, Hash Diff.
Data Vault Datenmodellierung
Praktischer Aufbau eines Data Vault Modells – Raw Vault, Praktische Umsetzung von Hash-Verfahren
Projektarbeit (ca. 5 Tage)
Zur Vertiefung der gelernten Inhalte
Präsentation der Projektergebnisse
Data Analytics
Einführung Datenanalyse (ca. 1 Tag)
CRISP-DM Referenzmodell
Data Analytics Workflows
Begriffsabgrenzung Künstliche Intelligenz, Machine Learning, Deep Learning
Anforderungen und Rolle im Unternehmen der Data Engineers, Data Scientists und Data Analysts
Wiederholung Grundlagen Python (ca. 1 Tag)
Datentypen
Funktionen
Datenanalyse (ca. 3 Tage)
Zentrale Python-Module im Kontext Data Analytics (NumPy, Pandas)
Prozess der Datenaufbereitung
Data Mining Algorithmen in Python
Künstliche Intelligenz (KI) im Arbeitsprozess
Vorstellung von konkreten KI‐Technologien
sowie Anwendungsmöglichkeiten im beruflichen Umfeld
Datenvisualisierung (ca. 3 Tage)
Explorative Datenanalyse
Insights
Datenqualität
Nutzenanalyse
Visualisierung mit Python: Matplotlib, Seaborn, Plotly Express
Data Storytelling
Datenmanagement (ca. 2 Tage)
Big Data Architekturen
Relationale Datenbanken mit SQL
Vergleich von SQL- und NoSQL-Datenbanken
Business Intelligence
Datenschutz im Kontext der Datenanalyse
Datenanalyse im Big Data Kontext (ca. 1 Tag)
MapReduce-Ansatz
Spark
NoSQL
Dashboards (ca. 3 Tage)
Bibliothek: Dash
Aufbau von Dashboards – Dash Components
Customizing von Dashboards
Callbacks
Text Mining (ca. 1 Tag)
Data Preprocessing
Visualisierung
Bibliothek: SpaCy
Projektarbeit (ca. 5 Tage)
Zur Vertiefung der gelernten Inhalte
Präsentation der Projektergebnisse
Änderungen möglich. Die Lehrgangsinhalte werden regelmäßig aktualisiert.
Kursinformationen
Einsteinstraße 59
89077 Ulm