Customer Data Manager:in

Kurs-ID 9093-2024-02-05
Datum 05.02.2024 bis 19.07.2024
Dauer 24 Woche(n)
Unterrichtszeiten Montag bis Freitag von 08:30 bis 15:35 Uhr (in Wochen mit Feiertagen von 8:30 bis 17:10 Uhr)
Kosten k. A.
Zielgruppe Dieser Lehrgang richtet sich an (Wirtschafts-)Informatiker:innen aus den Bereichen Marketing, Einkauf, Vertrieb und Kundenmanagement.
Voraussetzung Kenntnisse in der Programmiersprache Python werden vorausgesetzt.
Abschluss Zertifikat „Customer Data Manager:in“, Zertifikat „Kundenservice mit CRM“, Zertifikat „Big Data Grundlagen“, Zertifikat „Statistik“, Zertifikat „Relationale Datenbanken-SQL“, Zertifikat „Data Engineer“, Zertifikat „Data Analytics“
Förderung Bildungsgutschein (Arbeitsuchende und Arbeitslose), Weiterbildungsförderung für Beschäftigte, Europäischer Sozialfonds ESF (Kurzarbeit oder Transfergesellschaften). Weitere Förderstellen: Berufsförderungsdienst (BFD), die Berufsgenossenschaft (BG) sowie der Rentenversicherungsträger (DRV).
Präsenzkurs Keine Angabe.
mind. Teilnehmerzahl 6
max. Teilnehmerzahl 25
URL des Kurses Details beim Anbieter
Anmelde URL des Kurses Direkte Anmeldung beim Anbieter
spezielles Angebot für Dozenten Keine Angabe.
Veranstaltungsort
 
alfatraining Bildungszentrum GmbH
Hauptstraße 40
77652 Offenburg

 

AbendkursBildungsgutscheinBarierrefreier Zugang
NeinJak. A.

 

Beschreibung
Der Kurs "Customer Data Manager:in" vermittelt den Umgang mit einer CRM-Software, die Grundlagen im Big Data und im Einsatz Künstlicher Intelligenz (KI) in deinem beruflichen Umfeld, der Statistik und SQL-Datenbanken sowie Kenntnisse im Data Warehouse, dem ETL-Prozess und der Datenanalyse.

Kundenservice mit CRM

Grundlagen Customer Relationship Management (ca. 3 Tage)
Einführung in das Customer Relationship Management
Strategisches, analytisches, operatives CRM
Integrierte CRM-Lösungen: ERP-System, Datawarehouse, Data Mining und OLAP

Grundlagen Datenschutz (ca. 1 Tag)
Umgang mit Kundendaten
Speicherung und Weitergabe von Kundendaten
Datenschutz im Bereich Marketing/Werbemaßnahmen

Künstliche Intelligenz (KI) im Arbeitsprozess
Vorstellung von konkreten KI‐Technologien im beruflichen Umfeld
Anwendungsmöglichkeiten und Praxis‐Übungen

Gewinnung und Bindung von Kundschaft (ca. 4 Tage)
Analyse der Kundenbedürfnisse
Kundenzufriedenheitsmanagement
Kundenkommunikation
Customer Experience (CX)
Psychologie der Kundenbeziehungen
Aufbau und Pflege von Kundendatenbanken
360 Grad-Kundenansicht
Ganzheitliches Fallmanagement

Umgang mit Kundendaten (ca. 4 Tage)
Verwaltung von Terminen, Verträgen und Budget
Kundenadministration
Workflows zwischen Teams
Bereinigung der Datenbank
Analytisches CRM (Zielgruppenanalyse, Kundenwertanalyse, Forecasts)
Echtzeit-Dashboards
Überblick über Leistungskennzahlen
Drilldown-Analyse
Inline-Datenvisualisierung
Auswertung von Verkaufschancen

Steigerung der Kundenprofitabilität (ca. 3 Tage)
Marketing
Gezielte Rückmeldungen
Segmentierungstools
Kampagnen-Management
Workflows
Lead-to-Cash-Transparenz
Echtzeit-Verkaufsprognosen
Pipeline-Berichte

Einführung CRM Software (ca. 2 Tage)
Übersicht in die CRM Systemlandschaft
Vorstellung und Positionierung verschiedener CRM-Systeme
Prozessabläufe abbilden

Projektarbeit (ca. 3 Tage)
Zur Vertiefung der gelernten Inhalte
Präsentation der Projektergebnisse



Big Data Grundlagen – Technologien, Strategien und Trends

Grundlagen Datenmanagement (ca. 2 Tage)
Anforderungen an Daten
Data Governance
Datenbereinigung

Was ist Big Data? (ca. 4 Tage)
Die fünf Vs: Volume, Velocity, Variety, Value, Veracity
Chancen und Risiken großer Datenmengen
6 Schritte des CRISP-DM Industriestandards
Data Warehouse, Data Lake
Abgrenzung: Business Intelligence, Data Analytics, Data Science
Was ist Data Mining?

Künstliche Intelligenz (KI) im Arbeitsprozess
Vorstellung von konkreten KI-Technologien im beruflichen Umfeld
Anwendungsmöglichkeiten und Praxis-Übungen

Verteilte Systeme (ca. 3 Tage)
SQL/NoSQL
Was ist Web 2.0?
Begriffserläuterung Cloud-Computing
Einsatzmöglichkeiten von Google, Hadoop, Spark
MapReduce

Datenmanagement (ca. 2 Tage)
ETL (extract, transform, load)
Datenerfassung, -speicherung, -analyse und-verwendung

Relationale Datenbanken, SQL (ca. 2 Tage)
Entitätsmengen
Relationen
Datenbanken/Tabellen
Schlüsselfelder
Einsatz Indizes
Datenbanksystemtypen
Datentypen: Standard- und spezielle Datentypen
Beziehungen zwischen Relationen
Entity-Relationship-Modell

NoSQL (ca. 2 Tage)
Grenzen von relationalen Abfragesprachen
Cap-Theorem
ACID vs. Base
No-SQL Technologien

Rechtliche Grundlagen (ca. 2 Tage)
GDPR
Datenschutz und -sicherheit
DSGVO
Das Bundesdatenschutzgesetz

Projektarbeit (ca. 3 Tage)
Zur Vertiefung der gelernten Inhalte
Präsentation der Projektergebnisse



Statistik

Statistische Grundlagen (ca. 6 Tage)
Messtheoretische Grundlagen (Grundgesamtheit und Stichprobe, Stichprobenarten, Messung und Skalenniveaus)
Univariate Deskriptivstatistik (Häufigkeitsverteilungen, Zentralmaße, Streuungsmaße, Standardwert, Histogramme, Balkendiagramme, Kreisdiagramme, Liniendiagramme und Boxplots)
Bivariate Deskriptivstatistik (Zusammenhangsmaße, Korrelationskoeffizienten, Kreuztabellen, Streudiagramme und gruppierte Balkendiagramme)
Grundlagen der induktiven Inferenzstatistik (Wahrscheinlichkeitsverteilung, Normalverteilung, Mittelwerteverteilung, Signifikanztest, Nullhypothesentest nach Fisher, Effektgröße, Parameterschätzung, Konfidenzintervalle, Fehlerbalkendiagramme, Poweranalysen und Ermittlung des optimalen Stichprobenumfangs)

Künstliche Intelligenz (KI) im Arbeitsprozess
Vorstellung von konkreten KI-Technologien im beruflichen Umfeld
Anwendungsmöglichkeiten und Praxis-Übungen

Methoden zum Vergleich von zwei Gruppen (ca. 5 Tage)
z- und t-Test für eine Stichprobe (Abweichung von einem vorgegebenen Wert)
t-Test für den Mittelwertsunterschied von zwei unabhängigen/verbundenen Stichproben
Prüfung der Wirksamkeit von Aktionen, Maßnahmen, Interventionen und anderen Veränderungen mit t-Tests (Pretest-Posttest-Designs mit zwei Gruppen)
Unterstützende Signifikanztests (Anderson-Darling-Test, Ryan-Joiner-Test, Levene-Test, Bonnet-Test, Signifikanztest für Korrelationen)
Nonparametrische Verfahren (Wilcoxon-Test, Vorzeichentest, Mann-Whitney-Test)
Kontingenzanalysen (Binomialtest, Exakter Test nach Fisher, Chi-Quadrat-Test, Kreuztabellen mit Assoziationsmaße)

Methoden zum Mittelwertvergleich von mehreren Gruppen (ca. 5 Tage)
Ein- und zweifaktorielle Varianzanalyse (einfache und balancierte ANOVA)
Mehrfaktorielle Varianzanalyse (Allgemeines lineares Modell)
Feste, zufällige, gekreuzte und geschachtelte Faktoren
Mehrfachvergleichsverfahren (Tukey-HSD, Dunnett, Hsu-MCB, Games-Howell)
Interaktionsanalyse (Analyse von Wechselwirkungseffekten)
Trennschärfe und Poweranalyse bei Varianzanalysen

Einführung in die Versuchsplanung (DoE, Design of Experiments) (ca. 1 Tag)
Voll- und teilfaktorielle Versuchspläne

Projektarbeit (ca. 3 Tage)
Zur Vertiefung der gelernten Inhalte
Präsentation der Projektergebnisse



Relationale Datenbanken mit SQL

Grundlagen von Datenbanksystemen mit Access (ca. 3 Tage)
Redundante Daten
Datenintegrität
Normalisierung
BCNF
DB-Entwurf
Beziehung 1:n, m:n
Datentypen
Tabellen
Primär- und Fremdschlüssel
Referentielle Integrität
Beziehungen zwischen Relationen
Entity-Relationship-Modell
Index, Standartwert
Einschränkungen (Check)
Abfragen
Formulare, Berichte
Zirkelbezug

Einführung in SQL Server Management Studio (SSMS) (ca. 2 Tage)
Übersicht
Phys. DB-Design
Tabellen erstellen
Datentypen in MS SQL
Primary Key
Einschränkungen, Standartwerte, Diagramm, Beziehungen
Backup und Restore

Künstliche Intelligenz (KI) im Arbeitsprozess
Vorstellung von konkreten KI-Technologien im beruflichen Umfeld
Anwendungsmöglichkeiten und Praxis-Übungen

Einführung in DDL (ca. 8 Tage)
SQL Grundlagen
Syntax
Befehle
Mehrere Tabellen
Operatoren
Ablaufkontrolle
Skalarwertfunktionen
Tabellenwertfunktionen
Systemfunktionen
Prozeduren mit und ohne Parameter
Fehlertypen
Transaktionen, Sperren, DeadLock

DCL – Data Control Language (ca. 1 Tag)
Anmeldungen
Benutzer:innen
Rollen
Berechtigungen

Datentypen, Datenimport und -export (ca. 1 Tag)
Datentyp geography
Datenexport, Datenimport

Projektarbeit (ca. 5 Tage)
Zur Vertiefung der gelernten Inhalte
Präsentation der Projektergebnisse



Data Engineer

Grundlagen Business Intelligence (ca. 2 Tage)
Anwendungsfelder, Dimensionen einer BI Architektur
Grundlagen Business Intelligence, OLAP, OLTP, Aufgaben der Data Engineers
Data Warehousing (DWH): Umgang und Verarbeitung von strukturierten, semi-strukturierten und unstrukturierten Daten

Anforderungsmanagement (ca. 2 Tage)
Aufgaben, Ziele und Vorgehensweise in der Anforderungsanalyse
Datenmodellierung, Einführung/Modellierung mit ERM
Einführung/Modellierung in der UML
· Klassendiagramme
· Use-Case Analyse
· Aktivitätsdiagramme

Künstliche Intelligenz (KI) im Arbeitsprozess
Vorstellung von konkreten KI-Technologien im beruflichen Umfeld
Anwendungsmöglichkeiten und Praxis-Übungen

Datenbanken (ca. 3 Tage)
Grundlagen von Datenbanksystemen
Architektur von Datenbankmanagementsystemen
Anwendung RDBMS
Umsetzung Datenmodell in RDBMS, Normalformen
Praktische und theoretische Einführung in SQL
Grenzen von Relationalen Datenbanken, csv, json

Data Warehouse (ca. 4 Tage)
Star Schema
Datenmodellierung
Erstellung Star Schema in RDBMS
Snowflake Schema, Grundlagen, Datenmodellierung
Erstellung Snowflake Schema in RDBMS
Galaxy Schema: Grundlagen, Datenmodellierung
Slowly Changing Dimension Tables Typ 1 bis 5 – Restating, Stacking, Reorganizing, mini Dimension und Typ 5
Einführung in normal, causal, mini und monster, heterogeneous und sub Dimensions
Vergleich von state und transaction oriented
Faktentabellen, Density und Storage vom DWH

ETL (ca. 4 Tage)
Data Cleansing
· Null Values
· Aufbereitung von Daten
· Harmonisierung von Daten
· Anwendung von Regular Expressions
Data Understanding
· Datenvalidierung
· Statistische Datenanalyse
Datenschutz, Datensicherheit
Praktischer Aufbau von ETL-Strecken
Data Vault 2.0, Grundlagen, Hubs, Links, Satellites, Hash Key, Hash Diff.
Data Vault Datenmodellierung
Praktischer Aufbau eines Data Vault Modells – Raw Vault, Praktische Umsetzung von Hash-Verfahren

Projektarbeit (ca. 5 Tage)
Zur Vertiefung der gelernten Inhalte
Präsentation der Projektergebnisse



Data Analytics

Einführung Datenanalyse (ca. 1 Tag)
CRISP-DM Referenzmodell
Data Analytics Workflows
Begriffsabgrenzung Künstliche Intelligenz, Machine Learning, Deep Learning
Anforderungen und Rolle im Unternehmen der Data Engineers, Data Scientists und Data Analysts

Wiederholung Grundlagen Python (ca. 1 Tag)
Datentypen
Funktionen

Datenanalyse (ca. 3 Tage)
Zentrale Python-Module im Kontext Data Analytics (NumPy, Pandas)
Prozess der Datenaufbereitung
Data Mining Algorithmen in Python

Künstliche Intelligenz (KI) im Arbeitsprozess
Vorstellung von konkreten KI-Technologien im beruflichen Umfeld
Anwendungsmöglichkeiten und Praxis-Übungen

Datenvisualisierung (ca. 3 Tage)
Explorative Datenanalyse
Insights
Datenqualität
Nutzenanalyse
Visualisierung mit Python: Matplotlib, Seaborn, Plotly Express

Datenmanagement (ca. 2 Tage)
Big Data Architekturen
Relationale Datenbanken mit SQL
Vergleich von SQL- und NoSQL-Datenbanken
Business Intelligence
Datenschutz im Kontext der Datenanalyse

Datenanalyse im Big Data Kontext (ca. 1 Tag)
MapReduce-Ansatz
Spark
NoSQL

Dashboards (ca. 3 Tage)
Bibliothek: Dash
Aufbau von Dashboards – Dash Components
Customizing von Dashboards
Callbacks

Text Mining (ca. 1 Tag)
Data Preprocessing
Visualisierung
Bibliothek: SpaCy

Projektarbeit (ca. 5 Tage)
Zur Vertiefung der gelernten Inhalte
Präsentation der Projektergebnisse



Änderungen möglich. Die Lehrgangsinhalte werden regelmäßig aktualisiert.

 

Schlagworte
kunden, datenbank, programmierung, sql, vertrieb, customer relationship management

 

Gelistet in folgenden Rubriken: