Customer Data Manager:in
Kurs-ID | 9093-2024-02-05 |
Datum | 05.02.2024 bis 19.07.2024 |
Dauer | 24 Woche(n) |
Unterrichtszeiten | Montag bis Freitag von 08:30 bis 15:35 Uhr (in Wochen mit Feiertagen von 8:30 bis 17:10 Uhr) |
Kosten | k. A. |
Zielgruppe | Dieser Lehrgang richtet sich an (Wirtschafts-)Informatiker:innen aus den Bereichen Marketing, Einkauf, Vertrieb und Kundenmanagement. |
Voraussetzung | Kenntnisse in der Programmiersprache Python werden vorausgesetzt. |
Abschluss | Zertifikat „Customer Data Manager:in“, Zertifikat „Kundenservice mit CRM“, Zertifikat „Big Data Grundlagen“, Zertifikat „Statistik“, Zertifikat „Relationale Datenbanken-SQL“, Zertifikat „Data Engineer“, Zertifikat „Data Analytics“ |
Förderung | Bildungsgutschein (Arbeitsuchende und Arbeitslose), Weiterbildungsförderung für Beschäftigte, Europäischer Sozialfonds ESF (Kurzarbeit oder Transfergesellschaften). Weitere Förderstellen: Berufsförderungsdienst (BFD), die Berufsgenossenschaft (BG) sowie der Rentenversicherungsträger (DRV). |
Präsenzkurs | Keine Angabe. |
mind. Teilnehmerzahl | 6 |
max. Teilnehmerzahl | 25 |
URL des Kurses | Details beim Anbieter |
Anmelde URL des Kurses | Direkte Anmeldung beim Anbieter |
spezielles Angebot für Dozenten | Keine Angabe. |
Veranstaltungsort
|
alfatraining Bildungszentrum GmbH
Hauptstraße 40 77652 Offenburg |
Abendkurs | Bildungsgutschein | Barierrefreier Zugang |
---|---|---|
Nein | Ja | k. A. |
Beschreibung |
---|
Der Kurs "Customer Data Manager:in" vermittelt den Umgang mit einer CRM-Software, die Grundlagen im Big Data und im Einsatz Künstlicher Intelligenz (KI) in deinem beruflichen Umfeld, der Statistik und SQL-Datenbanken sowie Kenntnisse im Data Warehouse, dem ETL-Prozess und der Datenanalyse. Kundenservice mit CRM Grundlagen Customer Relationship Management (ca. 3 Tage) Einführung in das Customer Relationship Management Strategisches, analytisches, operatives CRM Integrierte CRM-Lösungen: ERP-System, Datawarehouse, Data Mining und OLAP Grundlagen Datenschutz (ca. 1 Tag) Umgang mit Kundendaten Speicherung und Weitergabe von Kundendaten Datenschutz im Bereich Marketing/Werbemaßnahmen Künstliche Intelligenz (KI) im Arbeitsprozess Vorstellung von konkreten KI‐Technologien im beruflichen Umfeld Anwendungsmöglichkeiten und Praxis‐Übungen Gewinnung und Bindung von Kundschaft (ca. 4 Tage) Analyse der Kundenbedürfnisse Kundenzufriedenheitsmanagement Kundenkommunikation Customer Experience (CX) Psychologie der Kundenbeziehungen Aufbau und Pflege von Kundendatenbanken 360 Grad-Kundenansicht Ganzheitliches Fallmanagement Umgang mit Kundendaten (ca. 4 Tage) Verwaltung von Terminen, Verträgen und Budget Kundenadministration Workflows zwischen Teams Bereinigung der Datenbank Analytisches CRM (Zielgruppenanalyse, Kundenwertanalyse, Forecasts) Echtzeit-Dashboards Überblick über Leistungskennzahlen Drilldown-Analyse Inline-Datenvisualisierung Auswertung von Verkaufschancen Steigerung der Kundenprofitabilität (ca. 3 Tage) Marketing Gezielte Rückmeldungen Segmentierungstools Kampagnen-Management Workflows Lead-to-Cash-Transparenz Echtzeit-Verkaufsprognosen Pipeline-Berichte Einführung CRM Software (ca. 2 Tage) Übersicht in die CRM Systemlandschaft Vorstellung und Positionierung verschiedener CRM-Systeme Prozessabläufe abbilden Projektarbeit (ca. 3 Tage) Zur Vertiefung der gelernten Inhalte Präsentation der Projektergebnisse Big Data Grundlagen – Technologien, Strategien und Trends Grundlagen Datenmanagement (ca. 2 Tage) Anforderungen an Daten Data Governance Datenbereinigung Was ist Big Data? (ca. 4 Tage) Die fünf Vs: Volume, Velocity, Variety, Value, Veracity Chancen und Risiken großer Datenmengen 6 Schritte des CRISP-DM Industriestandards Data Warehouse, Data Lake Abgrenzung: Business Intelligence, Data Analytics, Data Science Was ist Data Mining? Künstliche Intelligenz (KI) im Arbeitsprozess Vorstellung von konkreten KI-Technologien im beruflichen Umfeld Anwendungsmöglichkeiten und Praxis-Übungen Verteilte Systeme (ca. 3 Tage) SQL/NoSQL Was ist Web 2.0? Begriffserläuterung Cloud-Computing Einsatzmöglichkeiten von Google, Hadoop, Spark MapReduce Datenmanagement (ca. 2 Tage) ETL (extract, transform, load) Datenerfassung, -speicherung, -analyse und-verwendung Relationale Datenbanken, SQL (ca. 2 Tage) Entitätsmengen Relationen Datenbanken/Tabellen Schlüsselfelder Einsatz Indizes Datenbanksystemtypen Datentypen: Standard- und spezielle Datentypen Beziehungen zwischen Relationen Entity-Relationship-Modell NoSQL (ca. 2 Tage) Grenzen von relationalen Abfragesprachen Cap-Theorem ACID vs. Base No-SQL Technologien Rechtliche Grundlagen (ca. 2 Tage) GDPR Datenschutz und -sicherheit DSGVO Das Bundesdatenschutzgesetz Projektarbeit (ca. 3 Tage) Zur Vertiefung der gelernten Inhalte Präsentation der Projektergebnisse Statistik Statistische Grundlagen (ca. 6 Tage) Messtheoretische Grundlagen (Grundgesamtheit und Stichprobe, Stichprobenarten, Messung und Skalenniveaus) Univariate Deskriptivstatistik (Häufigkeitsverteilungen, Zentralmaße, Streuungsmaße, Standardwert, Histogramme, Balkendiagramme, Kreisdiagramme, Liniendiagramme und Boxplots) Bivariate Deskriptivstatistik (Zusammenhangsmaße, Korrelationskoeffizienten, Kreuztabellen, Streudiagramme und gruppierte Balkendiagramme) Grundlagen der induktiven Inferenzstatistik (Wahrscheinlichkeitsverteilung, Normalverteilung, Mittelwerteverteilung, Signifikanztest, Nullhypothesentest nach Fisher, Effektgröße, Parameterschätzung, Konfidenzintervalle, Fehlerbalkendiagramme, Poweranalysen und Ermittlung des optimalen Stichprobenumfangs) Künstliche Intelligenz (KI) im Arbeitsprozess Vorstellung von konkreten KI-Technologien im beruflichen Umfeld Anwendungsmöglichkeiten und Praxis-Übungen Methoden zum Vergleich von zwei Gruppen (ca. 5 Tage) z- und t-Test für eine Stichprobe (Abweichung von einem vorgegebenen Wert) t-Test für den Mittelwertsunterschied von zwei unabhängigen/verbundenen Stichproben Prüfung der Wirksamkeit von Aktionen, Maßnahmen, Interventionen und anderen Veränderungen mit t-Tests (Pretest-Posttest-Designs mit zwei Gruppen) Unterstützende Signifikanztests (Anderson-Darling-Test, Ryan-Joiner-Test, Levene-Test, Bonnet-Test, Signifikanztest für Korrelationen) Nonparametrische Verfahren (Wilcoxon-Test, Vorzeichentest, Mann-Whitney-Test) Kontingenzanalysen (Binomialtest, Exakter Test nach Fisher, Chi-Quadrat-Test, Kreuztabellen mit Assoziationsmaße) Methoden zum Mittelwertvergleich von mehreren Gruppen (ca. 5 Tage) Ein- und zweifaktorielle Varianzanalyse (einfache und balancierte ANOVA) Mehrfaktorielle Varianzanalyse (Allgemeines lineares Modell) Feste, zufällige, gekreuzte und geschachtelte Faktoren Mehrfachvergleichsverfahren (Tukey-HSD, Dunnett, Hsu-MCB, Games-Howell) Interaktionsanalyse (Analyse von Wechselwirkungseffekten) Trennschärfe und Poweranalyse bei Varianzanalysen Einführung in die Versuchsplanung (DoE, Design of Experiments) (ca. 1 Tag) Voll- und teilfaktorielle Versuchspläne Projektarbeit (ca. 3 Tage) Zur Vertiefung der gelernten Inhalte Präsentation der Projektergebnisse Relationale Datenbanken mit SQL Grundlagen von Datenbanksystemen mit Access (ca. 3 Tage) Redundante Daten Datenintegrität Normalisierung BCNF DB-Entwurf Beziehung 1:n, m:n Datentypen Tabellen Primär- und Fremdschlüssel Referentielle Integrität Beziehungen zwischen Relationen Entity-Relationship-Modell Index, Standartwert Einschränkungen (Check) Abfragen Formulare, Berichte Zirkelbezug Einführung in SQL Server Management Studio (SSMS) (ca. 2 Tage) Übersicht Phys. DB-Design Tabellen erstellen Datentypen in MS SQL Primary Key Einschränkungen, Standartwerte, Diagramm, Beziehungen Backup und Restore Künstliche Intelligenz (KI) im Arbeitsprozess Vorstellung von konkreten KI-Technologien im beruflichen Umfeld Anwendungsmöglichkeiten und Praxis-Übungen Einführung in DDL (ca. 8 Tage) SQL Grundlagen Syntax Befehle Mehrere Tabellen Operatoren Ablaufkontrolle Skalarwertfunktionen Tabellenwertfunktionen Systemfunktionen Prozeduren mit und ohne Parameter Fehlertypen Transaktionen, Sperren, DeadLock DCL – Data Control Language (ca. 1 Tag) Anmeldungen Benutzer:innen Rollen Berechtigungen Datentypen, Datenimport und -export (ca. 1 Tag) Datentyp geography Datenexport, Datenimport Projektarbeit (ca. 5 Tage) Zur Vertiefung der gelernten Inhalte Präsentation der Projektergebnisse Data Engineer Grundlagen Business Intelligence (ca. 2 Tage) Anwendungsfelder, Dimensionen einer BI Architektur Grundlagen Business Intelligence, OLAP, OLTP, Aufgaben der Data Engineers Data Warehousing (DWH): Umgang und Verarbeitung von strukturierten, semi-strukturierten und unstrukturierten Daten Anforderungsmanagement (ca. 2 Tage) Aufgaben, Ziele und Vorgehensweise in der Anforderungsanalyse Datenmodellierung, Einführung/Modellierung mit ERM Einführung/Modellierung in der UML · Klassendiagramme · Use-Case Analyse · Aktivitätsdiagramme Künstliche Intelligenz (KI) im Arbeitsprozess Vorstellung von konkreten KI-Technologien im beruflichen Umfeld Anwendungsmöglichkeiten und Praxis-Übungen Datenbanken (ca. 3 Tage) Grundlagen von Datenbanksystemen Architektur von Datenbankmanagementsystemen Anwendung RDBMS Umsetzung Datenmodell in RDBMS, Normalformen Praktische und theoretische Einführung in SQL Grenzen von Relationalen Datenbanken, csv, json Data Warehouse (ca. 4 Tage) Star Schema Datenmodellierung Erstellung Star Schema in RDBMS Snowflake Schema, Grundlagen, Datenmodellierung Erstellung Snowflake Schema in RDBMS Galaxy Schema: Grundlagen, Datenmodellierung Slowly Changing Dimension Tables Typ 1 bis 5 – Restating, Stacking, Reorganizing, mini Dimension und Typ 5 Einführung in normal, causal, mini und monster, heterogeneous und sub Dimensions Vergleich von state und transaction oriented Faktentabellen, Density und Storage vom DWH ETL (ca. 4 Tage) Data Cleansing · Null Values · Aufbereitung von Daten · Harmonisierung von Daten · Anwendung von Regular Expressions Data Understanding · Datenvalidierung · Statistische Datenanalyse Datenschutz, Datensicherheit Praktischer Aufbau von ETL-Strecken Data Vault 2.0, Grundlagen, Hubs, Links, Satellites, Hash Key, Hash Diff. Data Vault Datenmodellierung Praktischer Aufbau eines Data Vault Modells – Raw Vault, Praktische Umsetzung von Hash-Verfahren Projektarbeit (ca. 5 Tage) Zur Vertiefung der gelernten Inhalte Präsentation der Projektergebnisse Data Analytics Einführung Datenanalyse (ca. 1 Tag) CRISP-DM Referenzmodell Data Analytics Workflows Begriffsabgrenzung Künstliche Intelligenz, Machine Learning, Deep Learning Anforderungen und Rolle im Unternehmen der Data Engineers, Data Scientists und Data Analysts Wiederholung Grundlagen Python (ca. 1 Tag) Datentypen Funktionen Datenanalyse (ca. 3 Tage) Zentrale Python-Module im Kontext Data Analytics (NumPy, Pandas) Prozess der Datenaufbereitung Data Mining Algorithmen in Python Künstliche Intelligenz (KI) im Arbeitsprozess Vorstellung von konkreten KI-Technologien im beruflichen Umfeld Anwendungsmöglichkeiten und Praxis-Übungen Datenvisualisierung (ca. 3 Tage) Explorative Datenanalyse Insights Datenqualität Nutzenanalyse Visualisierung mit Python: Matplotlib, Seaborn, Plotly Express Datenmanagement (ca. 2 Tage) Big Data Architekturen Relationale Datenbanken mit SQL Vergleich von SQL- und NoSQL-Datenbanken Business Intelligence Datenschutz im Kontext der Datenanalyse Datenanalyse im Big Data Kontext (ca. 1 Tag) MapReduce-Ansatz Spark NoSQL Dashboards (ca. 3 Tage) Bibliothek: Dash Aufbau von Dashboards – Dash Components Customizing von Dashboards Callbacks Text Mining (ca. 1 Tag) Data Preprocessing Visualisierung Bibliothek: SpaCy Projektarbeit (ca. 5 Tage) Zur Vertiefung der gelernten Inhalte Präsentation der Projektergebnisse Änderungen möglich. Die Lehrgangsinhalte werden regelmäßig aktualisiert. |
Schlagworte |
---|
kunden, datenbank, programmierung, sql, vertrieb, customer relationship management |
Gelistet in folgenden Rubriken: |
---|