Description
keyboard_arrow_downMain Skills
keyboard_arrow_downOther Skills
keyboard_arrow_down Filenet
EssBase
Solr
API
Big Data
Client/Server
Online Banking
MongoDB
OLAP
Database
Datenzugriff
SQS
JSON
Kafka
12c
SAP
Cloudera
Metadata
PySpark
Testfälle
SAP-Umfeld
IBM Cognos TM1
Datentransfer
Data Warehouse
APIs
SAS Visual Analytics
Datensicherheit
Informatica PowerCenter
WLAN
Oozie
HDFS
Microsoft Azure
ElasticSearch
Exadata
Eclipse
Spice
Cloud
Hana
ML
MS Visio
Linux
SUSE Linux Enterprise Server
Bower
SQL Server 2016
SCRUM
MapR
Big-Data
Hadoop
Sqoop
Cloud-Services
Datenhaltung
Cobol
SAS
ETL
Power BI
PaaS
Data Mart
Flink
ETL-Prozesse
DynamoDB
UML
J2EE
WebSphere
PL/1
Oracle
ETL-Prozess
S3
Python
Data Governance
Azure
Excel
BAPI
DB2
Spark Streaming
Apache Hadoop
BiZTalk
Talend
Bugzilla
Datenbank
MS SQL Server
ABAP OO
Matlab
SCRUM Master
Testmanagement
3NF
Online-Banking
R
VMWare
MS Project
SAP FI
Spark
SAP HANA
Oracle Exadata
SAP BO
PowerDesigner
MS-Office
Data Hub
SaaS
SSIS
SPSS
Amazon AWS
PL/SQL
MapReduce
XMLSpy
Oracle EssBase
Daten-Visualisierung
Analytics
Cognos
JavaScript Object Notation
SAP PS
ClearQuest
Impala
Softwareentwicklung
Map Reduce
Product Owner
Cascading
Informatik
HBase
Oracle Hyperion
Big Table
AWS
Streaming
Datenbanken
Oracle NoSQL
IBM Cognos
Datenarchivierung
Webservices
SSAS
Mahout
Avro
HP Quality Center
SharePoint
PRINCE2
agile
XML
Java
Red Hat Enterprise Linux
YARN
ARIS
Metadaten
BigInsights
Tableau
Cloudera Manager
MS-Project
Data Vault
Systemanalytiker
Apache Spark
Powerpoint
Testmanagements
Datenintegration
Zookeeper
UNIX
JavaScript
NumPy
Cognos 10
Anforderungsmanagement
Visio
CMMI
SQL
Salesforce
Tomcat
Teradata
Nagios
SAP BI
Scaled Agile Framework
Ambari
Work & Experience
keyboard_arrow_down 01.04.2017 — Now
eines Kundenauftrags
Lead Architekt, Komponentenberatung Cloud-Lösung: SAP HANA, Cloudera, (CHD), Kafka, Flink, Talend (Spezialistenvon Infomotion) Tableau vs. SAP Lumira (Spezialisten von Infomotion) weitere Testinstallation SparxSystzms Enterprise Architect 01.08.2016 — 31.07.2017
Nordex SE Windkraftanlagen Impulsgeber/Coach für den Enterprise Architekturen, Projektleitung,
Workshops zur Einführung von BI-Infrastrukturen und Hadoop-Komponenten
Pilot und Produktivsetzung
Definition der Use Cases, hybride Architektur (Data Warehouse und Hadoop-Cluster) Empfehlung der Hadoop-Komponenten, Hadoop in der Cloud (PaaS vs. SaaS)
Grundlagen der Data Warehouse und Data Mart-Modellierung IT-Managementberatung mit Abstimmung auf Ebene CIO, Stellvertreter CIO, Abteilungsleiter Abstimmung und Kooperation mit Management auf der Fachseite der zweiten Führungsebene
Beratung zum Aufbau einer Data Governance
Blueprint zum Aufbau eines Master Data Managements; Umsetzung Start 05.2017
Blueprint und Realisierung von ersten Komponenten eines Integration Server Bus mit Mircoservices (REST API für Data Warehouse, Leitstand (Control Center):und Fehlermanagement Architektur-Blueprint zur datentechnischen Integration der Windmühlen als Basis zum Aufbau Leitstand (Control Center für Alarme und prognostisierte Alarme)
Mircosoft Azure, SQL Server 2016, R-Integration SQL Server 2016, SSIS, Power BI, Hadoop mit Kafka, Spark 2.0 (R-Integration, ML; Spark Streaming, Spark SQL)
Handlungsempfehlung und Umsetzung in zwei Phasenmit Produktivsetzung Pilot Phase 1: Aufbau DWH , 3-Schichten-Modell (Storage, Cleansing mit Core und BI-Services mit Data Mart, Sandbox für Analytik BI-Services für Engineering, Service, Product Strategiy und Produktion mit Microsoft Azure DWH-Komponenten (SSIS, SSAS Bower BI, MS R-Integration, MS BiZTalk, MS Master Data Management Pilot:Phase 2: Aufbau eines Hadoop-Cluster Microsoft Azure Insight Cloud SaaS
WLAN-Anbindung der Windmühlen unter Datentransport < 1 Sekunde in Hadoop-Cluster mit Streaming Analytik, Visualisierung, KPI mit Spark nach DWH für Dashboards, Datenarchivierung nach Filterung der relevanten Daten für Zeitreihenanalyse
Produktivbetrieb ab Mai 2017 ! 01.07.2016 — 31.12.2016
Definition von Use Cases; Kündigeranalyse aus eMail Textmaining, Cross Selling aus eMail Textmaining, Einbindung der Ergebnisse aus Analytik in Testkampagnen. Customer Journey mit weiteren Kennahlen für das Kampagnenmanagement Beschreibung von Alternativen SAS Enterprise Miner, SAS Textmaining auf HDFS-Cluster sowie R-Integration/Spark ML auf HDFS.
Verantwortlich für die Vorstandpräsentation und Empfehlung zum weiteren Einsatz.
PoC mit Cloudera, Phyhton/Spark ML, HDFS, Sqoop
Produktivbetrieb seit Januar 2017 ! 01.06.2015 — 30.06.2016
Projektleitung und Testmanager Projektleitung und Testmanager im Auftrag des Generalunternehmers als Festpreisprojekt zum Aufbau eines neuen "Output-Management-System der Deka Luxemburg". Führung von Teams mit folgenden Schwerpunkten:
Team des Generalunternehmers für die Komponenten der Datenversorgung
Vom Generalunternehmer beauftragter Subunternehmer für die Komponenten des Druckmanagements
Testteam (interne und externe Mitarbeiter)
Steuerung in Konzeption, Realisierung und Qualitätssicherung:
IT-Architektur, DV-Konzepte, Konsolidierung Fachkonzepte, Datenmodellierung, ETL-Framework, Berechtigungskonzepte, Betriebs- und Produktionshandbücher, Rollout-Management.
Die Komponenten des Output-Managements im Detail:
Erweiterung des Core-DWH mit ETL-Prozesse aus Quellsystemen
Aufbau Data Mart zur Datenversorgung des Output Managements
XML-Ausleistungsschicht (Datenselektion aus Auftragsmanagement Data Mart mit Beilagen und Druckersteuerung)
Auftragsmanagement zur Steuerung von Aktionen
Dateitransfer über TravicLink
Belegerstellung mit DOC1GEN (Engage One Pitney Bowes)
DocBridge Pilot (Compart)
DocBridge Queue Processor (Compart)
Konfiguration der Böwe-Kuvertiermaschinen
Outputmanagement-Planung und-reporting (Cognos)
Nagios
Testmanagement mit folgenden Schwerpunkten
Testkonzept (> 600 Testfälle) für Core-DWH, Data Mart, XML-Generierung, Belegwesen und Druckmanagement
Bugfixing
Testreporting
Regressionstest
Steuerung der Entwickler für das Bugfixing
Projektmanagement
Klassisches Projektmanagement und agile Methodik (Projekt lebt von geordneter Agilität)
Projektplanung für alle Komponenten
Einsatzplanung für den Generalunternehmen
Tägliches Monitoring Montag bis Donnerstag (Daily Scrums)
Wöchentliches JF mit Management-Projektreporting (Fachseite und IT)
JF mit IT Service, IT-Produktion und IT-Architektur
JF mit Fachseiten
Coaching der Scrum Master
Moderation Fachseite und Management
Mitarbeiterführung des General- und Subunternehmers
Arbeitsausschuss (monatlicher Zyklus)
Risikomanagement
OLYMPIC Banking System
Sybase PowerDesigner, Informatica PowerCenter Version 9.0.1, Informatica B2B Data Exchange, SQL, Views/MatViews, DB2 V 9.7.03, MS SQL Server, Java, Tomcat, UNIX, XMLSpy Altova. MS Server, Webservices, Nagios, TravicLink, Filenet, Cognos 10, Engage One/DOC1GEN (Pitney Bowes), DocBridge Pilot und Queue-Processor (Compart), Böwe
Bugzilla (Testmanagement), MS-Qffice, MS Visio, MS Project, XSD/XML, AFP mit Grafik, PDF, TLE 01.04.2015 — 30.06.2015
Big Data-Einführung für ein Handelsunternehmen 01.03.2015 — 30.06.2015
03/15 - 06/15 PoC, Pilot, Produktivbetrieb ab 09/15 für ein Unternehmen der Pharmaindustrie in Rheinland-Pfalz (Boehringer Ingelheim) Gemeinsame Aktivität mit AWS-Partnerunternehmen Aufgabe: DNA-Analyse
Hadoop-Komponenten: Cloud AWS Big Data-Lösung, S3, Elastic MapReduce (EMR), MongoDB, Redsift, Kafka, Storm, Solv
Analyse mit Datameer (Aktivität des SW-Anbieters) und R als Alternative zu SAS, IPython zur Datenaufbereitung vor Analytik mit R und Datameer
Visualisierung mit Tableaus (Aktivität des SW-Anbieters) 01.03.2015 — Now
Big Data-Einführung für ein Handelsunternehmen Big Data, Smart Data - Change, Potenziale, Herausforderungen in Marketing, Vertrieb und Kampagnenmanagement
Change Management, Datenstrategien, Data Science Management, Transformationsmodell
Einführungsszenarien und maßgeschneidertes Vorgehensmodell - auch smart is big
Datenplattform und Technologiekomponenten (Datenhaltung, Datenzugriff, Analytik, Visualisierung, Datenintegration, Datensicherheit, Governance)
Fachliche und technische Architektur
Kundenpotenziale durch datengetriebene Multi-Channel-Strategie in Marketing, Vertriebskanälen und Kampagnen-management heben
Renaissance des kollaborativen CRM in Datenallianzen unternehmensintern und mit externen Partnern - neue Chancen durch Datenhaltungskomponenten und Varianz
Optimierung der analogen und digitalen Vertriebswege und deren Mischung
Aus der Analytik neue Kundenbindungsprogramme im E-Commerce und deren Automatisierung
Analytische Elemente zur Bereicherung der Produktstrategien
Interaktion "Big" Data und CRM aus fachlicher und technischer Sicht
Cloud- und Outsourcing-Strategien - Konzentration auf das Wesentliche
Self-Service und Daten-Visualisierung 01.09.2014 — 31.05.2015
Deutsche Telekom / T-Mobile Bonn/Darmstadt Funktion: Lead Architekt, Strategieberatung, Projektleitung, technisches Consulting (IT-Infrastruktur und Datenmodell, Bewertung Hadoop-Komponenten)
Produktivbetrieb 08/15
Projekt
Aktueller Status: Produktivsetzung der PoC-Ergebnisse mit Cloudera (Cloudera Enterprise mit definierten Hadoop-Komponenten) und SAS Visual Analytics 7.1
Manage&Monitoring: CDH 5.3 Cloudera Enterprise mit ZooKeeper, Oozie (alle Apache Hadoop-Komponenten sind im Cloudera-Enterprise verfügbar)
Lamdba-Architektur (Storage, Batch Layer, Speed Layer)
Data Management: YARN, HDFS
Metadata Management: HCatalog
Data Access:
Datenbanken: HBase, MongoDB
SQL/In Memory:HIVE(Metadaten) Spark, Impala, SAS/ACCES Interface für Impala
Batch: MapReduce, Spark BatchStreaming, Sqoop (Datentransfer DWH)
Script: Python, SparkShell
Kafka/Storm (Trift Python) zum stream processing
SAS 9.2 mit SAS Visual Analytics 7.1
Resümee aus PoC:
Aktuelle Anforderung: Planung zur Produktivsetzung des PoC-Release
Festlegung der anforderungsrelevanten Hadoop-Komponenten
Die fachlichen Anforderungen wurden komplett erfüllt:
Schnelle Verfügbarkeit über Cloud bzw. Sandbox
Management-Konsolen der Anbieter vereinfachen den operativen Betrieb; weitere Integration von Apache-Hadoop-Tools sind zu erwarten
Mit Spark und Impala signifikante Performancesteigerung im ETL-Prozess und der Analytik
Umsetzung der Zielarchitektur mit den zur Aufgabenstellung relevanten Hadoop-Komponenten
SAS mit Analytik/RealTime-Analytik) und Visualisierung der Analytik
1.Sandbox-Service der Big Data-Suite-Dienstleister Cloudera und.MapR
SUSE Linux Enterprise Server 12
1.1 Technologien: In-Memory/Data Appliance, Spaltenorientierung, Kompression, Partitionierung, massiv parallele Verarbeitung
2. Klassifizierung und Auswertung unstrukturierter Massendaten (Textdateien), eMails sowie Intranet/Internet-Logfiles in Verbindung zu transaktionalen Kennzahlen aus bestehendem DWH mit einer klar definierten Zielerwartung der Fachseiten. Die Ergebnisse sind Grundlage zur Planung von Services.
3. Kriterienkatalog mit Bewertungen wie: Kosten/Lizenzmodell, Installation eines Hadoop-Cluster, Server Cluster Konfiguration und Sizing, Serviceleistungen, Sicherheit, Hosting-Services, Cloud-Services, Konnektoren zur Integration diverser Datenquellen, komplette Abbildung der Big Data-Prozesse (Datenverfügbarkeit, Analytik, Visualisierung), Entwicklungsumgebung (Eclipse), grafisches Monitoring (Scheduler und Applikationsmanager), nativer Apache-Hadoop-Code etc., Apache Hadoop Komponenten der Big Data Suite: HBase (NoSQL-DB), YARN, HDFS, MapReduce, Spark in-memory, Impala, Sqoop, Zookeeper, Search, Entry, Whirr Scriptsprachen wie HiveQL, Pig,und Python
Impala (Analytik mit SQL, Flexibilität, Skalierbarkeit, Monitoring und SQL-Funktionalität - ersetzt Hadoop-Workloads über MapReduce mit signifikantem Performancegewinn).
Spark als technische Alternative zu MapReduce mit signifikantem Performancegewinn In-Memory mit HDFS (APIs zu Hive, Pig, und Python bei komplexen Mappings)
Spezielle Anforderungen aus der Dokumentenspeicherung und -auswertung mit MongoDB Dateiformate wie JSON (JavaScript Object Notation), XML etc. 3.1 Kooperationen mit Software-Stackanbietern (Ausschnitt: SAP, IBM, Teradata, Oracle, SAS, Informatica, Talent, Tableau)
4. Bewertung nach Anbieter nach Anbietergruppen auf Basis der Bewertungen nach Forrester Research und Barc; jedoch im Detail mit differenten Bewertungen
5. Auswahlverfahren ausschließlich im Kreis von Big Data-Suite-Dienstleistern. Entscheidung den PoC mit Cloudera und MapR durchzuführen.
6. Kooperation von Software-Stack-Anbietern wie SAS und Tableau mit Schwerpunkt Analytik, Visualisierung und Reifegrad der technischen Hadoop-Integration
7. Proof of Concept
Neben der Leistungsbewertung der Big Data-Dienstleister sind die Ziele des Proof of Concepts, technische Wege in einem ersten Umsetzungsstep zur Integration neuer Daten, den Möglichkeiten von Ad-hoc-Analysen, deren Automatisierung und der Ergebnis-Visualisierung in einer Big Data-Sandbox umzusetzen.
Im Zuge des PoCs wird eine Best Practice-Installationsbasis für das Big Data-Framework - Zielarchitektur der Hadoop-Komponenten - empfohlen.
7.1 SAP Dokumentation (kein PoC): SAP-HANA-Architektur und technische Abgrenzung zu Big-Data-Hadoop-Architektur
7.2 Oracle Workshop und Dokumentation (PoC mit Cloudera): Oracle Big Data Appliance (In-Memory-Option, In-Memory-Aggregation, Big Table Caching, Advanced Index Compression, Force Full Caching Mode) X4-2 / Oracle 12c released 12.1.02 / Oracle Exadata Database Machine / Oracle Big Data SQL, Data Appliance zwischen Oracle und Cloudera, Oracle Big Data SQL ersetzt Hadoop-Workloads wie HiveQL, MapReduce, Spark etc.)
7.3 BM Workshops und Dokumentation (kein PoC): Architektur und Komponenten von InfoSphere BigInsights
7.4 PoC mit Cloudera Data Hub Edition Version 5.1.3 incl. Cloudera Impala (SQL-Quries auf HDFS und HBase) Version 2.0 zur Echtzeitanalyse großer Datenmenge ohne Hive und MapReduce-Jobs; Performancetest mit Apache Spark (signifikante Performancesteigerung vs. MapReduce
7.5 Cloudera/Oracle: Oracle 12c / Oracle Exadata Cloud/ Oracle Big Data SQL PoC mit Hadoop-Datenbank Oracle 12c Exadata- statt HBase - und Oracle Big Data SQL
7.6 PoC mit MapR Enterprise Database Edition Version 3.1 und Impala (spezifische Komponente zur Verwendung des Unix-Dateisystems statt HDFS, Performancetest mit Apache Spark (signifikante Performancesteigerung vs. MapReduce
7.7 PoC mit SAS Visual Analytics 7.1 (SAS ist im IT-Betrieb etabliert) als Software-Stack-Anbieter für die Analytik und Visualisierung der Ergebnisse mit Zugriff auf HBase, Impala (Abfrage) und Oracle (DWH), SAS ist Cloudera Impala-Partner,
7.8 Bewertung und Entscheidung nach PoC mit Kriterienkatalog und Bewertungsschema (Gewichtung)
7.9 Präsentationen IT und Fachseite zum Themen Big Data-Strategie, Big-Data-Nutzen, Big Data Governance und PoC-Ergebnisse
8. Dokumente
8.1 Powerpoint-Dokumente:
Einführung in Big Data Hadoop-für IT > 140 Folien mit Linkverzeichnis zu den Anbietern und Apache Hadoop, Sensibilisierung zum CAP-Theorem
Einführung in Big Data-Hadoop Fachseite
Management Summary Big Data-Hadoop IT und Fachseite, u.a. fachliche und technische Abgrenzung von Big Data, Analytics, Business Intelligence,sowie Reporting/Berichtswesen
Strategische Ausrichtung als Koexistenz-Modell Big Data und bestehendes Data Warehouse (OLAP, Analyse, ad-Hoc, Reporting) Optimierungspotential der technischen DWH-Lösung ist abhängig vom Business Case und dem Bedarf nach
8.2 Dokumentation der PoC-Ergebnisse sowie technische Beschreibung der Installation. Architekturmodell bzw.-dokumentation mit arc42
Cloudera Data Hub Editon Version 5.1.3, Cloudra Impala Version 2.0, MapR Enterprise Database Edition Verson3.1, Oracle 12c Version 12.1.02, Oracle Exadata Cloud X2-2, Oracle Big Data SQL, SAS Visual Analytics 7.1, MongoDB 2.6.4, Eclipse, Python, Linux, Projektmanagmenttool: Cloud Microsoft VisualStudio 01.08.2014 — Now
Big Data-Lab ein Invest der AMPM GmbH weitere BI-Dienstleister Testreihe April 2015:
Erprobung Solr und ElasticSearch mit Zugriff auf HDFS
Auf Hadoop/HDFS zugeschnittene Speicherformate: NumPy mit PyData,Stack (PySpark Python API, PyWeb-HDFS) und Sci Py-Stack
Spark SQL, PySpark Python API (Python-Unterstützung mit Spark), Avro und Parquet
HDFS / MapReduce - Migrationsstrategien nach Spark,NumPy und Sci-Py in Arbeit
Zwei Kollegen analysieren ab Oktober 2014 die Features und differenzierten Elemente von: Matlab, Mahout, SAS, R / Pyton, Datameer und SPSS
Dell/Intel-Cluster auf Basis Red Hat Enterprise Linux und VMware
1 Salesforce Test in der Cloud ab Januar 2014 mit Datentransfer nach Hadoop 2 Cloud Cloudera Enterprise CDH 5.3.0; weitere Tests mit Impala 5.0 Version 2.1.0
3.Cloud: Analytik mit SAS Visual Analytics
4.Cloud Oracle 12c mit Schwerpunkt Cloudera im Zusammenspiel mit Oracle Exadata (Oracle NoSQL Database 3.3.5) und Oracle Big Data SQL
5.Cloud: Informatica Powercenter (ETL und MDM) und Cloudera als Integrationslösung (MDM, Datenqualitätsmanagement) 6.Cloud Amazon AWS Big Data (S3, Redsift, DynamoDB, Kinesis vs. Kafka/Strom, Kafka/Spark) Cloud Amazon AWS HANA One
7 Cloud Microsoft Azure - erste Versuche im April 2015
8 Präsentationen: PoC, Pilotbetrieb, Strategie, Konzepte, Vorgehensmodell und Architekturen zur Big Data-Einführung
Weiterbildung und Zertifizierung: Informatica Power Center und Master Data Management / Big Data Integration 01.02.2014 — 31.08.2014
Business Analyst / Projektleiter Im Rahmen des Entsendeabkommens zwischen der EU und der Schweiz
begrenzter Einsatz über 90 Tage Remote und beim Kunden (im Durchschnitt drei Tage wöchentlich beim Kunden); durch Remote-Einsatz Verlängerung der Beratungsdauer
Projekt: Optimierung der AML-Verfahren (Temenos/Bosch) mit Anforderungskatalog (fachlich) und Detailspezifikation; Datenmodellierung in Abstimmung des SW-Anbieters)
Detailspezifikation (IT) der Anforderungen an FATCA mit Entscheidungsvorlage Standardlösung versus Eigenentwicklung (SAS); Datenmodellerweiterung DWH und Datenmodell FATCA-Data Mart, UML mit Visio, Architekturmodell mit arc42 01.01.2014 — 30.09.2014
Vorgehensmodell zur BCBS #239-Einführung BCBS #239-Verprobung und technischer Proof of Concepts SAP HANA / Bank Analyzer / SAP Risk & Compliance vs -SAS Risk Management for Banking and Insurance / ABACUS/DaVinci - Integration
ABACUS/DaVinci mit SAP Bank Analyzer Integration auf Basis SAP HANA
Funktion: Projektleitung, technisches und fachliches Consulting
Aufbau eines Excel-basierten Analyse- und Ergebnistemplates
BCBS 239-Vorgehensmodell für GAP-Analyse (Meldewesen und Risikoreporting) zur fachlichen (Implementierungsstand Basel III, CRD IV, CRR, SolvV, MaRisk) und technischen (DWH/BI-Analyse) Bewertung; Stand (Deckungsgrad und Qualität) des Meldewesens mit ABACUS/DaVince und SAP HANA-Integration
Dokumentationsstand (Vollständigkeit und Qualität)
Zukünftige regulatorische Anforderungen BCBS 248 und IFRS9
Scan-GAP mit Beschreibung der fachlichen Handlungsfeldern
Zielbild für Handlungsstränge "zentrales Finance Data Warehouse"
PoC-Abschlussbericht mit fachlicher und technischer Empfehlung
Bei Bedarf können umfangreiche zum BCBS 239- Vorgehensmodell "GAP-Analyse" und deren Ergebnistypen vorgelegt werden 01.11.2013 — 31.08.2014
Vorbereitung SAP Certified Application Associate (Edition 2014) - SAP HANA 01.01.2012 — 31.01.2014
W&W Informatik Ludwigsburg Erfolgreiche Einführung Ende November 2013 Stabilisierungsphase und Change Requests bis Ende Januar 2014
Sonderaufgaben:
- Aufwandsschätzung nach Function Point Analyse/Methode (FPA) und COCOMO,
modifiziertes W&W-Modell zur Punktewertung der Transaktionstypen und Datenbestandstypen - Mitwirkung bei der Bedarfsanalyse zur SEPA-Umstellung des Zahlungsverkehrs - Mitwirkung der Konvertierungsrichtlinien von DTA nach pain, pacs und camt auf Basis von DTAUS und DATZV sowie ISO20022 und DFÜ-Abkommen Anlage 3 der Deutschen Kreditwirtschaft
- Mitwirkung an der Dokumenterstellung
- Erstellung des Fachkonzepts "SEPA-Umstellung des Zahlungsverkehrssystem des Konzerns
- Mitwirkung -Konzept Zahlungsverkehr
Projekt:
Projekt-Vorbereitung SEPA Kartenzahlung - SEPA Cards Framework - auf Basis der technischen Spezifikationen der Deutschen Bundesbank für die Abwicklung von Interbanken SCC Karteneinzügen über den SEPA Clearer (SCL) des EMZ (Technische Spezifikationen SCC/SCL) - Verfahrensregeln der Deutschen Bundesbank und technische Spezifikation - Formate: pacs 002, 003, 004 und 007 sowie supl. 017 - Lastenhefte liegen bereits vor Hinweis: aus Budgetgründen wurde das Projekt verschoben; Start in 2014 geplant
SEPA-Umstellung am HOST (PL/1, Cobol), Java- sowie -SAP-Umfeld (SAP, FI, CML) der Bankkernsysteme mit Online-Banking und SAP/BCA sowie CML sowie
der Wertpapier- und Handelsabwicklung
SEPA-Fähigkeit der Zahlungsverkehrsplattform vdB/PPM (Verfügbarkeit der relevanten SEPA-Formate pain.xxx, pacs.xxx, camt.xxx)
SEPA-Umstellung der Außendienstsysteme
Optimierung der TARGET2-Prozesse im ZV-System vdB/PPM
Optimierung der Tages- und Nachtverarbeitung zur Datenversorgung des ZV-Systems vdB/PPM
Ablösung der Eigenentwicklung "zentrales Inkasso" durch SAP FS-CD / Migration der Datenbestände aus verteilten HOST-Systemen
Details:
- Betroffenheitsmatrix der relevanten IT-Systeme auf Anwendungsebene - Anforderungen an das Formularmanagement und Scan-Prozesse - Prozessanalyse (Überweisungen, Lastschrift, Dialoge, Formulare, Scannen) - Architekturkonzepte auf Anwendungsebene, Fach- und DV-Konzepte der betroffenen
- Zahlungsströme für Überweisungen und Lastschriften mit Mandatsverwaltung - intensive Zusammenarbeit und Verzahnung mit den betroffenen Fachseiten; > Workshops mit Fachseite und IT im Sinne von Scrum: Product Backlog, Sprint Backlog (Arbeitspakete), Sprint Planung 1 fachlich und Sprint Planung 2 IT > wöchentliche Meetings - nach Bedarf täglich - mit IT, Fachseite und bei Bedarf IT und Fachseite im Sinne von Scrum als Daily Scrum und Sprint Review - ISO20022-Zahlungsverkehrsformate in vdB/PPM auf Basis des DFÜ-Abkommens
Anlage3: Spezifikation der Datenformate Version 2.7 - umsetzen - Mappingbeschreibung DTA/DTI, MT940, Verwendungszweck zu ISO20022 - Umstellung der Zahlungsprozesse vom HOST direkt nach vdB/PPM; Umstellung vom DTA- nach SEPA-Formaten aus SAP-Systemen - Ablösung der MT940-Verarbeitung mit camt.054 aus SAP-Systemen
- Mappingverfahren SEPA PurposeCode und Rückgabegründe für Überweisung und Lastschrift - Integration der Zahlungsverkehrsplattform vbB/PPM der Bausparkasse und Bank - SWIFT-Service Bureau durch den Anbieter (PPM) für SWIFT-Verfahren - Umstellung der TARGET2-Datenversorgung von PPM nach Online-Verfahren der
Deutschen Bundesbank - DTAZV für den nicht SEPA-Raum; Formatgenerierung aus den operativen Systemen SAP und non-SAP - fachliche und gesetzliche Anforderung aus Rolebook an Mandat und SDD sowie Umsetzung in SAP/BCA, Client/Server und HOST - SEPA-Rückläuferverarbeitung SCT und SDD (R-Transaktionen) mit Mapping nach DTA zur Weiterverarbeitung am HOST sowie zur Versorgung der SAP-Datenschnitt- stelle(ZV-Schnittstelle)
- Anpassung der Verrechnungskonto im PPM (Nostro-Konten, interne Verrechnungskonten PPM-HOST, PPM-BCA, PPM-FI) - Embargo- und Vollständigskeitsprüfung im PPM
- Implementierung derr Black- und Whitelist-Prüfung im PPM
- Releasewechsel SAP/BCA auf EHP5 und SP9 mit allen SEPA-relevanten Hinweisen (Prüfung von über 500 SEPA-relevanten Hinweisen)
- Redesign der Zahlungsverkehrsschnitte SAP/BCA - vdB/PPM im ZV-Eingang und - Ausgang
- umfangreiche Testverfahren mit der Deutschen Bundesbank - Umstellung der Korrespondenz auf SEPA-Anforderungen - SAP/BCA: Realisierung Mandat und SDD; Migration der SCT- und SDD-Bestände
- Einführung zur Parallelisierung (Zahlungsverkehrsschnittstelle, Tagesendverar- beitung, Monats- und Quartalabschluss) im SAP/BCA
- Formatumstellung der dwpbank auf WP21-SEPA-Format
- Duale Verarbeitung in DTA und SEPA für SCT in allen Bankkernsystemen
- Umstellung des Beleglesers auf SEPA und pain-Eingangsverarbeitung im SAP/BCA
- Redesign der Zahlungsverkehrsstatistik
- alle Bank-relevanten Systeme und das ZV-System sind CORE- und COR1-fähig
- Anforderungsmanagement an SAP über DSAG - Interims-Testmanagement zur SCT-Einführung und BCA-Releasewechsel - End-to-End-Test mit der Deutschen Bundesbank - Ressourcenplanung 2012 und Vorschau 2013 bis Mitte 2014 (Roadmap) - Aufbau Projektmanagement und PMO - Einsatz der Projektmanagementstandards des Konzerns SAP BCA (Enhancement Framework, BTE, BAPI), SAP-FC-CD (Ablösung der Eigenentwicklung "Zentrales Inkasso"), SAP-CML, SAP FI, Java (J2EE) - Online Banking und Auftragsverwaltung), PL/1, Format-SEPA- und IBAN-Konverter, vbB/PPM (Anbieter: van den Berg), Charity, SAP PPM, ClearQuest, SQS, dwpbank mit WP2-Format, Sfirm LBBW, MQ-Series, ARIS Projektmanagementmethode: GPM-IPMA (>300 Arbeitspakete m eines Kundenauftrags
Lead Architekt, Komponentenberatung Cloud-Lösung: SAP HANA, Cloudera, (CHD), Kafka, Flink, Talend (Spezialistenvon Infomotion) Tableau vs. SAP Lumira (Spezialisten von Infomotion) weitere Testinstallation SparxSystzms Enterprise Architect Nordex SE Windkraftanlagen Impulsgeber/Coach für den Enterprise Architekturen, Projektleitung,
Workshops zur Einführung von BI-Infrastrukturen und Hadoop-Komponenten
Pilot und Produktivsetzung
Definition der Use Cases, hybride Architektur (Data Warehouse und Hadoop-Cluster) Empfehlung der Hadoop-Komponenten, Hadoop in der Cloud (PaaS vs. SaaS)
Grundlagen der Data Warehouse und Data Mart-Modellierung IT-Managementberatung mit Abstimmung auf Ebene CIO, Stellvertreter CIO, Abteilungsleiter Abstimmung und Kooperation mit Management auf der Fachseite der zweiten Führungsebene
Beratung zum Aufbau einer Data Governance
Blueprint zum Aufbau eines Master Data Managements; Umsetzung Start 05.2017
Blueprint und Realisierung von ersten Komponenten eines Integration Server Bus mit Mircoservices (REST API für Data Warehouse, Leitstand (Control Center):und Fehlermanagement Architektur-Blueprint zur datentechnischen Integration der Windmühlen als Basis zum Aufbau Leitstand (Control Center für Alarme und prognostisierte Alarme)
Mircosoft Azure, SQL Server 2016, R-Integration SQL Server 2016, SSIS, Power BI, Hadoop mit Kafka, Spark 2.0 (R-Integration, ML; Spark Streaming, Spark SQL)
Handlungsempfehlung und Umsetzung in zwei Phasenmit Produktivsetzung Pilot Phase 1: Aufbau DWH , 3-Schichten-Modell (Storage, Cleansing mit Core und BI-Services mit Data Mart, Sandbox für Analytik BI-Services für Engineering, Service, Product Strategiy und Produktion mit Microsoft Azure DWH-Komponenten (SSIS, SSAS Bower BI, MS R-Integration, MS BiZTalk, MS Master Data Management Pilot:Phase 2: Aufbau eines Hadoop-Cluster Microsoft Azure Insight Cloud SaaS
WLAN-Anbindung der Windmühlen unter Datentransport < 1 Sekunde in Hadoop-Cluster mit Streaming Analytik, Visualisierung, KPI mit Spark nach DWH für Dashboards, Datenarchivierung nach Filterung der relevanten Daten für Zeitreihenanalyse
Produktivbetrieb ab Mai 2017 ! Definition von Use Cases; Kündigeranalyse aus eMail Textmaining, Cross Selling aus eMail Textmaining, Einbindung der Ergebnisse aus Analytik in Testkampagnen. Customer Journey mit weiteren Kennahlen für das Kampagnenmanagement Beschreibung von Alternativen SAS Enterprise Miner, SAS Textmaining auf HDFS-Cluster sowie R-Integration/Spark ML auf HDFS.
Verantwortlich für die Vorstandpräsentation und Empfehlung zum weiteren Einsatz.
PoC mit Cloudera, Phyhton/Spark ML, HDFS, Sqoop
Produktivbetrieb seit Januar 2017 ! Projektleitung und Testmanager Projektleitung und Testmanager im Auftrag des Generalunternehmers als Festpreisprojekt zum Aufbau eines neuen "Output-Management-System der Deka Luxemburg". Führung von Teams mit folgenden Schwerpunkten:
Team des Generalunternehmers für die Komponenten der Datenversorgung
Vom Generalunternehmer beauftragter Subunternehmer für die Komponenten des Druckmanagements
Testteam (interne und externe Mitarbeiter)
Steuerung in Konzeption, Realisierung und Qualitätssicherung:
IT-Architektur, DV-Konzepte, Konsolidierung Fachkonzepte, Datenmodellierung, ETL-Framework, Berechtigungskonzepte, Betriebs- und Produktionshandbücher, Rollout-Management.
Die Komponenten des Output-Managements im Detail:
Erweiterung des Core-DWH mit ETL-Prozesse aus Quellsystemen
Aufbau Data Mart zur Datenversorgung des Output Managements
XML-Ausleistungsschicht (Datenselektion aus Auftragsmanagement Data Mart mit Beilagen und Druckersteuerung)
Auftragsmanagement zur Steuerung von Aktionen
Dateitransfer über TravicLink
Belegerstellung mit DOC1GEN (Engage One Pitney Bowes)
DocBridge Pilot (Compart)
DocBridge Queue Processor (Compart)
Konfiguration der Böwe-Kuvertiermaschinen
Outputmanagement-Planung und-reporting (Cognos)
Nagios
Testmanagement mit folgenden Schwerpunkten
Testkonzept (> 600 Testfälle) für Core-DWH, Data Mart, XML-Generierung, Belegwesen und Druckmanagement
Bugfixing
Testreporting
Regressionstest
Steuerung der Entwickler für das Bugfixing
Projektmanagement
Klassisches Projektmanagement und agile Methodik (Projekt lebt von geordneter Agilität)
Projektplanung für alle Komponenten
Einsatzplanung für den Generalunternehmen
Tägliches Monitoring Montag bis Donnerstag (Daily Scrums)
Wöchentliches JF mit Management-Projektreporting (Fachseite und IT)
JF mit IT Service, IT-Produktion und IT-Architektur
JF mit Fachseiten
Coaching der Scrum Master
Moderation Fachseite und Management
Mitarbeiterführung des General- und Subunternehmers
Arbeitsausschuss (monatlicher Zyklus)
Risikomanagement
OLYMPIC Banking System
Sybase PowerDesigner, Informatica PowerCenter Version 9.0.1, Informatica B2B Data Exchange, SQL, Views/MatViews, DB2 V 9.7.03, MS SQL Server, Java, Tomcat, UNIX, XMLSpy Altova. MS Server, Webservices, Nagios, TravicLink, Filenet, Cognos 10, Engage One/DOC1GEN (Pitney Bowes), DocBridge Pilot und Queue-Processor (Compart), Böwe
Bugzilla (Testmanagement), MS-Qffice, MS Visio, MS Project, XSD/XML, AFP mit Grafik, PDF, TLE 03/15 - 06/15 PoC, Pilot, Produktivbetrieb ab 09/15 für ein Unternehmen der Pharmaindustrie in Rheinland-Pfalz (Boehringer Ingelheim) Gemeinsame Aktivität mit AWS-Partnerunternehmen Aufgabe: DNA-Analyse
Hadoop-Komponenten: Cloud AWS Big Data-Lösung, S3, Elastic MapReduce (EMR), MongoDB, Redsift, Kafka, Storm, Solv
Analyse mit Datameer (Aktivität des SW-Anbieters) und R als Alternative zu SAS, IPython zur Datenaufbereitung vor Analytik mit R und Datameer
Visualisierung mit Tableaus (Aktivität des SW-Anbieters) Big Data-Einführung für ein Handelsunternehmen Big Data-Einführung für ein Handelsunternehmen Big Data, Smart Data - Change, Potenziale, Herausforderungen in Marketing, Vertrieb und Kampagnenmanagement
Change Management, Datenstrategien, Data Science Management, Transformationsmodell
Einführungsszenarien und maßgeschneidertes Vorgehensmodell - auch smart is big
Datenplattform und Technologiekomponenten (Datenhaltung, Datenzugriff, Analytik, Visualisierung, Datenintegration, Datensicherheit, Governance)
Fachliche und technische Architektur
Kundenpotenziale durch datengetriebene Multi-Channel-Strategie in Marketing, Vertriebskanälen und Kampagnen-management heben
Renaissance des kollaborativen CRM in Datenallianzen unternehmensintern und mit externen Partnern - neue Chancen durch Datenhaltungskomponenten und Varianz
Optimierung der analogen und digitalen Vertriebswege und deren Mischung
Aus der Analytik neue Kundenbindungsprogramme im E-Commerce und deren Automatisierung
Analytische Elemente zur Bereicherung der Produktstrategien
Interaktion "Big" Data und CRM aus fachlicher und technischer Sicht
Cloud- und Outsourcing-Strategien - Konzentration auf das Wesentliche
Self-Service und Daten-Visualisierung Deutsche Telekom / T-Mobile Bonn/Darmstadt Funktion: Lead Architekt, Strategieberatung, Projektleitung, technisches Consulting (IT-Infrastruktur und Datenmodell, Bewertung Hadoop-Komponenten)
Produktivbetrieb 08/15
Projekt
Aktueller Status: Produktivsetzung der PoC-Ergebnisse mit Cloudera (Cloudera Enterprise mit definierten Hadoop-Komponenten) und SAS Visual Analytics 7.1
Manage&Monitoring: CDH 5.3 Cloudera Enterprise mit ZooKeeper, Oozie (alle Apache Hadoop-Komponenten sind im Cloudera-Enterprise verfügbar)
Lamdba-Architektur (Storage, Batch Layer, Speed Layer)
Data Management: YARN, HDFS
Metadata Management: HCatalog
Data Access:
Datenbanken: HBase, MongoDB
SQL/In Memory:HIVE(Metadaten) Spark, Impala, SAS/ACCES Interface für Impala
Batch: MapReduce, Spark BatchStreaming, Sqoop (Datentransfer DWH)
Script: Python, SparkShell
Kafka/Storm (Trift Python) zum stream processing
SAS 9.2 mit SAS Visual Analytics 7.1
Resümee aus PoC:
Aktuelle Anforderung: Planung zur Produktivsetzung des PoC-Release
Festlegung der anforderungsrelevanten Hadoop-Komponenten
Die fachlichen Anforderungen wurden komplett erfüllt:
Schnelle Verfügbarkeit über Cloud bzw. Sandbox
Management-Konsolen der Anbieter vereinfachen den operativen Betrieb; weitere Integration von Apache-Hadoop-Tools sind zu erwarten
Mit Spark und Impala signifikante Performancesteigerung im ETL-Prozess und der Analytik
Umsetzung der Zielarchitektur mit den zur Aufgabenstellung relevanten Hadoop-Komponenten
SAS mit Analytik/RealTime-Analytik) und Visualisierung der Analytik
1.Sandbox-Service der Big Data-Suite-Dienstleister Cloudera und.MapR
SUSE Linux Enterprise Server 12
1.1 Technologien: In-Memory/Data Appliance, Spaltenorientierung, Kompression, Partitionierung, massiv parallele Verarbeitung
2. Klassifizierung und Auswertung unstrukturierter Massendaten (Textdateien), eMails sowie Intranet/Internet-Logfiles in Verbindung zu transaktionalen Kennzahlen aus bestehendem DWH mit einer klar definierten Zielerwartung der Fachseiten. Die Ergebnisse sind Grundlage zur Planung von Services.
3. Kriterienkatalog mit Bewertungen wie: Kosten/Lizenzmodell, Installation eines Hadoop-Cluster, Server Cluster Konfiguration und Sizing, Serviceleistungen, Sicherheit, Hosting-Services, Cloud-Services, Konnektoren zur Integration diverser Datenquellen, komplette Abbildung der Big Data-Prozesse (Datenverfügbarkeit, Analytik, Visualisierung), Entwicklungsumgebung (Eclipse), grafisches Monitoring (Scheduler und Applikationsmanager), nativer Apache-Hadoop-Code etc., Apache Hadoop Komponenten der Big Data Suite: HBase (NoSQL-DB), YARN, HDFS, MapReduce, Spark in-memory, Impala, Sqoop, Zookeeper, Search, Entry, Whirr Scriptsprachen wie HiveQL, Pig,und Python
Impala (Analytik mit SQL, Flexibilität, Skalierbarkeit, Monitoring und SQL-Funktionalität - ersetzt Hadoop-Workloads über MapReduce mit signifikantem Performancegewinn).
Spark als technische Alternative zu MapReduce mit signifikantem Performancegewinn In-Memory mit HDFS (APIs zu Hive, Pig, und Python bei komplexen Mappings)
Spezielle Anforderungen aus der Dokumentenspeicherung und -auswertung mit MongoDB Dateiformate wie JSON (JavaScript Object Notation), XML etc. 3.1 Kooperationen mit Software-Stackanbietern (Ausschnitt: SAP, IBM, Teradata, Oracle, SAS, Informatica, Talent, Tableau)
4. Bewertung nach Anbieter nach Anbietergruppen auf Basis der Bewertungen nach Forrester Research und Barc; jedoch im Detail mit differenten Bewertungen
5. Auswahlverfahren ausschließlich im Kreis von Big Data-Suite-Dienstleistern. Entscheidung den PoC mit Cloudera und MapR durchzuführen.
6. Kooperation von Software-Stack-Anbietern wie SAS und Tableau mit Schwerpunkt Analytik, Visualisierung und Reifegrad der technischen Hadoop-Integration
7. Proof of Concept
Neben der Leistungsbewertung der Big Data-Dienstleister sind die Ziele des Proof of Concepts, technische Wege in einem ersten Umsetzungsstep zur Integration neuer Daten, den Möglichkeiten von Ad-hoc-Analysen, deren Automatisierung und der Ergebnis-Visualisierung in einer Big Data-Sandbox umzusetzen.
Im Zuge des PoCs wird eine Best Practice-Installationsbasis für das Big Data-Framework - Zielarchitektur der Hadoop-Komponenten - empfohlen.
7.1 SAP Dokumentation (kein PoC): SAP-HANA-Architektur und technische Abgrenzung zu Big-Data-Hadoop-Architektur
7.2 Oracle Workshop und Dokumentation (PoC mit Cloudera): Oracle Big Data Appliance (In-Memory-Option, In-Memory-Aggregation, Big Table Caching, Advanced Index Compression, Force Full Caching Mode) X4-2 / Oracle 12c released 12.1.02 / Oracle Exadata Database Machine / Oracle Big Data SQL, Data Appliance zwischen Oracle und Cloudera, Oracle Big Data SQL ersetzt Hadoop-Workloads wie HiveQL, MapReduce, Spark etc.)
7.3 BM Workshops und Dokumentation (kein PoC): Architektur und Komponenten von InfoSphere BigInsights
7.4 PoC mit Cloudera Data Hub Edition Version 5.1.3 incl. Cloudera Impala (SQL-Quries auf HDFS und HBase) Version 2.0 zur Echtzeitanalyse großer Datenmenge ohne Hive und MapReduce-Jobs; Performancetest mit Apache Spark (signifikante Performancesteigerung vs. MapReduce
7.5 Cloudera/Oracle: Oracle 12c / Oracle Exadata Cloud/ Oracle Big Data SQL PoC mit Hadoop-Datenbank Oracle 12c Exadata- statt HBase - und Oracle Big Data SQL
7.6 PoC mit MapR Enterprise Database Edition Version 3.1 und Impala (spezifische Komponente zur Verwendung des Unix-Dateisystems statt HDFS, Performancetest mit Apache Spark (signifikante Performancesteigerung vs. MapReduce
7.7 PoC mit SAS Visual Analytics 7.1 (SAS ist im IT-Betrieb etabliert) als Software-Stack-Anbieter für die Analytik und Visualisierung der Ergebnisse mit Zugriff auf HBase, Impala (Abfrage) und Oracle (DWH), SAS ist Cloudera Impala-Partner,
7.8 Bewertung und Entscheidung nach PoC mit Kriterienkatalog und Bewertungsschema (Gewichtung)
7.9 Präsentationen IT und Fachseite zum Themen Big Data-Strategie, Big-Data-Nutzen, Big Data Governance und PoC-Ergebnisse
8. Dokumente
8.1 Powerpoint-Dokumente:
Einführung in Big Data Hadoop-für IT > 140 Folien mit Linkverzeichnis zu den Anbietern und Apache Hadoop, Sensibilisierung zum CAP-Theorem
Einführung in Big Data-Hadoop Fachseite
Management Summary Big Data-Hadoop IT und Fachseite, u.a. fachliche und technische Abgrenzung von Big Data, Analytics, Business Intelligence,sowie Reporting/Berichtswesen
Strategische Ausrichtung als Koexistenz-Modell Big Data und bestehendes Data Warehouse (OLAP, Analyse, ad-Hoc, Reporting) Optimierungspotential der technischen DWH-Lösung ist abhängig vom Business Case und dem Bedarf nach
8.2 Dokumentation der PoC-Ergebnisse sowie technische Beschreibung der Installation. Architekturmodell bzw.-dokumentation mit arc42
Cloudera Data Hub Editon Version 5.1.3, Cloudra Impala Version 2.0, MapR Enterprise Database Edition Verson3.1, Oracle 12c Version 12.1.02, Oracle Exadata Cloud X2-2, Oracle Big Data SQL, SAS Visual Analytics 7.1, MongoDB 2.6.4, Eclipse, Python, Linux, Projektmanagmenttool: Cloud Microsoft VisualStudio Big Data-Lab ein Invest der AMPM GmbH weitere BI-Dienstleister Testreihe April 2015:
Erprobung Solr und ElasticSearch mit Zugriff auf HDFS
Auf Hadoop/HDFS zugeschnittene Speicherformate: NumPy mit PyData,Stack (PySpark Python API, PyWeb-HDFS) und Sci Py-Stack
Spark SQL, PySpark Python API (Python-Unterstützung mit Spark), Avro und Parquet
HDFS / MapReduce - Migrationsstrategien nach Spark,NumPy und Sci-Py in Arbeit
Zwei Kollegen analysieren ab Oktober 2014 die Features und differenzierten Elemente von: Matlab, Mahout, SAS, R / Pyton, Datameer und SPSS
Dell/Intel-Cluster auf Basis Red Hat Enterprise Linux und VMware
1 Salesforce Test in der Cloud ab Januar 2014 mit Datentransfer nach Hadoop 2 Cloud Cloudera Enterprise CDH 5.3.0; weitere Tests mit Impala 5.0 Version 2.1.0
3.Cloud: Analytik mit SAS Visual Analytics
4.Cloud Oracle 12c mit Schwerpunkt Cloudera im Zusammenspiel mit Oracle Exadata (Oracle NoSQL Database 3.3.5) und Oracle Big Data SQL
5.Cloud: Informatica Powercenter (ETL und MDM) und Cloudera als Integrationslösung (MDM, Datenqualitätsmanagement) 6.Cloud Amazon AWS Big Data (S3, Redsift, DynamoDB, Kinesis vs. Kafka/Strom, Kafka/Spark) Cloud Amazon AWS HANA One
7 Cloud Microsoft Azure - erste Versuche im April 2015
8 Präsentationen: PoC, Pilotbetrieb, Strategie, Konzepte, Vorgehensmodell und Architekturen zur Big Data-Einführung
Weiterbildung und Zertifizierung: Informatica Power Center und Master Data Management / Big Data Integration Vorbereitung SAP Certified Application Associate (Edition 2014) - SAP HANA Vorgehensmodell zur BCBS #239-Einführung BCBS #239-Verprobung und technischer Proof of Concepts SAP HANA / Bank Analyzer / SAP Risk & Compliance vs -SAS Risk Management for Banking and Insurance / ABACUS/DaVinci - Integration
ABACUS/DaVinci mit SAP Bank Analyzer Integration auf Basis SAP HANA
Funktion: Projektleitung, technisches und fachliches Consulting
Aufbau eines Excel-basierten Analyse- und Ergebnistemplates
BCBS 239-Vorgehensmodell für GAP-Analyse (Meldewesen und Risikoreporting) zur fachlichen (Implementierungsstand Basel III, CRD IV, CRR, SolvV, MaRisk) und technischen (DWH/BI-Analyse) Bewertung; Stand (Deckungsgrad und Qualität) des Meldewesens mit ABACUS/DaVince und SAP HANA-Integration
Dokumentationsstand (Vollständigkeit und Qualität)
Zukünftige regulatorische Anforderungen BCBS 248 und IFRS9
Scan-GAP mit Beschreibung der fachlichen Handlungsfeldern
Zielbild für Handlungsstränge "zentrales Finance Data Warehouse"
PoC-Abschlussbericht mit fachlicher und technischer Empfehlung
Bei Bedarf können umfangreiche zum BCBS 239- Vorgehensmodell "GAP-Analyse" und deren Ergebnistypen vorgelegt werden Business Analyst / Projektleiter Im Rahmen des Entsendeabkommens zwischen der EU und der Schweiz
begrenzter Einsatz über 90 Tage Remote und beim Kunden (im Durchschnitt drei Tage wöchentlich beim Kunden); durch Remote-Einsatz Verlängerung der Beratungsdauer
Projekt: Optimierung der AML-Verfahren (Temenos/Bosch) mit Anforderungskatalog (fachlich) und Detailspezifikation; Datenmodellierung in Abstimmung des SW-Anbieters)
Detailspezifikation (IT) der Anforderungen an FATCA mit Entscheidungsvorlage Standardlösung versus Eigenentwicklung (SAS); Datenmodellerweiterung DWH und Datenmodell FATCA-Data Mart, UML mit Visio, Architekturmodell mit arc42 W&W Informatik Ludwigsburg Erfolgreiche Einführung Ende November 2013 Stabilisierungsphase und Change Requests bis Ende Januar 2014
Sonderaufgaben:
- Aufwandsschätzung nach Function Point Analyse/Methode (FPA) und COCOMO,
modifiziertes W&W-Modell zur Punktewertung der Transaktionstypen und Datenbestandstypen - Mitwirkung bei der Bedarfsanalyse zur SEPA-Umstellung des Zahlungsverkehrs - Mitwirkung der Konvertierungsrichtlinien von DTA nach pain, pacs und camt auf Basis von DTAUS und DATZV sowie ISO20022 und DFÜ-Abkommen Anlage 3 der Deutschen Kreditwirtschaft
- Mitwirkung an der Dokumenterstellung
- Erstellung des Fachkonzepts "SEPA-Umstellung des Zahlungsverkehrssystem des Konzerns
- Mitwirkung -Konzept Zahlungsverkehr
Projekt:
Projekt-Vorbereitung SEPA Kartenzahlung - SEPA Cards Framework - auf Basis der technischen Spezifikationen der Deutschen Bundesbank für die Abwicklung von Interbanken SCC Karteneinzügen über den SEPA Clearer (SCL) des EMZ (Technische Spezifikationen SCC/SCL) - Verfahrensregeln der Deutschen Bundesbank und technische Spezifikation - Formate: pacs 002, 003, 004 und 007 sowie supl. 017 - Lastenhefte liegen bereits vor Hinweis: aus Budgetgründen wurde das Projekt verschoben; Start in 2014 geplant
SEPA-Umstellung am HOST (PL/1, Cobol), Java- sowie -SAP-Umfeld (SAP, FI, CML) der Bankkernsysteme mit Online-Banking und SAP/BCA sowie CML sowie
der Wertpapier- und Handelsabwicklung
SEPA-Fähigkeit der Zahlungsverkehrsplattform vdB/PPM (Verfügbarkeit der relevanten SEPA-Formate pain.xxx, pacs.xxx, camt.xxx)
SEPA-Umstellung der Außendienstsysteme
Optimierung der TARGET2-Prozesse im ZV-System vdB/PPM
Optimierung der Tages- und Nachtverarbeitung zur Datenversorgung des ZV-Systems vdB/PPM
Ablösung der Eigenentwicklung "zentrales Inkasso" durch SAP FS-CD / Migration der Datenbestände aus verteilten HOST-Systemen
Details:
- Betroffenheitsmatrix der relevanten IT-Systeme auf Anwendungsebene - Anforderungen an das Formularmanagement und Scan-Prozesse - Prozessanalyse (Überweisungen, Lastschrift, Dialoge, Formulare, Scannen) - Architekturkonzepte auf Anwendungsebene, Fach- und DV-Konzepte der betroffenen
- Zahlungsströme für Überweisungen und Lastschriften mit Mandatsverwaltung - intensive Zusammenarbeit und Verzahnung mit den betroffenen Fachseiten; > Workshops mit Fachseite und IT im Sinne von Scrum: Product Backlog, Sprint Backlog (Arbeitspakete), Sprint Planung 1 fachlich und Sprint Planung 2 IT > wöchentliche Meetings - nach Bedarf täglich - mit IT, Fachseite und bei Bedarf IT und Fachseite im Sinne von Scrum als Daily Scrum und Sprint Review - ISO20022-Zahlungsverkehrsformate in vdB/PPM auf Basis des DFÜ-Abkommens
Anlage3: Spezifikation der Datenformate Version 2.7 - umsetzen - Mappingbeschreibung DTA/DTI, MT940, Verwendungszweck zu ISO20022 - Umstellung der Zahlungsprozesse vom HOST direkt nach vdB/PPM; Umstellung vom DTA- nach SEPA-Formaten aus SAP-Systemen - Ablösung der MT940-Verarbeitung mit camt.054 aus SAP-Systemen
- Mappingverfahren SEPA PurposeCode und Rückgabegründe für Überweisung und Lastschrift - Integration der Zahlungsverkehrsplattform vbB/PPM der Bausparkasse und Bank - SWIFT-Service Bureau durch den Anbieter (PPM) für SWIFT-Verfahren - Umstellung der TARGET2-Datenversorgung von PPM nach Online-Verfahren der
Deutschen Bundesbank - DTAZV für den nicht SEPA-Raum; Formatgenerierung aus den operativen Systemen SAP und non-SAP - fachliche und gesetzliche Anforderung aus Rolebook an Mandat und SDD sowie Umsetzung in SAP/BCA, Client/Server und HOST - SEPA-Rückläuferverarbeitung SCT und SDD (R-Transaktionen) mit Mapping nach DTA zur Weiterverarbeitung am HOST sowie zur Versorgung der SAP-Datenschnitt- stelle(ZV-Schnittstelle)
- Anpassung der Verrechnungskonto im PPM (Nostro-Konten, interne Verrechnungskonten PPM-HOST, PPM-BCA, PPM-FI) - Embargo- und Vollständigskeitsprüfung im PPM
- Implementierung derr Black- und Whitelist-Prüfung im PPM
- Releasewechsel SAP/BCA auf EHP5 und SP9 mit allen SEPA-relevanten Hinweisen (Prüfung von über 500 SEPA-relevanten Hinweisen)
- Redesign der Zahlungsverkehrsschnitte SAP/BCA - vdB/PPM im ZV-Eingang und - Ausgang
- umfangreiche Testverfahren mit der Deutschen Bundesbank - Umstellung der Korrespondenz auf SEPA-Anforderungen - SAP/BCA: Realisierung Mandat und SDD; Migration der SCT- und SDD-Bestände
- Einführung zur Parallelisierung (Zahlungsverkehrsschnittstelle, Tagesendverar- beitung, Monats- und Quartalabschluss) im SAP/BCA
- Formatumstellung der dwpbank auf WP21-SEPA-Format
- Duale Verarbeitung in DTA und SEPA für SCT in allen Bankkernsystemen
- Umstellung des Beleglesers auf SEPA und pain-Eingangsverarbeitung im SAP/BCA
- Redesign der Zahlungsverkehrsstatistik
- alle Bank-relevanten Systeme und das ZV-System sind CORE- und COR1-fähig
- Anforderungsmanagement an SAP über DSAG - Interims-Testmanagement zur SCT-Einführung und BCA-Releasewechsel - End-to-End-Test mit der Deutschen Bundesbank - Ressourcenplanung 2012 und Vorschau 2013 bis Mitte 2014 (Roadmap) - Aufbau Projektmanagement und PMO - Einsatz der Projektmanagementstandards des Konzerns SAP BCA (Enhancement Framework, BTE, BAPI), SAP-FC-CD (Ablösung der Eigenentwicklung "Zentrales Inkasso"), SAP-CML, SAP FI, Java (J2EE) - Online Banking und Auftragsverwaltung), PL/1, Format-SEPA- und IBAN-Konverter, vbB/PPM (Anbieter: van den Berg), Charity, SAP PPM, ClearQuest, SQS, dwpbank mit WP2-Format, Sfirm LBBW, MQ-Series, ARIS Projektmanagementmethode: GPM-IPMA (>300 Arbeitspakete m Attachments
keyboard_arrow_down