avatar

Lead Architekt

Score
100%
Experience:
15 y
Score
100%
Experience:
15 y
Location:
69121 Heidelberg
Last update:
17.12.2021
Register to Contact Freelancer
Available
Onsite hourly: 0 €
Remote hourly: N/A
Filenet EssBase Solr API Big Data Client/Server Online Banking MongoDB OLAP Database Datenzugriff SQS JSON Kafka 12c SAP Cloudera Metadata PySpark Testfälle SAP-Umfeld IBM Cognos TM1 Datentransfer Data Warehouse APIs SAS Visual Analytics Datensicherheit Informatica PowerCenter WLAN Oozie HDFS Microsoft Azure ElasticSearch Exadata Eclipse Spice Cloud Hana ML MS Visio Linux SUSE Linux Enterprise Server Bower SQL Server 2016 SCRUM MapR Big-Data Hadoop Sqoop Cloud-Services Datenhaltung Cobol SAS ETL Power BI PaaS Data Mart Flink ETL-Prozesse DynamoDB UML J2EE WebSphere PL/1 Oracle ETL-Prozess S3 Python Data Governance Azure Excel BAPI DB2 Spark Streaming Apache Hadoop BiZTalk Talend Bugzilla Datenbank MS SQL Server ABAP OO Matlab SCRUM Master Testmanagement 3NF Online-Banking R VMWare MS Project SAP FI Spark SAP HANA Oracle Exadata SAP BO PowerDesigner MS-Office Data Hub SaaS SSIS SPSS Amazon AWS PL/SQL MapReduce XMLSpy Oracle EssBase Daten-Visualisierung Analytics Cognos JavaScript Object Notation SAP PS ClearQuest Impala Softwareentwicklung Map Reduce Product Owner Cascading Informatik HBase Oracle Hyperion Big Table AWS Streaming Datenbanken Oracle NoSQL IBM Cognos Datenarchivierung Webservices SSAS Mahout Avro HP Quality Center SharePoint PRINCE2 agile XML Java Red Hat Enterprise Linux YARN ARIS Metadaten BigInsights Tableau Cloudera Manager MS-Project Data Vault Systemanalytiker Apache Spark Powerpoint Testmanagements Datenintegration Zookeeper UNIX JavaScript NumPy Cognos 10 Anforderungsmanagement Visio CMMI SQL Salesforce Tomcat Teradata Nagios SAP BI Scaled Agile Framework Ambari
01.04.2017 — Now
Lead Architekt
eines Kundenauftrags Lead Architekt, Komponentenberatung Cloud-Lösung: SAP HANA, Cloudera, (CHD), Kafka, Flink, Talend (Spezialistenvon Infomotion) Tableau vs. SAP Lumira (Spezialisten von Infomotion) weitere Testinstallation SparxSystzms Enterprise Architect
01.08.2016 — 31.07.2017
Nordex SE Windkraftanlagen
Lead-Architekt
Impulsgeber/Coach für den Enterprise Architekturen, Projektleitung, Workshops zur Einführung von BI-Infrastrukturen und Hadoop-Komponenten Pilot und Produktivsetzung Definition der Use Cases, hybride Architektur (Data Warehouse und Hadoop-Cluster) Empfehlung der Hadoop-Komponenten, Hadoop in der Cloud (PaaS vs. SaaS) Grundlagen der Data Warehouse und Data Mart-Modellierung IT-Managementberatung mit Abstimmung auf Ebene CIO, Stellvertreter CIO, Abteilungsleiter Abstimmung und Kooperation mit Management auf der Fachseite der zweiten Führungsebene Beratung zum Aufbau einer Data Governance Blueprint zum Aufbau eines Master Data Managements; Umsetzung Start 05.2017 Blueprint und Realisierung von ersten Komponenten eines Integration Server Bus mit Mircoservices (REST API für Data Warehouse, Leitstand (Control Center):und Fehlermanagement Architektur-Blueprint zur datentechnischen Integration der Windmühlen als Basis zum Aufbau Leitstand (Control Center für Alarme und prognostisierte Alarme) Mircosoft Azure, SQL Server 2016, R-Integration SQL Server 2016, SSIS, Power BI, Hadoop mit Kafka, Spark 2.0 (R-Integration, ML; Spark Streaming, Spark SQL) Handlungsempfehlung und Umsetzung in zwei Phasenmit Produktivsetzung Pilot Phase 1: Aufbau DWH , 3-Schichten-Modell (Storage, Cleansing mit Core und BI-Services mit Data Mart, Sandbox für Analytik BI-Services für Engineering, Service, Product Strategiy und Produktion mit Microsoft Azure DWH-Komponenten (SSIS, SSAS Bower BI, MS R-Integration, MS BiZTalk, MS Master Data Management Pilot:Phase 2: Aufbau eines Hadoop-Cluster Microsoft Azure Insight Cloud SaaS WLAN-Anbindung der Windmühlen unter Datentransport < 1 Sekunde in Hadoop-Cluster mit Streaming Analytik, Visualisierung, KPI mit Spark nach DWH für Dashboards, Datenarchivierung nach Filterung der relevanten Daten für Zeitreihenanalyse Produktivbetrieb ab Mai 2017 !
01.07.2016 — 31.12.2016
Cosmos Direkt/Generali
Lead-Architekt
Definition von Use Cases; Kündigeranalyse aus eMail Textmaining, Cross Selling aus eMail Textmaining, Einbindung der Ergebnisse aus Analytik in Testkampagnen. Customer Journey mit weiteren Kennahlen für das Kampagnenmanagement Beschreibung von Alternativen SAS Enterprise Miner, SAS Textmaining auf HDFS-Cluster sowie R-Integration/Spark ML auf HDFS. Verantwortlich für die Vorstandpräsentation und Empfehlung zum weiteren Einsatz. PoC mit Cloudera, Phyhton/Spark ML, HDFS, Sqoop Produktivbetrieb seit Januar 2017 !
01.06.2015 — 30.06.2016
Projektleitung und Testmanager
Projektleitung und Testmanager im Auftrag des Generalunternehmers als Festpreisprojekt zum Aufbau eines neuen "Output-Management-System der Deka Luxemburg". Führung von Teams mit folgenden Schwerpunkten: Team des Generalunternehmers für die Komponenten der Datenversorgung Vom Generalunternehmer beauftragter Subunternehmer für die Komponenten des Druckmanagements Testteam (interne und externe Mitarbeiter) Steuerung in Konzeption, Realisierung und Qualitätssicherung: IT-Architektur, DV-Konzepte, Konsolidierung Fachkonzepte, Datenmodellierung, ETL-Framework, Berechtigungskonzepte, Betriebs- und Produktionshandbücher, Rollout-Management. Die Komponenten des Output-Managements im Detail: Erweiterung des Core-DWH mit ETL-Prozesse aus Quellsystemen Aufbau Data Mart zur Datenversorgung des Output Managements XML-Ausleistungsschicht (Datenselektion aus Auftragsmanagement Data Mart mit Beilagen und Druckersteuerung) Auftragsmanagement zur Steuerung von Aktionen Dateitransfer über TravicLink Belegerstellung mit DOC1GEN (Engage One Pitney Bowes) DocBridge Pilot (Compart) DocBridge Queue Processor (Compart) Konfiguration der Böwe-Kuvertiermaschinen Outputmanagement-Planung und-reporting (Cognos) Nagios Testmanagement mit folgenden Schwerpunkten Testkonzept (> 600 Testfälle) für Core-DWH, Data Mart, XML-Generierung, Belegwesen und Druckmanagement Bugfixing Testreporting Regressionstest Steuerung der Entwickler für das Bugfixing Projektmanagement Klassisches Projektmanagement und agile Methodik (Projekt lebt von geordneter Agilität) Projektplanung für alle Komponenten Einsatzplanung für den Generalunternehmen Tägliches Monitoring Montag bis Donnerstag (Daily Scrums) Wöchentliches JF mit Management-Projektreporting (Fachseite und IT) JF mit IT Service, IT-Produktion und IT-Architektur JF mit Fachseiten Coaching der Scrum Master Moderation Fachseite und Management Mitarbeiterführung des General- und Subunternehmers Arbeitsausschuss (monatlicher Zyklus) Risikomanagement OLYMPIC Banking System Sybase PowerDesigner, Informatica PowerCenter Version 9.0.1, Informatica B2B Data Exchange, SQL, Views/MatViews, DB2 V 9.7.03, MS SQL Server, Java, Tomcat, UNIX, XMLSpy Altova. MS Server, Webservices, Nagios, TravicLink, Filenet, Cognos 10, Engage One/DOC1GEN (Pitney Bowes), DocBridge Pilot und Queue-Processor (Compart), Böwe Bugzilla (Testmanagement), MS-Qffice, MS Visio, MS Project, XSD/XML, AFP mit Grafik, PDF, TLE
01.04.2015 — 30.06.2015
Big Data-Einführung für ein Handelsunternehmen
01.03.2015 — 30.06.2015
03/15 - 06/15 PoC, Pilot, Produktivbetrieb ab 09/15 für ein Unternehmen der Pharmaindustrie in Rheinland-Pfalz (Boehringer Ingelheim) Gemeinsame Aktivität mit AWS-Partnerunternehmen Aufgabe: DNA-Analyse Hadoop-Komponenten: Cloud AWS Big Data-Lösung, S3, Elastic MapReduce (EMR), MongoDB, Redsift, Kafka, Storm, Solv Analyse mit Datameer (Aktivität des SW-Anbieters) und R als Alternative zu SAS, IPython zur Datenaufbereitung vor Analytik mit R und Datameer Visualisierung mit Tableaus (Aktivität des SW-Anbieters)
01.03.2015 — Now
Big Data-Einführung für ein Handelsunternehmen
Big Data, Smart Data - Change, Potenziale, Herausforderungen in Marketing, Vertrieb und Kampagnenmanagement Change Management, Datenstrategien, Data Science Management, Transformationsmodell Einführungsszenarien und maßgeschneidertes Vorgehensmodell - auch smart is big Datenplattform und Technologiekomponenten (Datenhaltung, Datenzugriff, Analytik, Visualisierung, Datenintegration, Datensicherheit, Governance) Fachliche und technische Architektur Kundenpotenziale durch datengetriebene Multi-Channel-Strategie in Marketing, Vertriebskanälen und Kampagnen-management heben Renaissance des kollaborativen CRM in Datenallianzen unternehmensintern und mit externen Partnern - neue Chancen durch Datenhaltungskomponenten und Varianz Optimierung der analogen und digitalen Vertriebswege und deren Mischung Aus der Analytik neue Kundenbindungsprogramme im E-Commerce und deren Automatisierung Analytische Elemente zur Bereicherung der Produktstrategien Interaktion "Big" Data und CRM aus fachlicher und technischer Sicht Cloud- und Outsourcing-Strategien - Konzentration auf das Wesentliche Self-Service und Daten-Visualisierung
01.09.2014 — 31.05.2015
Deutsche Telekom / T-Mobile Bonn/Darmstadt
Lead Architekt
Funktion: Lead Architekt, Strategieberatung, Projektleitung, technisches Consulting (IT-Infrastruktur und Datenmodell, Bewertung Hadoop-Komponenten) Produktivbetrieb 08/15 Projekt Aktueller Status: Produktivsetzung der PoC-Ergebnisse mit Cloudera (Cloudera Enterprise mit definierten Hadoop-Komponenten) und SAS Visual Analytics 7.1 Manage&Monitoring: CDH 5.3 Cloudera Enterprise mit ZooKeeper, Oozie (alle Apache Hadoop-Komponenten sind im Cloudera-Enterprise verfügbar) Lamdba-Architektur (Storage, Batch Layer, Speed Layer) Data Management: YARN, HDFS Metadata Management: HCatalog Data Access: Datenbanken: HBase, MongoDB SQL/In Memory:HIVE(Metadaten) Spark, Impala, SAS/ACCES Interface für Impala Batch: MapReduce, Spark BatchStreaming, Sqoop (Datentransfer DWH) Script: Python, SparkShell Kafka/Storm (Trift Python) zum stream processing SAS 9.2 mit SAS Visual Analytics 7.1 Resümee aus PoC: Aktuelle Anforderung: Planung zur Produktivsetzung des PoC-Release Festlegung der anforderungsrelevanten Hadoop-Komponenten Die fachlichen Anforderungen wurden komplett erfüllt: Schnelle Verfügbarkeit über Cloud bzw. Sandbox Management-Konsolen der Anbieter vereinfachen den operativen Betrieb; weitere Integration von Apache-Hadoop-Tools sind zu erwarten Mit Spark und Impala signifikante Performancesteigerung im ETL-Prozess und der Analytik Umsetzung der Zielarchitektur mit den zur Aufgabenstellung relevanten Hadoop-Komponenten SAS mit Analytik/RealTime-Analytik) und Visualisierung der Analytik 1.Sandbox-Service der Big Data-Suite-Dienstleister Cloudera und.MapR SUSE Linux Enterprise Server 12 1.1 Technologien: In-Memory/Data Appliance, Spaltenorientierung, Kompression, Partitionierung, massiv parallele Verarbeitung 2. Klassifizierung und Auswertung unstrukturierter Massendaten (Textdateien), eMails sowie Intranet/Internet-Logfiles in Verbindung zu transaktionalen Kennzahlen aus bestehendem DWH mit einer klar definierten Zielerwartung der Fachseiten. Die Ergebnisse sind Grundlage zur Planung von Services. 3. Kriterienkatalog mit Bewertungen wie: Kosten/Lizenzmodell, Installation eines Hadoop-Cluster, Server Cluster Konfiguration und Sizing, Serviceleistungen, Sicherheit, Hosting-Services, Cloud-Services, Konnektoren zur Integration diverser Datenquellen, komplette Abbildung der Big Data-Prozesse (Datenverfügbarkeit, Analytik, Visualisierung), Entwicklungsumgebung (Eclipse), grafisches Monitoring (Scheduler und Applikationsmanager), nativer Apache-Hadoop-Code etc., Apache Hadoop Komponenten der Big Data Suite: HBase (NoSQL-DB), YARN, HDFS, MapReduce, Spark in-memory, Impala, Sqoop, Zookeeper, Search, Entry, Whirr Scriptsprachen wie HiveQL, Pig,und Python Impala (Analytik mit SQL, Flexibilität, Skalierbarkeit, Monitoring und SQL-Funktionalität - ersetzt Hadoop-Workloads über MapReduce mit signifikantem Performancegewinn). Spark als technische Alternative zu MapReduce mit signifikantem Performancegewinn In-Memory mit HDFS (APIs zu Hive, Pig, und Python bei komplexen Mappings) Spezielle Anforderungen aus der Dokumentenspeicherung und -auswertung mit MongoDB Dateiformate wie JSON (JavaScript Object Notation), XML etc. 3.1 Kooperationen mit Software-Stackanbietern (Ausschnitt: SAP, IBM, Teradata, Oracle, SAS, Informatica, Talent, Tableau) 4. Bewertung nach Anbieter nach Anbietergruppen auf Basis der Bewertungen nach Forrester Research und Barc; jedoch im Detail mit differenten Bewertungen 5. Auswahlverfahren ausschließlich im Kreis von Big Data-Suite-Dienstleistern. Entscheidung den PoC mit Cloudera und MapR durchzuführen. 6. Kooperation von Software-Stack-Anbietern wie SAS und Tableau mit Schwerpunkt Analytik, Visualisierung und Reifegrad der technischen Hadoop-Integration 7. Proof of Concept Neben der Leistungsbewertung der Big Data-Dienstleister sind die Ziele des Proof of Concepts, technische Wege in einem ersten Umsetzungsstep zur Integration neuer Daten, den Möglichkeiten von Ad-hoc-Analysen, deren Automatisierung und der Ergebnis-Visualisierung in einer Big Data-Sandbox umzusetzen. Im Zuge des PoCs wird eine Best Practice-Installationsbasis für das Big Data-Framework - Zielarchitektur der Hadoop-Komponenten - empfohlen. 7.1 SAP Dokumentation (kein PoC): SAP-HANA-Architektur und technische Abgrenzung zu Big-Data-Hadoop-Architektur 7.2 Oracle Workshop und Dokumentation (PoC mit Cloudera): Oracle Big Data Appliance (In-Memory-Option, In-Memory-Aggregation, Big Table Caching, Advanced Index Compression, Force Full Caching Mode) X4-2 / Oracle 12c released 12.1.02 / Oracle Exadata Database Machine / Oracle Big Data SQL, Data Appliance zwischen Oracle und Cloudera, Oracle Big Data SQL ersetzt Hadoop-Workloads wie HiveQL, MapReduce, Spark etc.) 7.3 BM Workshops und Dokumentation (kein PoC): Architektur und Komponenten von InfoSphere BigInsights 7.4 PoC mit Cloudera Data Hub Edition Version 5.1.3 incl. Cloudera Impala (SQL-Quries auf HDFS und HBase) Version 2.0 zur Echtzeitanalyse großer Datenmenge ohne Hive und MapReduce-Jobs; Performancetest mit Apache Spark (signifikante Performancesteigerung vs. MapReduce 7.5 Cloudera/Oracle: Oracle 12c / Oracle Exadata Cloud/ Oracle Big Data SQL PoC mit Hadoop-Datenbank Oracle 12c Exadata- statt HBase - und Oracle Big Data SQL 7.6 PoC mit MapR Enterprise Database Edition Version 3.1 und Impala (spezifische Komponente zur Verwendung des Unix-Dateisystems statt HDFS, Performancetest mit Apache Spark (signifikante Performancesteigerung vs. MapReduce 7.7 PoC mit SAS Visual Analytics 7.1 (SAS ist im IT-Betrieb etabliert) als Software-Stack-Anbieter für die Analytik und Visualisierung der Ergebnisse mit Zugriff auf HBase, Impala (Abfrage) und Oracle (DWH), SAS ist Cloudera Impala-Partner, 7.8 Bewertung und Entscheidung nach PoC mit Kriterienkatalog und Bewertungsschema (Gewichtung) 7.9 Präsentationen IT und Fachseite zum Themen Big Data-Strategie, Big-Data-Nutzen, Big Data Governance und PoC-Ergebnisse 8. Dokumente 8.1 Powerpoint-Dokumente: Einführung in Big Data Hadoop-für IT > 140 Folien mit Linkverzeichnis zu den Anbietern und Apache Hadoop, Sensibilisierung zum CAP-Theorem Einführung in Big Data-Hadoop Fachseite Management Summary Big Data-Hadoop IT und Fachseite, u.a. fachliche und technische Abgrenzung von Big Data, Analytics, Business Intelligence,sowie Reporting/Berichtswesen Strategische Ausrichtung als Koexistenz-Modell Big Data und bestehendes Data Warehouse (OLAP, Analyse, ad-Hoc, Reporting) Optimierungspotential der technischen DWH-Lösung ist abhängig vom Business Case und dem Bedarf nach 8.2 Dokumentation der PoC-Ergebnisse sowie technische Beschreibung der Installation. Architekturmodell bzw.-dokumentation mit arc42 Cloudera Data Hub Editon Version 5.1.3, Cloudra Impala Version 2.0, MapR Enterprise Database Edition Verson3.1, Oracle 12c Version 12.1.02, Oracle Exadata Cloud X2-2, Oracle Big Data SQL, SAS Visual Analytics 7.1, MongoDB 2.6.4, Eclipse, Python, Linux, Projektmanagmenttool: Cloud Microsoft VisualStudio
01.08.2014 — Now
Big Data-Lab ein Invest der AMPM GmbH weitere BI-Dienstleister
Testreihe April 2015: Erprobung Solr und ElasticSearch mit Zugriff auf HDFS Auf Hadoop/HDFS zugeschnittene Speicherformate: NumPy mit PyData,Stack (PySpark Python API, PyWeb-HDFS) und Sci Py-Stack Spark SQL, PySpark Python API (Python-Unterstützung mit Spark), Avro und Parquet HDFS / MapReduce - Migrationsstrategien nach Spark,NumPy und Sci-Py in Arbeit Zwei Kollegen analysieren ab Oktober 2014 die Features und differenzierten Elemente von: Matlab, Mahout, SAS, R / Pyton, Datameer und SPSS Dell/Intel-Cluster auf Basis Red Hat Enterprise Linux und VMware 1 Salesforce Test in der Cloud ab Januar 2014 mit Datentransfer nach Hadoop 2 Cloud Cloudera Enterprise CDH 5.3.0; weitere Tests mit Impala 5.0 Version 2.1.0 3.Cloud: Analytik mit SAS Visual Analytics 4.Cloud Oracle 12c mit Schwerpunkt Cloudera im Zusammenspiel mit Oracle Exadata (Oracle NoSQL Database 3.3.5) und Oracle Big Data SQL 5.Cloud: Informatica Powercenter (ETL und MDM) und Cloudera als Integrationslösung (MDM, Datenqualitätsmanagement) 6.Cloud Amazon AWS Big Data (S3, Redsift, DynamoDB, Kinesis vs. Kafka/Strom, Kafka/Spark) Cloud Amazon AWS HANA One 7 Cloud Microsoft Azure - erste Versuche im April 2015 8 Präsentationen: PoC, Pilotbetrieb, Strategie, Konzepte, Vorgehensmodell und Architekturen zur Big Data-Einführung Weiterbildung und Zertifizierung: Informatica Power Center und Master Data Management / Big Data Integration
01.02.2014 — 31.08.2014
PostFinance AG Schweiz
Business Analyst / Projektleiter
Im Rahmen des Entsendeabkommens zwischen der EU und der Schweiz begrenzter Einsatz über 90 Tage Remote und beim Kunden (im Durchschnitt drei Tage wöchentlich beim Kunden); durch Remote-Einsatz Verlängerung der Beratungsdauer Projekt: Optimierung der AML-Verfahren (Temenos/Bosch) mit Anforderungskatalog (fachlich) und Detailspezifikation; Datenmodellierung in Abstimmung des SW-Anbieters) Detailspezifikation (IT) der Anforderungen an FATCA mit Entscheidungsvorlage Standardlösung versus Eigenentwicklung (SAS); Datenmodellerweiterung DWH und Datenmodell FATCA-Data Mart, UML mit Visio, Architekturmodell mit arc42
01.01.2014 — 30.09.2014
LBBS Stuttgart
Vorgehensmodell zur BCBS #239-Einführung BCBS #239-Verprobung und technischer Proof of Concepts SAP HANA / Bank Analyzer / SAP Risk & Compliance vs -SAS Risk Management for Banking and Insurance / ABACUS/DaVinci - Integration ABACUS/DaVinci mit SAP Bank Analyzer Integration auf Basis SAP HANA Funktion: Projektleitung, technisches und fachliches Consulting Aufbau eines Excel-basierten Analyse- und Ergebnistemplates BCBS 239-Vorgehensmodell für GAP-Analyse (Meldewesen und Risikoreporting) zur fachlichen (Implementierungsstand Basel III, CRD IV, CRR, SolvV, MaRisk) und technischen (DWH/BI-Analyse) Bewertung; Stand (Deckungsgrad und Qualität) des Meldewesens mit ABACUS/DaVince und SAP HANA-Integration Dokumentationsstand (Vollständigkeit und Qualität) Zukünftige regulatorische Anforderungen BCBS 248 und IFRS9 Scan-GAP mit Beschreibung der fachlichen Handlungsfeldern Zielbild für Handlungsstränge "zentrales Finance Data Warehouse" PoC-Abschlussbericht mit fachlicher und technischer Empfehlung Bei Bedarf können umfangreiche zum BCBS 239- Vorgehensmodell "GAP-Analyse" und deren Ergebnistypen vorgelegt werden
01.11.2013 — 31.08.2014
Vorbereitung SAP Certified Application Associate (Edition 2014) - SAP HANA
01.01.2012 — 31.01.2014
W&W Informatik Ludwigsburg
Leader
Erfolgreiche Einführung Ende November 2013 Stabilisierungsphase und Change Requests bis Ende Januar 2014 Sonderaufgaben: - Aufwandsschätzung nach Function Point Analyse/Methode (FPA) und COCOMO, modifiziertes W&W-Modell zur Punktewertung der Transaktionstypen und Datenbestandstypen - Mitwirkung bei der Bedarfsanalyse zur SEPA-Umstellung des Zahlungsverkehrs - Mitwirkung der Konvertierungsrichtlinien von DTA nach pain, pacs und camt auf Basis von DTAUS und DATZV sowie ISO20022 und DFÜ-Abkommen Anlage 3 der Deutschen Kreditwirtschaft - Mitwirkung an der Dokumenterstellung - Erstellung des Fachkonzepts "SEPA-Umstellung des Zahlungsverkehrssystem des Konzerns - Mitwirkung -Konzept Zahlungsverkehr Projekt: Projekt-Vorbereitung SEPA Kartenzahlung - SEPA Cards Framework - auf Basis der technischen Spezifikationen der Deutschen Bundesbank für die Abwicklung von Interbanken SCC Karteneinzügen über den SEPA Clearer (SCL) des EMZ (Technische Spezifikationen SCC/SCL) - Verfahrensregeln der Deutschen Bundesbank und technische Spezifikation - Formate: pacs 002, 003, 004 und 007 sowie supl. 017 - Lastenhefte liegen bereits vor Hinweis: aus Budgetgründen wurde das Projekt verschoben; Start in 2014 geplant SEPA-Umstellung am HOST (PL/1, Cobol), Java- sowie -SAP-Umfeld (SAP, FI, CML) der Bankkernsysteme mit Online-Banking und SAP/BCA sowie CML sowie der Wertpapier- und Handelsabwicklung SEPA-Fähigkeit der Zahlungsverkehrsplattform vdB/PPM (Verfügbarkeit der relevanten SEPA-Formate pain.xxx, pacs.xxx, camt.xxx) SEPA-Umstellung der Außendienstsysteme Optimierung der TARGET2-Prozesse im ZV-System vdB/PPM Optimierung der Tages- und Nachtverarbeitung zur Datenversorgung des ZV-Systems vdB/PPM Ablösung der Eigenentwicklung "zentrales Inkasso" durch SAP FS-CD / Migration der Datenbestände aus verteilten HOST-Systemen Details: - Betroffenheitsmatrix der relevanten IT-Systeme auf Anwendungsebene - Anforderungen an das Formularmanagement und Scan-Prozesse - Prozessanalyse (Überweisungen, Lastschrift, Dialoge, Formulare, Scannen) - Architekturkonzepte auf Anwendungsebene, Fach- und DV-Konzepte der betroffenen - Zahlungsströme für Überweisungen und Lastschriften mit Mandatsverwaltung - intensive Zusammenarbeit und Verzahnung mit den betroffenen Fachseiten; > Workshops mit Fachseite und IT im Sinne von Scrum: Product Backlog, Sprint Backlog (Arbeitspakete), Sprint Planung 1 fachlich und Sprint Planung 2 IT > wöchentliche Meetings - nach Bedarf täglich - mit IT, Fachseite und bei Bedarf IT und Fachseite im Sinne von Scrum als Daily Scrum und Sprint Review - ISO20022-Zahlungsverkehrsformate in vdB/PPM auf Basis des DFÜ-Abkommens Anlage3: Spezifikation der Datenformate Version 2.7 - umsetzen - Mappingbeschreibung DTA/DTI, MT940, Verwendungszweck zu ISO20022 - Umstellung der Zahlungsprozesse vom HOST direkt nach vdB/PPM; Umstellung vom DTA- nach SEPA-Formaten aus SAP-Systemen - Ablösung der MT940-Verarbeitung mit camt.054 aus SAP-Systemen - Mappingverfahren SEPA PurposeCode und Rückgabegründe für Überweisung und Lastschrift - Integration der Zahlungsverkehrsplattform vbB/PPM der Bausparkasse und Bank - SWIFT-Service Bureau durch den Anbieter (PPM) für SWIFT-Verfahren - Umstellung der TARGET2-Datenversorgung von PPM nach Online-Verfahren der Deutschen Bundesbank - DTAZV für den nicht SEPA-Raum; Formatgenerierung aus den operativen Systemen SAP und non-SAP - fachliche und gesetzliche Anforderung aus Rolebook an Mandat und SDD sowie Umsetzung in SAP/BCA, Client/Server und HOST - SEPA-Rückläuferverarbeitung SCT und SDD (R-Transaktionen) mit Mapping nach DTA zur Weiterverarbeitung am HOST sowie zur Versorgung der SAP-Datenschnitt- stelle(ZV-Schnittstelle) - Anpassung der Verrechnungskonto im PPM (Nostro-Konten, interne Verrechnungskonten PPM-HOST, PPM-BCA, PPM-FI) - Embargo- und Vollständigskeitsprüfung im PPM - Implementierung derr Black- und Whitelist-Prüfung im PPM - Releasewechsel SAP/BCA auf EHP5 und SP9 mit allen SEPA-relevanten Hinweisen (Prüfung von über 500 SEPA-relevanten Hinweisen) - Redesign der Zahlungsverkehrsschnitte SAP/BCA - vdB/PPM im ZV-Eingang und - Ausgang - umfangreiche Testverfahren mit der Deutschen Bundesbank - Umstellung der Korrespondenz auf SEPA-Anforderungen - SAP/BCA: Realisierung Mandat und SDD; Migration der SCT- und SDD-Bestände - Einführung zur Parallelisierung (Zahlungsverkehrsschnittstelle, Tagesendverar- beitung, Monats- und Quartalabschluss) im SAP/BCA - Formatumstellung der dwpbank auf WP21-SEPA-Format - Duale Verarbeitung in DTA und SEPA für SCT in allen Bankkernsystemen - Umstellung des Beleglesers auf SEPA und pain-Eingangsverarbeitung im SAP/BCA - Redesign der Zahlungsverkehrsstatistik - alle Bank-relevanten Systeme und das ZV-System sind CORE- und COR1-fähig - Anforderungsmanagement an SAP über DSAG - Interims-Testmanagement zur SCT-Einführung und BCA-Releasewechsel - End-to-End-Test mit der Deutschen Bundesbank - Ressourcenplanung 2012 und Vorschau 2013 bis Mitte 2014 (Roadmap) - Aufbau Projektmanagement und PMO - Einsatz der Projektmanagementstandards des Konzerns SAP BCA (Enhancement Framework, BTE, BAPI), SAP-FC-CD (Ablösung der Eigenentwicklung "Zentrales Inkasso"), SAP-CML, SAP FI, Java (J2EE) - Online Banking und Auftragsverwaltung), PL/1, Format-SEPA- und IBAN-Konverter, vbB/PPM (Anbieter: van den Berg), Charity, SAP PPM, ClearQuest, SQS, dwpbank mit WP2-Format, Sfirm LBBW, MQ-Series, ARIS Projektmanagementmethode: GPM-IPMA (>300 Arbeitspakete m
Lead Architekt
eines Kundenauftrags Lead Architekt, Komponentenberatung Cloud-Lösung: SAP HANA, Cloudera, (CHD), Kafka, Flink, Talend (Spezialistenvon Infomotion) Tableau vs. SAP Lumira (Spezialisten von Infomotion) weitere Testinstallation SparxSystzms Enterprise Architect
Nordex SE Windkraftanlagen
Lead-Architekt
Impulsgeber/Coach für den Enterprise Architekturen, Projektleitung, Workshops zur Einführung von BI-Infrastrukturen und Hadoop-Komponenten Pilot und Produktivsetzung Definition der Use Cases, hybride Architektur (Data Warehouse und Hadoop-Cluster) Empfehlung der Hadoop-Komponenten, Hadoop in der Cloud (PaaS vs. SaaS) Grundlagen der Data Warehouse und Data Mart-Modellierung IT-Managementberatung mit Abstimmung auf Ebene CIO, Stellvertreter CIO, Abteilungsleiter Abstimmung und Kooperation mit Management auf der Fachseite der zweiten Führungsebene Beratung zum Aufbau einer Data Governance Blueprint zum Aufbau eines Master Data Managements; Umsetzung Start 05.2017 Blueprint und Realisierung von ersten Komponenten eines Integration Server Bus mit Mircoservices (REST API für Data Warehouse, Leitstand (Control Center):und Fehlermanagement Architektur-Blueprint zur datentechnischen Integration der Windmühlen als Basis zum Aufbau Leitstand (Control Center für Alarme und prognostisierte Alarme) Mircosoft Azure, SQL Server 2016, R-Integration SQL Server 2016, SSIS, Power BI, Hadoop mit Kafka, Spark 2.0 (R-Integration, ML; Spark Streaming, Spark SQL) Handlungsempfehlung und Umsetzung in zwei Phasenmit Produktivsetzung Pilot Phase 1: Aufbau DWH , 3-Schichten-Modell (Storage, Cleansing mit Core und BI-Services mit Data Mart, Sandbox für Analytik BI-Services für Engineering, Service, Product Strategiy und Produktion mit Microsoft Azure DWH-Komponenten (SSIS, SSAS Bower BI, MS R-Integration, MS BiZTalk, MS Master Data Management Pilot:Phase 2: Aufbau eines Hadoop-Cluster Microsoft Azure Insight Cloud SaaS WLAN-Anbindung der Windmühlen unter Datentransport < 1 Sekunde in Hadoop-Cluster mit Streaming Analytik, Visualisierung, KPI mit Spark nach DWH für Dashboards, Datenarchivierung nach Filterung der relevanten Daten für Zeitreihenanalyse Produktivbetrieb ab Mai 2017 !
Cosmos Direkt/Generali
Lead-Architekt
Definition von Use Cases; Kündigeranalyse aus eMail Textmaining, Cross Selling aus eMail Textmaining, Einbindung der Ergebnisse aus Analytik in Testkampagnen. Customer Journey mit weiteren Kennahlen für das Kampagnenmanagement Beschreibung von Alternativen SAS Enterprise Miner, SAS Textmaining auf HDFS-Cluster sowie R-Integration/Spark ML auf HDFS. Verantwortlich für die Vorstandpräsentation und Empfehlung zum weiteren Einsatz. PoC mit Cloudera, Phyhton/Spark ML, HDFS, Sqoop Produktivbetrieb seit Januar 2017 !
Projektleitung und Testmanager
Projektleitung und Testmanager im Auftrag des Generalunternehmers als Festpreisprojekt zum Aufbau eines neuen "Output-Management-System der Deka Luxemburg". Führung von Teams mit folgenden Schwerpunkten: Team des Generalunternehmers für die Komponenten der Datenversorgung Vom Generalunternehmer beauftragter Subunternehmer für die Komponenten des Druckmanagements Testteam (interne und externe Mitarbeiter) Steuerung in Konzeption, Realisierung und Qualitätssicherung: IT-Architektur, DV-Konzepte, Konsolidierung Fachkonzepte, Datenmodellierung, ETL-Framework, Berechtigungskonzepte, Betriebs- und Produktionshandbücher, Rollout-Management. Die Komponenten des Output-Managements im Detail: Erweiterung des Core-DWH mit ETL-Prozesse aus Quellsystemen Aufbau Data Mart zur Datenversorgung des Output Managements XML-Ausleistungsschicht (Datenselektion aus Auftragsmanagement Data Mart mit Beilagen und Druckersteuerung) Auftragsmanagement zur Steuerung von Aktionen Dateitransfer über TravicLink Belegerstellung mit DOC1GEN (Engage One Pitney Bowes) DocBridge Pilot (Compart) DocBridge Queue Processor (Compart) Konfiguration der Böwe-Kuvertiermaschinen Outputmanagement-Planung und-reporting (Cognos) Nagios Testmanagement mit folgenden Schwerpunkten Testkonzept (> 600 Testfälle) für Core-DWH, Data Mart, XML-Generierung, Belegwesen und Druckmanagement Bugfixing Testreporting Regressionstest Steuerung der Entwickler für das Bugfixing Projektmanagement Klassisches Projektmanagement und agile Methodik (Projekt lebt von geordneter Agilität) Projektplanung für alle Komponenten Einsatzplanung für den Generalunternehmen Tägliches Monitoring Montag bis Donnerstag (Daily Scrums) Wöchentliches JF mit Management-Projektreporting (Fachseite und IT) JF mit IT Service, IT-Produktion und IT-Architektur JF mit Fachseiten Coaching der Scrum Master Moderation Fachseite und Management Mitarbeiterführung des General- und Subunternehmers Arbeitsausschuss (monatlicher Zyklus) Risikomanagement OLYMPIC Banking System Sybase PowerDesigner, Informatica PowerCenter Version 9.0.1, Informatica B2B Data Exchange, SQL, Views/MatViews, DB2 V 9.7.03, MS SQL Server, Java, Tomcat, UNIX, XMLSpy Altova. MS Server, Webservices, Nagios, TravicLink, Filenet, Cognos 10, Engage One/DOC1GEN (Pitney Bowes), DocBridge Pilot und Queue-Processor (Compart), Böwe Bugzilla (Testmanagement), MS-Qffice, MS Visio, MS Project, XSD/XML, AFP mit Grafik, PDF, TLE
03/15 - 06/15 PoC, Pilot, Produktivbetrieb ab 09/15 für ein Unternehmen der Pharmaindustrie in Rheinland-Pfalz (Boehringer Ingelheim) Gemeinsame Aktivität mit AWS-Partnerunternehmen Aufgabe: DNA-Analyse Hadoop-Komponenten: Cloud AWS Big Data-Lösung, S3, Elastic MapReduce (EMR), MongoDB, Redsift, Kafka, Storm, Solv Analyse mit Datameer (Aktivität des SW-Anbieters) und R als Alternative zu SAS, IPython zur Datenaufbereitung vor Analytik mit R und Datameer Visualisierung mit Tableaus (Aktivität des SW-Anbieters)
Big Data-Einführung für ein Handelsunternehmen
Big Data-Einführung für ein Handelsunternehmen
Big Data, Smart Data - Change, Potenziale, Herausforderungen in Marketing, Vertrieb und Kampagnenmanagement Change Management, Datenstrategien, Data Science Management, Transformationsmodell Einführungsszenarien und maßgeschneidertes Vorgehensmodell - auch smart is big Datenplattform und Technologiekomponenten (Datenhaltung, Datenzugriff, Analytik, Visualisierung, Datenintegration, Datensicherheit, Governance) Fachliche und technische Architektur Kundenpotenziale durch datengetriebene Multi-Channel-Strategie in Marketing, Vertriebskanälen und Kampagnen-management heben Renaissance des kollaborativen CRM in Datenallianzen unternehmensintern und mit externen Partnern - neue Chancen durch Datenhaltungskomponenten und Varianz Optimierung der analogen und digitalen Vertriebswege und deren Mischung Aus der Analytik neue Kundenbindungsprogramme im E-Commerce und deren Automatisierung Analytische Elemente zur Bereicherung der Produktstrategien Interaktion "Big" Data und CRM aus fachlicher und technischer Sicht Cloud- und Outsourcing-Strategien - Konzentration auf das Wesentliche Self-Service und Daten-Visualisierung
Deutsche Telekom / T-Mobile Bonn/Darmstadt
Lead Architekt
Funktion: Lead Architekt, Strategieberatung, Projektleitung, technisches Consulting (IT-Infrastruktur und Datenmodell, Bewertung Hadoop-Komponenten) Produktivbetrieb 08/15 Projekt Aktueller Status: Produktivsetzung der PoC-Ergebnisse mit Cloudera (Cloudera Enterprise mit definierten Hadoop-Komponenten) und SAS Visual Analytics 7.1 Manage&Monitoring: CDH 5.3 Cloudera Enterprise mit ZooKeeper, Oozie (alle Apache Hadoop-Komponenten sind im Cloudera-Enterprise verfügbar) Lamdba-Architektur (Storage, Batch Layer, Speed Layer) Data Management: YARN, HDFS Metadata Management: HCatalog Data Access: Datenbanken: HBase, MongoDB SQL/In Memory:HIVE(Metadaten) Spark, Impala, SAS/ACCES Interface für Impala Batch: MapReduce, Spark BatchStreaming, Sqoop (Datentransfer DWH) Script: Python, SparkShell Kafka/Storm (Trift Python) zum stream processing SAS 9.2 mit SAS Visual Analytics 7.1 Resümee aus PoC: Aktuelle Anforderung: Planung zur Produktivsetzung des PoC-Release Festlegung der anforderungsrelevanten Hadoop-Komponenten Die fachlichen Anforderungen wurden komplett erfüllt: Schnelle Verfügbarkeit über Cloud bzw. Sandbox Management-Konsolen der Anbieter vereinfachen den operativen Betrieb; weitere Integration von Apache-Hadoop-Tools sind zu erwarten Mit Spark und Impala signifikante Performancesteigerung im ETL-Prozess und der Analytik Umsetzung der Zielarchitektur mit den zur Aufgabenstellung relevanten Hadoop-Komponenten SAS mit Analytik/RealTime-Analytik) und Visualisierung der Analytik 1.Sandbox-Service der Big Data-Suite-Dienstleister Cloudera und.MapR SUSE Linux Enterprise Server 12 1.1 Technologien: In-Memory/Data Appliance, Spaltenorientierung, Kompression, Partitionierung, massiv parallele Verarbeitung 2. Klassifizierung und Auswertung unstrukturierter Massendaten (Textdateien), eMails sowie Intranet/Internet-Logfiles in Verbindung zu transaktionalen Kennzahlen aus bestehendem DWH mit einer klar definierten Zielerwartung der Fachseiten. Die Ergebnisse sind Grundlage zur Planung von Services. 3. Kriterienkatalog mit Bewertungen wie: Kosten/Lizenzmodell, Installation eines Hadoop-Cluster, Server Cluster Konfiguration und Sizing, Serviceleistungen, Sicherheit, Hosting-Services, Cloud-Services, Konnektoren zur Integration diverser Datenquellen, komplette Abbildung der Big Data-Prozesse (Datenverfügbarkeit, Analytik, Visualisierung), Entwicklungsumgebung (Eclipse), grafisches Monitoring (Scheduler und Applikationsmanager), nativer Apache-Hadoop-Code etc., Apache Hadoop Komponenten der Big Data Suite: HBase (NoSQL-DB), YARN, HDFS, MapReduce, Spark in-memory, Impala, Sqoop, Zookeeper, Search, Entry, Whirr Scriptsprachen wie HiveQL, Pig,und Python Impala (Analytik mit SQL, Flexibilität, Skalierbarkeit, Monitoring und SQL-Funktionalität - ersetzt Hadoop-Workloads über MapReduce mit signifikantem Performancegewinn). Spark als technische Alternative zu MapReduce mit signifikantem Performancegewinn In-Memory mit HDFS (APIs zu Hive, Pig, und Python bei komplexen Mappings) Spezielle Anforderungen aus der Dokumentenspeicherung und -auswertung mit MongoDB Dateiformate wie JSON (JavaScript Object Notation), XML etc. 3.1 Kooperationen mit Software-Stackanbietern (Ausschnitt: SAP, IBM, Teradata, Oracle, SAS, Informatica, Talent, Tableau) 4. Bewertung nach Anbieter nach Anbietergruppen auf Basis der Bewertungen nach Forrester Research und Barc; jedoch im Detail mit differenten Bewertungen 5. Auswahlverfahren ausschließlich im Kreis von Big Data-Suite-Dienstleistern. Entscheidung den PoC mit Cloudera und MapR durchzuführen. 6. Kooperation von Software-Stack-Anbietern wie SAS und Tableau mit Schwerpunkt Analytik, Visualisierung und Reifegrad der technischen Hadoop-Integration 7. Proof of Concept Neben der Leistungsbewertung der Big Data-Dienstleister sind die Ziele des Proof of Concepts, technische Wege in einem ersten Umsetzungsstep zur Integration neuer Daten, den Möglichkeiten von Ad-hoc-Analysen, deren Automatisierung und der Ergebnis-Visualisierung in einer Big Data-Sandbox umzusetzen. Im Zuge des PoCs wird eine Best Practice-Installationsbasis für das Big Data-Framework - Zielarchitektur der Hadoop-Komponenten - empfohlen. 7.1 SAP Dokumentation (kein PoC): SAP-HANA-Architektur und technische Abgrenzung zu Big-Data-Hadoop-Architektur 7.2 Oracle Workshop und Dokumentation (PoC mit Cloudera): Oracle Big Data Appliance (In-Memory-Option, In-Memory-Aggregation, Big Table Caching, Advanced Index Compression, Force Full Caching Mode) X4-2 / Oracle 12c released 12.1.02 / Oracle Exadata Database Machine / Oracle Big Data SQL, Data Appliance zwischen Oracle und Cloudera, Oracle Big Data SQL ersetzt Hadoop-Workloads wie HiveQL, MapReduce, Spark etc.) 7.3 BM Workshops und Dokumentation (kein PoC): Architektur und Komponenten von InfoSphere BigInsights 7.4 PoC mit Cloudera Data Hub Edition Version 5.1.3 incl. Cloudera Impala (SQL-Quries auf HDFS und HBase) Version 2.0 zur Echtzeitanalyse großer Datenmenge ohne Hive und MapReduce-Jobs; Performancetest mit Apache Spark (signifikante Performancesteigerung vs. MapReduce 7.5 Cloudera/Oracle: Oracle 12c / Oracle Exadata Cloud/ Oracle Big Data SQL PoC mit Hadoop-Datenbank Oracle 12c Exadata- statt HBase - und Oracle Big Data SQL 7.6 PoC mit MapR Enterprise Database Edition Version 3.1 und Impala (spezifische Komponente zur Verwendung des Unix-Dateisystems statt HDFS, Performancetest mit Apache Spark (signifikante Performancesteigerung vs. MapReduce 7.7 PoC mit SAS Visual Analytics 7.1 (SAS ist im IT-Betrieb etabliert) als Software-Stack-Anbieter für die Analytik und Visualisierung der Ergebnisse mit Zugriff auf HBase, Impala (Abfrage) und Oracle (DWH), SAS ist Cloudera Impala-Partner, 7.8 Bewertung und Entscheidung nach PoC mit Kriterienkatalog und Bewertungsschema (Gewichtung) 7.9 Präsentationen IT und Fachseite zum Themen Big Data-Strategie, Big-Data-Nutzen, Big Data Governance und PoC-Ergebnisse 8. Dokumente 8.1 Powerpoint-Dokumente: Einführung in Big Data Hadoop-für IT > 140 Folien mit Linkverzeichnis zu den Anbietern und Apache Hadoop, Sensibilisierung zum CAP-Theorem Einführung in Big Data-Hadoop Fachseite Management Summary Big Data-Hadoop IT und Fachseite, u.a. fachliche und technische Abgrenzung von Big Data, Analytics, Business Intelligence,sowie Reporting/Berichtswesen Strategische Ausrichtung als Koexistenz-Modell Big Data und bestehendes Data Warehouse (OLAP, Analyse, ad-Hoc, Reporting) Optimierungspotential der technischen DWH-Lösung ist abhängig vom Business Case und dem Bedarf nach 8.2 Dokumentation der PoC-Ergebnisse sowie technische Beschreibung der Installation. Architekturmodell bzw.-dokumentation mit arc42 Cloudera Data Hub Editon Version 5.1.3, Cloudra Impala Version 2.0, MapR Enterprise Database Edition Verson3.1, Oracle 12c Version 12.1.02, Oracle Exadata Cloud X2-2, Oracle Big Data SQL, SAS Visual Analytics 7.1, MongoDB 2.6.4, Eclipse, Python, Linux, Projektmanagmenttool: Cloud Microsoft VisualStudio
Big Data-Lab ein Invest der AMPM GmbH weitere BI-Dienstleister
Testreihe April 2015: Erprobung Solr und ElasticSearch mit Zugriff auf HDFS Auf Hadoop/HDFS zugeschnittene Speicherformate: NumPy mit PyData,Stack (PySpark Python API, PyWeb-HDFS) und Sci Py-Stack Spark SQL, PySpark Python API (Python-Unterstützung mit Spark), Avro und Parquet HDFS / MapReduce - Migrationsstrategien nach Spark,NumPy und Sci-Py in Arbeit Zwei Kollegen analysieren ab Oktober 2014 die Features und differenzierten Elemente von: Matlab, Mahout, SAS, R / Pyton, Datameer und SPSS Dell/Intel-Cluster auf Basis Red Hat Enterprise Linux und VMware 1 Salesforce Test in der Cloud ab Januar 2014 mit Datentransfer nach Hadoop 2 Cloud Cloudera Enterprise CDH 5.3.0; weitere Tests mit Impala 5.0 Version 2.1.0 3.Cloud: Analytik mit SAS Visual Analytics 4.Cloud Oracle 12c mit Schwerpunkt Cloudera im Zusammenspiel mit Oracle Exadata (Oracle NoSQL Database 3.3.5) und Oracle Big Data SQL 5.Cloud: Informatica Powercenter (ETL und MDM) und Cloudera als Integrationslösung (MDM, Datenqualitätsmanagement) 6.Cloud Amazon AWS Big Data (S3, Redsift, DynamoDB, Kinesis vs. Kafka/Strom, Kafka/Spark) Cloud Amazon AWS HANA One 7 Cloud Microsoft Azure - erste Versuche im April 2015 8 Präsentationen: PoC, Pilotbetrieb, Strategie, Konzepte, Vorgehensmodell und Architekturen zur Big Data-Einführung Weiterbildung und Zertifizierung: Informatica Power Center und Master Data Management / Big Data Integration
Vorbereitung SAP Certified Application Associate (Edition 2014) - SAP HANA
LBBS Stuttgart
Vorgehensmodell zur BCBS #239-Einführung BCBS #239-Verprobung und technischer Proof of Concepts SAP HANA / Bank Analyzer / SAP Risk & Compliance vs -SAS Risk Management for Banking and Insurance / ABACUS/DaVinci - Integration ABACUS/DaVinci mit SAP Bank Analyzer Integration auf Basis SAP HANA Funktion: Projektleitung, technisches und fachliches Consulting Aufbau eines Excel-basierten Analyse- und Ergebnistemplates BCBS 239-Vorgehensmodell für GAP-Analyse (Meldewesen und Risikoreporting) zur fachlichen (Implementierungsstand Basel III, CRD IV, CRR, SolvV, MaRisk) und technischen (DWH/BI-Analyse) Bewertung; Stand (Deckungsgrad und Qualität) des Meldewesens mit ABACUS/DaVince und SAP HANA-Integration Dokumentationsstand (Vollständigkeit und Qualität) Zukünftige regulatorische Anforderungen BCBS 248 und IFRS9 Scan-GAP mit Beschreibung der fachlichen Handlungsfeldern Zielbild für Handlungsstränge "zentrales Finance Data Warehouse" PoC-Abschlussbericht mit fachlicher und technischer Empfehlung Bei Bedarf können umfangreiche zum BCBS 239- Vorgehensmodell "GAP-Analyse" und deren Ergebnistypen vorgelegt werden
PostFinance AG Schweiz
Business Analyst / Projektleiter
Im Rahmen des Entsendeabkommens zwischen der EU und der Schweiz begrenzter Einsatz über 90 Tage Remote und beim Kunden (im Durchschnitt drei Tage wöchentlich beim Kunden); durch Remote-Einsatz Verlängerung der Beratungsdauer Projekt: Optimierung der AML-Verfahren (Temenos/Bosch) mit Anforderungskatalog (fachlich) und Detailspezifikation; Datenmodellierung in Abstimmung des SW-Anbieters) Detailspezifikation (IT) der Anforderungen an FATCA mit Entscheidungsvorlage Standardlösung versus Eigenentwicklung (SAS); Datenmodellerweiterung DWH und Datenmodell FATCA-Data Mart, UML mit Visio, Architekturmodell mit arc42
W&W Informatik Ludwigsburg
Leader
Erfolgreiche Einführung Ende November 2013 Stabilisierungsphase und Change Requests bis Ende Januar 2014 Sonderaufgaben: - Aufwandsschätzung nach Function Point Analyse/Methode (FPA) und COCOMO, modifiziertes W&W-Modell zur Punktewertung der Transaktionstypen und Datenbestandstypen - Mitwirkung bei der Bedarfsanalyse zur SEPA-Umstellung des Zahlungsverkehrs - Mitwirkung der Konvertierungsrichtlinien von DTA nach pain, pacs und camt auf Basis von DTAUS und DATZV sowie ISO20022 und DFÜ-Abkommen Anlage 3 der Deutschen Kreditwirtschaft - Mitwirkung an der Dokumenterstellung - Erstellung des Fachkonzepts "SEPA-Umstellung des Zahlungsverkehrssystem des Konzerns - Mitwirkung -Konzept Zahlungsverkehr Projekt: Projekt-Vorbereitung SEPA Kartenzahlung - SEPA Cards Framework - auf Basis der technischen Spezifikationen der Deutschen Bundesbank für die Abwicklung von Interbanken SCC Karteneinzügen über den SEPA Clearer (SCL) des EMZ (Technische Spezifikationen SCC/SCL) - Verfahrensregeln der Deutschen Bundesbank und technische Spezifikation - Formate: pacs 002, 003, 004 und 007 sowie supl. 017 - Lastenhefte liegen bereits vor Hinweis: aus Budgetgründen wurde das Projekt verschoben; Start in 2014 geplant SEPA-Umstellung am HOST (PL/1, Cobol), Java- sowie -SAP-Umfeld (SAP, FI, CML) der Bankkernsysteme mit Online-Banking und SAP/BCA sowie CML sowie der Wertpapier- und Handelsabwicklung SEPA-Fähigkeit der Zahlungsverkehrsplattform vdB/PPM (Verfügbarkeit der relevanten SEPA-Formate pain.xxx, pacs.xxx, camt.xxx) SEPA-Umstellung der Außendienstsysteme Optimierung der TARGET2-Prozesse im ZV-System vdB/PPM Optimierung der Tages- und Nachtverarbeitung zur Datenversorgung des ZV-Systems vdB/PPM Ablösung der Eigenentwicklung "zentrales Inkasso" durch SAP FS-CD / Migration der Datenbestände aus verteilten HOST-Systemen Details: - Betroffenheitsmatrix der relevanten IT-Systeme auf Anwendungsebene - Anforderungen an das Formularmanagement und Scan-Prozesse - Prozessanalyse (Überweisungen, Lastschrift, Dialoge, Formulare, Scannen) - Architekturkonzepte auf Anwendungsebene, Fach- und DV-Konzepte der betroffenen - Zahlungsströme für Überweisungen und Lastschriften mit Mandatsverwaltung - intensive Zusammenarbeit und Verzahnung mit den betroffenen Fachseiten; > Workshops mit Fachseite und IT im Sinne von Scrum: Product Backlog, Sprint Backlog (Arbeitspakete), Sprint Planung 1 fachlich und Sprint Planung 2 IT > wöchentliche Meetings - nach Bedarf täglich - mit IT, Fachseite und bei Bedarf IT und Fachseite im Sinne von Scrum als Daily Scrum und Sprint Review - ISO20022-Zahlungsverkehrsformate in vdB/PPM auf Basis des DFÜ-Abkommens Anlage3: Spezifikation der Datenformate Version 2.7 - umsetzen - Mappingbeschreibung DTA/DTI, MT940, Verwendungszweck zu ISO20022 - Umstellung der Zahlungsprozesse vom HOST direkt nach vdB/PPM; Umstellung vom DTA- nach SEPA-Formaten aus SAP-Systemen - Ablösung der MT940-Verarbeitung mit camt.054 aus SAP-Systemen - Mappingverfahren SEPA PurposeCode und Rückgabegründe für Überweisung und Lastschrift - Integration der Zahlungsverkehrsplattform vbB/PPM der Bausparkasse und Bank - SWIFT-Service Bureau durch den Anbieter (PPM) für SWIFT-Verfahren - Umstellung der TARGET2-Datenversorgung von PPM nach Online-Verfahren der Deutschen Bundesbank - DTAZV für den nicht SEPA-Raum; Formatgenerierung aus den operativen Systemen SAP und non-SAP - fachliche und gesetzliche Anforderung aus Rolebook an Mandat und SDD sowie Umsetzung in SAP/BCA, Client/Server und HOST - SEPA-Rückläuferverarbeitung SCT und SDD (R-Transaktionen) mit Mapping nach DTA zur Weiterverarbeitung am HOST sowie zur Versorgung der SAP-Datenschnitt- stelle(ZV-Schnittstelle) - Anpassung der Verrechnungskonto im PPM (Nostro-Konten, interne Verrechnungskonten PPM-HOST, PPM-BCA, PPM-FI) - Embargo- und Vollständigskeitsprüfung im PPM - Implementierung derr Black- und Whitelist-Prüfung im PPM - Releasewechsel SAP/BCA auf EHP5 und SP9 mit allen SEPA-relevanten Hinweisen (Prüfung von über 500 SEPA-relevanten Hinweisen) - Redesign der Zahlungsverkehrsschnitte SAP/BCA - vdB/PPM im ZV-Eingang und - Ausgang - umfangreiche Testverfahren mit der Deutschen Bundesbank - Umstellung der Korrespondenz auf SEPA-Anforderungen - SAP/BCA: Realisierung Mandat und SDD; Migration der SCT- und SDD-Bestände - Einführung zur Parallelisierung (Zahlungsverkehrsschnittstelle, Tagesendverar- beitung, Monats- und Quartalabschluss) im SAP/BCA - Formatumstellung der dwpbank auf WP21-SEPA-Format - Duale Verarbeitung in DTA und SEPA für SCT in allen Bankkernsystemen - Umstellung des Beleglesers auf SEPA und pain-Eingangsverarbeitung im SAP/BCA - Redesign der Zahlungsverkehrsstatistik - alle Bank-relevanten Systeme und das ZV-System sind CORE- und COR1-fähig - Anforderungsmanagement an SAP über DSAG - Interims-Testmanagement zur SCT-Einführung und BCA-Releasewechsel - End-to-End-Test mit der Deutschen Bundesbank - Ressourcenplanung 2012 und Vorschau 2013 bis Mitte 2014 (Roadmap) - Aufbau Projektmanagement und PMO - Einsatz der Projektmanagementstandards des Konzerns SAP BCA (Enhancement Framework, BTE, BAPI), SAP-FC-CD (Ablösung der Eigenentwicklung "Zentrales Inkasso"), SAP-CML, SAP FI, Java (J2EE) - Online Banking und Auftragsverwaltung), PL/1, Format-SEPA- und IBAN-Konverter, vbB/PPM (Anbieter: van den Berg), Charity, SAP PPM, ClearQuest, SQS, dwpbank mit WP2-Format, Sfirm LBBW, MQ-Series, ARIS Projektmanagementmethode: GPM-IPMA (>300 Arbeitspakete m

Description

Main Skills

Other Skills

Filenet EssBase Solr API Big Data Client/Server Online Banking MongoDB OLAP Database Datenzugriff SQS JSON Kafka 12c SAP Cloudera Metadata PySpark Testfälle SAP-Umfeld IBM Cognos TM1 Datentransfer Data Warehouse APIs SAS Visual Analytics Datensicherheit Informatica PowerCenter WLAN Oozie HDFS Microsoft Azure ElasticSearch Exadata Eclipse Spice Cloud Hana ML MS Visio Linux SUSE Linux Enterprise Server Bower SQL Server 2016 SCRUM MapR Big-Data Hadoop Sqoop Cloud-Services Datenhaltung Cobol SAS ETL Power BI PaaS Data Mart Flink ETL-Prozesse DynamoDB UML J2EE WebSphere PL/1 Oracle ETL-Prozess S3 Python Data Governance Azure Excel BAPI DB2 Spark Streaming Apache Hadoop BiZTalk Talend Bugzilla Datenbank MS SQL Server ABAP OO Matlab SCRUM Master Testmanagement 3NF Online-Banking R VMWare MS Project SAP FI Spark SAP HANA Oracle Exadata SAP BO PowerDesigner MS-Office Data Hub SaaS SSIS SPSS Amazon AWS PL/SQL MapReduce XMLSpy Oracle EssBase Daten-Visualisierung Analytics Cognos JavaScript Object Notation SAP PS ClearQuest Impala Softwareentwicklung Map Reduce Product Owner Cascading Informatik HBase Oracle Hyperion Big Table AWS Streaming Datenbanken Oracle NoSQL IBM Cognos Datenarchivierung Webservices SSAS Mahout Avro HP Quality Center SharePoint PRINCE2 agile XML Java Red Hat Enterprise Linux YARN ARIS Metadaten BigInsights Tableau Cloudera Manager MS-Project Data Vault Systemanalytiker Apache Spark Powerpoint Testmanagements Datenintegration Zookeeper UNIX JavaScript NumPy Cognos 10 Anforderungsmanagement Visio CMMI SQL Salesforce Tomcat Teradata Nagios SAP BI Scaled Agile Framework Ambari

Work & Experience

01.04.2017 — Now
Lead Architekt
eines Kundenauftrags Lead Architekt, Komponentenberatung Cloud-Lösung: SAP HANA, Cloudera, (CHD), Kafka, Flink, Talend (Spezialistenvon Infomotion) Tableau vs. SAP Lumira (Spezialisten von Infomotion) weitere Testinstallation SparxSystzms Enterprise Architect
01.08.2016 — 31.07.2017
Nordex SE Windkraftanlagen
Lead-Architekt
Impulsgeber/Coach für den Enterprise Architekturen, Projektleitung, Workshops zur Einführung von BI-Infrastrukturen und Hadoop-Komponenten Pilot und Produktivsetzung Definition der Use Cases, hybride Architektur (Data Warehouse und Hadoop-Cluster) Empfehlung der Hadoop-Komponenten, Hadoop in der Cloud (PaaS vs. SaaS) Grundlagen der Data Warehouse und Data Mart-Modellierung IT-Managementberatung mit Abstimmung auf Ebene CIO, Stellvertreter CIO, Abteilungsleiter Abstimmung und Kooperation mit Management auf der Fachseite der zweiten Führungsebene Beratung zum Aufbau einer Data Governance Blueprint zum Aufbau eines Master Data Managements; Umsetzung Start 05.2017 Blueprint und Realisierung von ersten Komponenten eines Integration Server Bus mit Mircoservices (REST API für Data Warehouse, Leitstand (Control Center):und Fehlermanagement Architektur-Blueprint zur datentechnischen Integration der Windmühlen als Basis zum Aufbau Leitstand (Control Center für Alarme und prognostisierte Alarme) Mircosoft Azure, SQL Server 2016, R-Integration SQL Server 2016, SSIS, Power BI, Hadoop mit Kafka, Spark 2.0 (R-Integration, ML; Spark Streaming, Spark SQL) Handlungsempfehlung und Umsetzung in zwei Phasenmit Produktivsetzung Pilot Phase 1: Aufbau DWH , 3-Schichten-Modell (Storage, Cleansing mit Core und BI-Services mit Data Mart, Sandbox für Analytik BI-Services für Engineering, Service, Product Strategiy und Produktion mit Microsoft Azure DWH-Komponenten (SSIS, SSAS Bower BI, MS R-Integration, MS BiZTalk, MS Master Data Management Pilot:Phase 2: Aufbau eines Hadoop-Cluster Microsoft Azure Insight Cloud SaaS WLAN-Anbindung der Windmühlen unter Datentransport < 1 Sekunde in Hadoop-Cluster mit Streaming Analytik, Visualisierung, KPI mit Spark nach DWH für Dashboards, Datenarchivierung nach Filterung der relevanten Daten für Zeitreihenanalyse Produktivbetrieb ab Mai 2017 !
01.07.2016 — 31.12.2016
Cosmos Direkt/Generali
Lead-Architekt
Definition von Use Cases; Kündigeranalyse aus eMail Textmaining, Cross Selling aus eMail Textmaining, Einbindung der Ergebnisse aus Analytik in Testkampagnen. Customer Journey mit weiteren Kennahlen für das Kampagnenmanagement Beschreibung von Alternativen SAS Enterprise Miner, SAS Textmaining auf HDFS-Cluster sowie R-Integration/Spark ML auf HDFS. Verantwortlich für die Vorstandpräsentation und Empfehlung zum weiteren Einsatz. PoC mit Cloudera, Phyhton/Spark ML, HDFS, Sqoop Produktivbetrieb seit Januar 2017 !
01.06.2015 — 30.06.2016
Projektleitung und Testmanager
Projektleitung und Testmanager im Auftrag des Generalunternehmers als Festpreisprojekt zum Aufbau eines neuen "Output-Management-System der Deka Luxemburg". Führung von Teams mit folgenden Schwerpunkten: Team des Generalunternehmers für die Komponenten der Datenversorgung Vom Generalunternehmer beauftragter Subunternehmer für die Komponenten des Druckmanagements Testteam (interne und externe Mitarbeiter) Steuerung in Konzeption, Realisierung und Qualitätssicherung: IT-Architektur, DV-Konzepte, Konsolidierung Fachkonzepte, Datenmodellierung, ETL-Framework, Berechtigungskonzepte, Betriebs- und Produktionshandbücher, Rollout-Management. Die Komponenten des Output-Managements im Detail: Erweiterung des Core-DWH mit ETL-Prozesse aus Quellsystemen Aufbau Data Mart zur Datenversorgung des Output Managements XML-Ausleistungsschicht (Datenselektion aus Auftragsmanagement Data Mart mit Beilagen und Druckersteuerung) Auftragsmanagement zur Steuerung von Aktionen Dateitransfer über TravicLink Belegerstellung mit DOC1GEN (Engage One Pitney Bowes) DocBridge Pilot (Compart) DocBridge Queue Processor (Compart) Konfiguration der Böwe-Kuvertiermaschinen Outputmanagement-Planung und-reporting (Cognos) Nagios Testmanagement mit folgenden Schwerpunkten Testkonzept (> 600 Testfälle) für Core-DWH, Data Mart, XML-Generierung, Belegwesen und Druckmanagement Bugfixing Testreporting Regressionstest Steuerung der Entwickler für das Bugfixing Projektmanagement Klassisches Projektmanagement und agile Methodik (Projekt lebt von geordneter Agilität) Projektplanung für alle Komponenten Einsatzplanung für den Generalunternehmen Tägliches Monitoring Montag bis Donnerstag (Daily Scrums) Wöchentliches JF mit Management-Projektreporting (Fachseite und IT) JF mit IT Service, IT-Produktion und IT-Architektur JF mit Fachseiten Coaching der Scrum Master Moderation Fachseite und Management Mitarbeiterführung des General- und Subunternehmers Arbeitsausschuss (monatlicher Zyklus) Risikomanagement OLYMPIC Banking System Sybase PowerDesigner, Informatica PowerCenter Version 9.0.1, Informatica B2B Data Exchange, SQL, Views/MatViews, DB2 V 9.7.03, MS SQL Server, Java, Tomcat, UNIX, XMLSpy Altova. MS Server, Webservices, Nagios, TravicLink, Filenet, Cognos 10, Engage One/DOC1GEN (Pitney Bowes), DocBridge Pilot und Queue-Processor (Compart), Böwe Bugzilla (Testmanagement), MS-Qffice, MS Visio, MS Project, XSD/XML, AFP mit Grafik, PDF, TLE
01.04.2015 — 30.06.2015
Big Data-Einführung für ein Handelsunternehmen
01.03.2015 — 30.06.2015
03/15 - 06/15 PoC, Pilot, Produktivbetrieb ab 09/15 für ein Unternehmen der Pharmaindustrie in Rheinland-Pfalz (Boehringer Ingelheim) Gemeinsame Aktivität mit AWS-Partnerunternehmen Aufgabe: DNA-Analyse Hadoop-Komponenten: Cloud AWS Big Data-Lösung, S3, Elastic MapReduce (EMR), MongoDB, Redsift, Kafka, Storm, Solv Analyse mit Datameer (Aktivität des SW-Anbieters) und R als Alternative zu SAS, IPython zur Datenaufbereitung vor Analytik mit R und Datameer Visualisierung mit Tableaus (Aktivität des SW-Anbieters)
01.03.2015 — Now
Big Data-Einführung für ein Handelsunternehmen
Big Data, Smart Data - Change, Potenziale, Herausforderungen in Marketing, Vertrieb und Kampagnenmanagement Change Management, Datenstrategien, Data Science Management, Transformationsmodell Einführungsszenarien und maßgeschneidertes Vorgehensmodell - auch smart is big Datenplattform und Technologiekomponenten (Datenhaltung, Datenzugriff, Analytik, Visualisierung, Datenintegration, Datensicherheit, Governance) Fachliche und technische Architektur Kundenpotenziale durch datengetriebene Multi-Channel-Strategie in Marketing, Vertriebskanälen und Kampagnen-management heben Renaissance des kollaborativen CRM in Datenallianzen unternehmensintern und mit externen Partnern - neue Chancen durch Datenhaltungskomponenten und Varianz Optimierung der analogen und digitalen Vertriebswege und deren Mischung Aus der Analytik neue Kundenbindungsprogramme im E-Commerce und deren Automatisierung Analytische Elemente zur Bereicherung der Produktstrategien Interaktion "Big" Data und CRM aus fachlicher und technischer Sicht Cloud- und Outsourcing-Strategien - Konzentration auf das Wesentliche Self-Service und Daten-Visualisierung
01.09.2014 — 31.05.2015
Deutsche Telekom / T-Mobile Bonn/Darmstadt
Lead Architekt
Funktion: Lead Architekt, Strategieberatung, Projektleitung, technisches Consulting (IT-Infrastruktur und Datenmodell, Bewertung Hadoop-Komponenten) Produktivbetrieb 08/15 Projekt Aktueller Status: Produktivsetzung der PoC-Ergebnisse mit Cloudera (Cloudera Enterprise mit definierten Hadoop-Komponenten) und SAS Visual Analytics 7.1 Manage&Monitoring: CDH 5.3 Cloudera Enterprise mit ZooKeeper, Oozie (alle Apache Hadoop-Komponenten sind im Cloudera-Enterprise verfügbar) Lamdba-Architektur (Storage, Batch Layer, Speed Layer) Data Management: YARN, HDFS Metadata Management: HCatalog Data Access: Datenbanken: HBase, MongoDB SQL/In Memory:HIVE(Metadaten) Spark, Impala, SAS/ACCES Interface für Impala Batch: MapReduce, Spark BatchStreaming, Sqoop (Datentransfer DWH) Script: Python, SparkShell Kafka/Storm (Trift Python) zum stream processing SAS 9.2 mit SAS Visual Analytics 7.1 Resümee aus PoC: Aktuelle Anforderung: Planung zur Produktivsetzung des PoC-Release Festlegung der anforderungsrelevanten Hadoop-Komponenten Die fachlichen Anforderungen wurden komplett erfüllt: Schnelle Verfügbarkeit über Cloud bzw. Sandbox Management-Konsolen der Anbieter vereinfachen den operativen Betrieb; weitere Integration von Apache-Hadoop-Tools sind zu erwarten Mit Spark und Impala signifikante Performancesteigerung im ETL-Prozess und der Analytik Umsetzung der Zielarchitektur mit den zur Aufgabenstellung relevanten Hadoop-Komponenten SAS mit Analytik/RealTime-Analytik) und Visualisierung der Analytik 1.Sandbox-Service der Big Data-Suite-Dienstleister Cloudera und.MapR SUSE Linux Enterprise Server 12 1.1 Technologien: In-Memory/Data Appliance, Spaltenorientierung, Kompression, Partitionierung, massiv parallele Verarbeitung 2. Klassifizierung und Auswertung unstrukturierter Massendaten (Textdateien), eMails sowie Intranet/Internet-Logfiles in Verbindung zu transaktionalen Kennzahlen aus bestehendem DWH mit einer klar definierten Zielerwartung der Fachseiten. Die Ergebnisse sind Grundlage zur Planung von Services. 3. Kriterienkatalog mit Bewertungen wie: Kosten/Lizenzmodell, Installation eines Hadoop-Cluster, Server Cluster Konfiguration und Sizing, Serviceleistungen, Sicherheit, Hosting-Services, Cloud-Services, Konnektoren zur Integration diverser Datenquellen, komplette Abbildung der Big Data-Prozesse (Datenverfügbarkeit, Analytik, Visualisierung), Entwicklungsumgebung (Eclipse), grafisches Monitoring (Scheduler und Applikationsmanager), nativer Apache-Hadoop-Code etc., Apache Hadoop Komponenten der Big Data Suite: HBase (NoSQL-DB), YARN, HDFS, MapReduce, Spark in-memory, Impala, Sqoop, Zookeeper, Search, Entry, Whirr Scriptsprachen wie HiveQL, Pig,und Python Impala (Analytik mit SQL, Flexibilität, Skalierbarkeit, Monitoring und SQL-Funktionalität - ersetzt Hadoop-Workloads über MapReduce mit signifikantem Performancegewinn). Spark als technische Alternative zu MapReduce mit signifikantem Performancegewinn In-Memory mit HDFS (APIs zu Hive, Pig, und Python bei komplexen Mappings) Spezielle Anforderungen aus der Dokumentenspeicherung und -auswertung mit MongoDB Dateiformate wie JSON (JavaScript Object Notation), XML etc. 3.1 Kooperationen mit Software-Stackanbietern (Ausschnitt: SAP, IBM, Teradata, Oracle, SAS, Informatica, Talent, Tableau) 4. Bewertung nach Anbieter nach Anbietergruppen auf Basis der Bewertungen nach Forrester Research und Barc; jedoch im Detail mit differenten Bewertungen 5. Auswahlverfahren ausschließlich im Kreis von Big Data-Suite-Dienstleistern. Entscheidung den PoC mit Cloudera und MapR durchzuführen. 6. Kooperation von Software-Stack-Anbietern wie SAS und Tableau mit Schwerpunkt Analytik, Visualisierung und Reifegrad der technischen Hadoop-Integration 7. Proof of Concept Neben der Leistungsbewertung der Big Data-Dienstleister sind die Ziele des Proof of Concepts, technische Wege in einem ersten Umsetzungsstep zur Integration neuer Daten, den Möglichkeiten von Ad-hoc-Analysen, deren Automatisierung und der Ergebnis-Visualisierung in einer Big Data-Sandbox umzusetzen. Im Zuge des PoCs wird eine Best Practice-Installationsbasis für das Big Data-Framework - Zielarchitektur der Hadoop-Komponenten - empfohlen. 7.1 SAP Dokumentation (kein PoC): SAP-HANA-Architektur und technische Abgrenzung zu Big-Data-Hadoop-Architektur 7.2 Oracle Workshop und Dokumentation (PoC mit Cloudera): Oracle Big Data Appliance (In-Memory-Option, In-Memory-Aggregation, Big Table Caching, Advanced Index Compression, Force Full Caching Mode) X4-2 / Oracle 12c released 12.1.02 / Oracle Exadata Database Machine / Oracle Big Data SQL, Data Appliance zwischen Oracle und Cloudera, Oracle Big Data SQL ersetzt Hadoop-Workloads wie HiveQL, MapReduce, Spark etc.) 7.3 BM Workshops und Dokumentation (kein PoC): Architektur und Komponenten von InfoSphere BigInsights 7.4 PoC mit Cloudera Data Hub Edition Version 5.1.3 incl. Cloudera Impala (SQL-Quries auf HDFS und HBase) Version 2.0 zur Echtzeitanalyse großer Datenmenge ohne Hive und MapReduce-Jobs; Performancetest mit Apache Spark (signifikante Performancesteigerung vs. MapReduce 7.5 Cloudera/Oracle: Oracle 12c / Oracle Exadata Cloud/ Oracle Big Data SQL PoC mit Hadoop-Datenbank Oracle 12c Exadata- statt HBase - und Oracle Big Data SQL 7.6 PoC mit MapR Enterprise Database Edition Version 3.1 und Impala (spezifische Komponente zur Verwendung des Unix-Dateisystems statt HDFS, Performancetest mit Apache Spark (signifikante Performancesteigerung vs. MapReduce 7.7 PoC mit SAS Visual Analytics 7.1 (SAS ist im IT-Betrieb etabliert) als Software-Stack-Anbieter für die Analytik und Visualisierung der Ergebnisse mit Zugriff auf HBase, Impala (Abfrage) und Oracle (DWH), SAS ist Cloudera Impala-Partner, 7.8 Bewertung und Entscheidung nach PoC mit Kriterienkatalog und Bewertungsschema (Gewichtung) 7.9 Präsentationen IT und Fachseite zum Themen Big Data-Strategie, Big-Data-Nutzen, Big Data Governance und PoC-Ergebnisse 8. Dokumente 8.1 Powerpoint-Dokumente: Einführung in Big Data Hadoop-für IT > 140 Folien mit Linkverzeichnis zu den Anbietern und Apache Hadoop, Sensibilisierung zum CAP-Theorem Einführung in Big Data-Hadoop Fachseite Management Summary Big Data-Hadoop IT und Fachseite, u.a. fachliche und technische Abgrenzung von Big Data, Analytics, Business Intelligence,sowie Reporting/Berichtswesen Strategische Ausrichtung als Koexistenz-Modell Big Data und bestehendes Data Warehouse (OLAP, Analyse, ad-Hoc, Reporting) Optimierungspotential der technischen DWH-Lösung ist abhängig vom Business Case und dem Bedarf nach 8.2 Dokumentation der PoC-Ergebnisse sowie technische Beschreibung der Installation. Architekturmodell bzw.-dokumentation mit arc42 Cloudera Data Hub Editon Version 5.1.3, Cloudra Impala Version 2.0, MapR Enterprise Database Edition Verson3.1, Oracle 12c Version 12.1.02, Oracle Exadata Cloud X2-2, Oracle Big Data SQL, SAS Visual Analytics 7.1, MongoDB 2.6.4, Eclipse, Python, Linux, Projektmanagmenttool: Cloud Microsoft VisualStudio
01.08.2014 — Now
Big Data-Lab ein Invest der AMPM GmbH weitere BI-Dienstleister
Testreihe April 2015: Erprobung Solr und ElasticSearch mit Zugriff auf HDFS Auf Hadoop/HDFS zugeschnittene Speicherformate: NumPy mit PyData,Stack (PySpark Python API, PyWeb-HDFS) und Sci Py-Stack Spark SQL, PySpark Python API (Python-Unterstützung mit Spark), Avro und Parquet HDFS / MapReduce - Migrationsstrategien nach Spark,NumPy und Sci-Py in Arbeit Zwei Kollegen analysieren ab Oktober 2014 die Features und differenzierten Elemente von: Matlab, Mahout, SAS, R / Pyton, Datameer und SPSS Dell/Intel-Cluster auf Basis Red Hat Enterprise Linux und VMware 1 Salesforce Test in der Cloud ab Januar 2014 mit Datentransfer nach Hadoop 2 Cloud Cloudera Enterprise CDH 5.3.0; weitere Tests mit Impala 5.0 Version 2.1.0 3.Cloud: Analytik mit SAS Visual Analytics 4.Cloud Oracle 12c mit Schwerpunkt Cloudera im Zusammenspiel mit Oracle Exadata (Oracle NoSQL Database 3.3.5) und Oracle Big Data SQL 5.Cloud: Informatica Powercenter (ETL und MDM) und Cloudera als Integrationslösung (MDM, Datenqualitätsmanagement) 6.Cloud Amazon AWS Big Data (S3, Redsift, DynamoDB, Kinesis vs. Kafka/Strom, Kafka/Spark) Cloud Amazon AWS HANA One 7 Cloud Microsoft Azure - erste Versuche im April 2015 8 Präsentationen: PoC, Pilotbetrieb, Strategie, Konzepte, Vorgehensmodell und Architekturen zur Big Data-Einführung Weiterbildung und Zertifizierung: Informatica Power Center und Master Data Management / Big Data Integration
01.02.2014 — 31.08.2014
PostFinance AG Schweiz
Business Analyst / Projektleiter
Im Rahmen des Entsendeabkommens zwischen der EU und der Schweiz begrenzter Einsatz über 90 Tage Remote und beim Kunden (im Durchschnitt drei Tage wöchentlich beim Kunden); durch Remote-Einsatz Verlängerung der Beratungsdauer Projekt: Optimierung der AML-Verfahren (Temenos/Bosch) mit Anforderungskatalog (fachlich) und Detailspezifikation; Datenmodellierung in Abstimmung des SW-Anbieters) Detailspezifikation (IT) der Anforderungen an FATCA mit Entscheidungsvorlage Standardlösung versus Eigenentwicklung (SAS); Datenmodellerweiterung DWH und Datenmodell FATCA-Data Mart, UML mit Visio, Architekturmodell mit arc42
01.01.2014 — 30.09.2014
LBBS Stuttgart
Vorgehensmodell zur BCBS #239-Einführung BCBS #239-Verprobung und technischer Proof of Concepts SAP HANA / Bank Analyzer / SAP Risk & Compliance vs -SAS Risk Management for Banking and Insurance / ABACUS/DaVinci - Integration ABACUS/DaVinci mit SAP Bank Analyzer Integration auf Basis SAP HANA Funktion: Projektleitung, technisches und fachliches Consulting Aufbau eines Excel-basierten Analyse- und Ergebnistemplates BCBS 239-Vorgehensmodell für GAP-Analyse (Meldewesen und Risikoreporting) zur fachlichen (Implementierungsstand Basel III, CRD IV, CRR, SolvV, MaRisk) und technischen (DWH/BI-Analyse) Bewertung; Stand (Deckungsgrad und Qualität) des Meldewesens mit ABACUS/DaVince und SAP HANA-Integration Dokumentationsstand (Vollständigkeit und Qualität) Zukünftige regulatorische Anforderungen BCBS 248 und IFRS9 Scan-GAP mit Beschreibung der fachlichen Handlungsfeldern Zielbild für Handlungsstränge "zentrales Finance Data Warehouse" PoC-Abschlussbericht mit fachlicher und technischer Empfehlung Bei Bedarf können umfangreiche zum BCBS 239- Vorgehensmodell "GAP-Analyse" und deren Ergebnistypen vorgelegt werden
01.11.2013 — 31.08.2014
Vorbereitung SAP Certified Application Associate (Edition 2014) - SAP HANA
01.01.2012 — 31.01.2014
W&W Informatik Ludwigsburg
Leader
Erfolgreiche Einführung Ende November 2013 Stabilisierungsphase und Change Requests bis Ende Januar 2014 Sonderaufgaben: - Aufwandsschätzung nach Function Point Analyse/Methode (FPA) und COCOMO, modifiziertes W&W-Modell zur Punktewertung der Transaktionstypen und Datenbestandstypen - Mitwirkung bei der Bedarfsanalyse zur SEPA-Umstellung des Zahlungsverkehrs - Mitwirkung der Konvertierungsrichtlinien von DTA nach pain, pacs und camt auf Basis von DTAUS und DATZV sowie ISO20022 und DFÜ-Abkommen Anlage 3 der Deutschen Kreditwirtschaft - Mitwirkung an der Dokumenterstellung - Erstellung des Fachkonzepts "SEPA-Umstellung des Zahlungsverkehrssystem des Konzerns - Mitwirkung -Konzept Zahlungsverkehr Projekt: Projekt-Vorbereitung SEPA Kartenzahlung - SEPA Cards Framework - auf Basis der technischen Spezifikationen der Deutschen Bundesbank für die Abwicklung von Interbanken SCC Karteneinzügen über den SEPA Clearer (SCL) des EMZ (Technische Spezifikationen SCC/SCL) - Verfahrensregeln der Deutschen Bundesbank und technische Spezifikation - Formate: pacs 002, 003, 004 und 007 sowie supl. 017 - Lastenhefte liegen bereits vor Hinweis: aus Budgetgründen wurde das Projekt verschoben; Start in 2014 geplant SEPA-Umstellung am HOST (PL/1, Cobol), Java- sowie -SAP-Umfeld (SAP, FI, CML) der Bankkernsysteme mit Online-Banking und SAP/BCA sowie CML sowie der Wertpapier- und Handelsabwicklung SEPA-Fähigkeit der Zahlungsverkehrsplattform vdB/PPM (Verfügbarkeit der relevanten SEPA-Formate pain.xxx, pacs.xxx, camt.xxx) SEPA-Umstellung der Außendienstsysteme Optimierung der TARGET2-Prozesse im ZV-System vdB/PPM Optimierung der Tages- und Nachtverarbeitung zur Datenversorgung des ZV-Systems vdB/PPM Ablösung der Eigenentwicklung "zentrales Inkasso" durch SAP FS-CD / Migration der Datenbestände aus verteilten HOST-Systemen Details: - Betroffenheitsmatrix der relevanten IT-Systeme auf Anwendungsebene - Anforderungen an das Formularmanagement und Scan-Prozesse - Prozessanalyse (Überweisungen, Lastschrift, Dialoge, Formulare, Scannen) - Architekturkonzepte auf Anwendungsebene, Fach- und DV-Konzepte der betroffenen - Zahlungsströme für Überweisungen und Lastschriften mit Mandatsverwaltung - intensive Zusammenarbeit und Verzahnung mit den betroffenen Fachseiten; > Workshops mit Fachseite und IT im Sinne von Scrum: Product Backlog, Sprint Backlog (Arbeitspakete), Sprint Planung 1 fachlich und Sprint Planung 2 IT > wöchentliche Meetings - nach Bedarf täglich - mit IT, Fachseite und bei Bedarf IT und Fachseite im Sinne von Scrum als Daily Scrum und Sprint Review - ISO20022-Zahlungsverkehrsformate in vdB/PPM auf Basis des DFÜ-Abkommens Anlage3: Spezifikation der Datenformate Version 2.7 - umsetzen - Mappingbeschreibung DTA/DTI, MT940, Verwendungszweck zu ISO20022 - Umstellung der Zahlungsprozesse vom HOST direkt nach vdB/PPM; Umstellung vom DTA- nach SEPA-Formaten aus SAP-Systemen - Ablösung der MT940-Verarbeitung mit camt.054 aus SAP-Systemen - Mappingverfahren SEPA PurposeCode und Rückgabegründe für Überweisung und Lastschrift - Integration der Zahlungsverkehrsplattform vbB/PPM der Bausparkasse und Bank - SWIFT-Service Bureau durch den Anbieter (PPM) für SWIFT-Verfahren - Umstellung der TARGET2-Datenversorgung von PPM nach Online-Verfahren der Deutschen Bundesbank - DTAZV für den nicht SEPA-Raum; Formatgenerierung aus den operativen Systemen SAP und non-SAP - fachliche und gesetzliche Anforderung aus Rolebook an Mandat und SDD sowie Umsetzung in SAP/BCA, Client/Server und HOST - SEPA-Rückläuferverarbeitung SCT und SDD (R-Transaktionen) mit Mapping nach DTA zur Weiterverarbeitung am HOST sowie zur Versorgung der SAP-Datenschnitt- stelle(ZV-Schnittstelle) - Anpassung der Verrechnungskonto im PPM (Nostro-Konten, interne Verrechnungskonten PPM-HOST, PPM-BCA, PPM-FI) - Embargo- und Vollständigskeitsprüfung im PPM - Implementierung derr Black- und Whitelist-Prüfung im PPM - Releasewechsel SAP/BCA auf EHP5 und SP9 mit allen SEPA-relevanten Hinweisen (Prüfung von über 500 SEPA-relevanten Hinweisen) - Redesign der Zahlungsverkehrsschnitte SAP/BCA - vdB/PPM im ZV-Eingang und - Ausgang - umfangreiche Testverfahren mit der Deutschen Bundesbank - Umstellung der Korrespondenz auf SEPA-Anforderungen - SAP/BCA: Realisierung Mandat und SDD; Migration der SCT- und SDD-Bestände - Einführung zur Parallelisierung (Zahlungsverkehrsschnittstelle, Tagesendverar- beitung, Monats- und Quartalabschluss) im SAP/BCA - Formatumstellung der dwpbank auf WP21-SEPA-Format - Duale Verarbeitung in DTA und SEPA für SCT in allen Bankkernsystemen - Umstellung des Beleglesers auf SEPA und pain-Eingangsverarbeitung im SAP/BCA - Redesign der Zahlungsverkehrsstatistik - alle Bank-relevanten Systeme und das ZV-System sind CORE- und COR1-fähig - Anforderungsmanagement an SAP über DSAG - Interims-Testmanagement zur SCT-Einführung und BCA-Releasewechsel - End-to-End-Test mit der Deutschen Bundesbank - Ressourcenplanung 2012 und Vorschau 2013 bis Mitte 2014 (Roadmap) - Aufbau Projektmanagement und PMO - Einsatz der Projektmanagementstandards des Konzerns SAP BCA (Enhancement Framework, BTE, BAPI), SAP-FC-CD (Ablösung der Eigenentwicklung "Zentrales Inkasso"), SAP-CML, SAP FI, Java (J2EE) - Online Banking und Auftragsverwaltung), PL/1, Format-SEPA- und IBAN-Konverter, vbB/PPM (Anbieter: van den Berg), Charity, SAP PPM, ClearQuest, SQS, dwpbank mit WP2-Format, Sfirm LBBW, MQ-Series, ARIS Projektmanagementmethode: GPM-IPMA (>300 Arbeitspakete m
Lead Architekt
eines Kundenauftrags Lead Architekt, Komponentenberatung Cloud-Lösung: SAP HANA, Cloudera, (CHD), Kafka, Flink, Talend (Spezialistenvon Infomotion) Tableau vs. SAP Lumira (Spezialisten von Infomotion) weitere Testinstallation SparxSystzms Enterprise Architect
Nordex SE Windkraftanlagen
Lead-Architekt
Impulsgeber/Coach für den Enterprise Architekturen, Projektleitung, Workshops zur Einführung von BI-Infrastrukturen und Hadoop-Komponenten Pilot und Produktivsetzung Definition der Use Cases, hybride Architektur (Data Warehouse und Hadoop-Cluster) Empfehlung der Hadoop-Komponenten, Hadoop in der Cloud (PaaS vs. SaaS) Grundlagen der Data Warehouse und Data Mart-Modellierung IT-Managementberatung mit Abstimmung auf Ebene CIO, Stellvertreter CIO, Abteilungsleiter Abstimmung und Kooperation mit Management auf der Fachseite der zweiten Führungsebene Beratung zum Aufbau einer Data Governance Blueprint zum Aufbau eines Master Data Managements; Umsetzung Start 05.2017 Blueprint und Realisierung von ersten Komponenten eines Integration Server Bus mit Mircoservices (REST API für Data Warehouse, Leitstand (Control Center):und Fehlermanagement Architektur-Blueprint zur datentechnischen Integration der Windmühlen als Basis zum Aufbau Leitstand (Control Center für Alarme und prognostisierte Alarme) Mircosoft Azure, SQL Server 2016, R-Integration SQL Server 2016, SSIS, Power BI, Hadoop mit Kafka, Spark 2.0 (R-Integration, ML; Spark Streaming, Spark SQL) Handlungsempfehlung und Umsetzung in zwei Phasenmit Produktivsetzung Pilot Phase 1: Aufbau DWH , 3-Schichten-Modell (Storage, Cleansing mit Core und BI-Services mit Data Mart, Sandbox für Analytik BI-Services für Engineering, Service, Product Strategiy und Produktion mit Microsoft Azure DWH-Komponenten (SSIS, SSAS Bower BI, MS R-Integration, MS BiZTalk, MS Master Data Management Pilot:Phase 2: Aufbau eines Hadoop-Cluster Microsoft Azure Insight Cloud SaaS WLAN-Anbindung der Windmühlen unter Datentransport < 1 Sekunde in Hadoop-Cluster mit Streaming Analytik, Visualisierung, KPI mit Spark nach DWH für Dashboards, Datenarchivierung nach Filterung der relevanten Daten für Zeitreihenanalyse Produktivbetrieb ab Mai 2017 !
Cosmos Direkt/Generali
Lead-Architekt
Definition von Use Cases; Kündigeranalyse aus eMail Textmaining, Cross Selling aus eMail Textmaining, Einbindung der Ergebnisse aus Analytik in Testkampagnen. Customer Journey mit weiteren Kennahlen für das Kampagnenmanagement Beschreibung von Alternativen SAS Enterprise Miner, SAS Textmaining auf HDFS-Cluster sowie R-Integration/Spark ML auf HDFS. Verantwortlich für die Vorstandpräsentation und Empfehlung zum weiteren Einsatz. PoC mit Cloudera, Phyhton/Spark ML, HDFS, Sqoop Produktivbetrieb seit Januar 2017 !
Projektleitung und Testmanager
Projektleitung und Testmanager im Auftrag des Generalunternehmers als Festpreisprojekt zum Aufbau eines neuen "Output-Management-System der Deka Luxemburg". Führung von Teams mit folgenden Schwerpunkten: Team des Generalunternehmers für die Komponenten der Datenversorgung Vom Generalunternehmer beauftragter Subunternehmer für die Komponenten des Druckmanagements Testteam (interne und externe Mitarbeiter) Steuerung in Konzeption, Realisierung und Qualitätssicherung: IT-Architektur, DV-Konzepte, Konsolidierung Fachkonzepte, Datenmodellierung, ETL-Framework, Berechtigungskonzepte, Betriebs- und Produktionshandbücher, Rollout-Management. Die Komponenten des Output-Managements im Detail: Erweiterung des Core-DWH mit ETL-Prozesse aus Quellsystemen Aufbau Data Mart zur Datenversorgung des Output Managements XML-Ausleistungsschicht (Datenselektion aus Auftragsmanagement Data Mart mit Beilagen und Druckersteuerung) Auftragsmanagement zur Steuerung von Aktionen Dateitransfer über TravicLink Belegerstellung mit DOC1GEN (Engage One Pitney Bowes) DocBridge Pilot (Compart) DocBridge Queue Processor (Compart) Konfiguration der Böwe-Kuvertiermaschinen Outputmanagement-Planung und-reporting (Cognos) Nagios Testmanagement mit folgenden Schwerpunkten Testkonzept (> 600 Testfälle) für Core-DWH, Data Mart, XML-Generierung, Belegwesen und Druckmanagement Bugfixing Testreporting Regressionstest Steuerung der Entwickler für das Bugfixing Projektmanagement Klassisches Projektmanagement und agile Methodik (Projekt lebt von geordneter Agilität) Projektplanung für alle Komponenten Einsatzplanung für den Generalunternehmen Tägliches Monitoring Montag bis Donnerstag (Daily Scrums) Wöchentliches JF mit Management-Projektreporting (Fachseite und IT) JF mit IT Service, IT-Produktion und IT-Architektur JF mit Fachseiten Coaching der Scrum Master Moderation Fachseite und Management Mitarbeiterführung des General- und Subunternehmers Arbeitsausschuss (monatlicher Zyklus) Risikomanagement OLYMPIC Banking System Sybase PowerDesigner, Informatica PowerCenter Version 9.0.1, Informatica B2B Data Exchange, SQL, Views/MatViews, DB2 V 9.7.03, MS SQL Server, Java, Tomcat, UNIX, XMLSpy Altova. MS Server, Webservices, Nagios, TravicLink, Filenet, Cognos 10, Engage One/DOC1GEN (Pitney Bowes), DocBridge Pilot und Queue-Processor (Compart), Böwe Bugzilla (Testmanagement), MS-Qffice, MS Visio, MS Project, XSD/XML, AFP mit Grafik, PDF, TLE
03/15 - 06/15 PoC, Pilot, Produktivbetrieb ab 09/15 für ein Unternehmen der Pharmaindustrie in Rheinland-Pfalz (Boehringer Ingelheim) Gemeinsame Aktivität mit AWS-Partnerunternehmen Aufgabe: DNA-Analyse Hadoop-Komponenten: Cloud AWS Big Data-Lösung, S3, Elastic MapReduce (EMR), MongoDB, Redsift, Kafka, Storm, Solv Analyse mit Datameer (Aktivität des SW-Anbieters) und R als Alternative zu SAS, IPython zur Datenaufbereitung vor Analytik mit R und Datameer Visualisierung mit Tableaus (Aktivität des SW-Anbieters)
Big Data-Einführung für ein Handelsunternehmen
Big Data-Einführung für ein Handelsunternehmen
Big Data, Smart Data - Change, Potenziale, Herausforderungen in Marketing, Vertrieb und Kampagnenmanagement Change Management, Datenstrategien, Data Science Management, Transformationsmodell Einführungsszenarien und maßgeschneidertes Vorgehensmodell - auch smart is big Datenplattform und Technologiekomponenten (Datenhaltung, Datenzugriff, Analytik, Visualisierung, Datenintegration, Datensicherheit, Governance) Fachliche und technische Architektur Kundenpotenziale durch datengetriebene Multi-Channel-Strategie in Marketing, Vertriebskanälen und Kampagnen-management heben Renaissance des kollaborativen CRM in Datenallianzen unternehmensintern und mit externen Partnern - neue Chancen durch Datenhaltungskomponenten und Varianz Optimierung der analogen und digitalen Vertriebswege und deren Mischung Aus der Analytik neue Kundenbindungsprogramme im E-Commerce und deren Automatisierung Analytische Elemente zur Bereicherung der Produktstrategien Interaktion "Big" Data und CRM aus fachlicher und technischer Sicht Cloud- und Outsourcing-Strategien - Konzentration auf das Wesentliche Self-Service und Daten-Visualisierung
Deutsche Telekom / T-Mobile Bonn/Darmstadt
Lead Architekt
Funktion: Lead Architekt, Strategieberatung, Projektleitung, technisches Consulting (IT-Infrastruktur und Datenmodell, Bewertung Hadoop-Komponenten) Produktivbetrieb 08/15 Projekt Aktueller Status: Produktivsetzung der PoC-Ergebnisse mit Cloudera (Cloudera Enterprise mit definierten Hadoop-Komponenten) und SAS Visual Analytics 7.1 Manage&Monitoring: CDH 5.3 Cloudera Enterprise mit ZooKeeper, Oozie (alle Apache Hadoop-Komponenten sind im Cloudera-Enterprise verfügbar) Lamdba-Architektur (Storage, Batch Layer, Speed Layer) Data Management: YARN, HDFS Metadata Management: HCatalog Data Access: Datenbanken: HBase, MongoDB SQL/In Memory:HIVE(Metadaten) Spark, Impala, SAS/ACCES Interface für Impala Batch: MapReduce, Spark BatchStreaming, Sqoop (Datentransfer DWH) Script: Python, SparkShell Kafka/Storm (Trift Python) zum stream processing SAS 9.2 mit SAS Visual Analytics 7.1 Resümee aus PoC: Aktuelle Anforderung: Planung zur Produktivsetzung des PoC-Release Festlegung der anforderungsrelevanten Hadoop-Komponenten Die fachlichen Anforderungen wurden komplett erfüllt: Schnelle Verfügbarkeit über Cloud bzw. Sandbox Management-Konsolen der Anbieter vereinfachen den operativen Betrieb; weitere Integration von Apache-Hadoop-Tools sind zu erwarten Mit Spark und Impala signifikante Performancesteigerung im ETL-Prozess und der Analytik Umsetzung der Zielarchitektur mit den zur Aufgabenstellung relevanten Hadoop-Komponenten SAS mit Analytik/RealTime-Analytik) und Visualisierung der Analytik 1.Sandbox-Service der Big Data-Suite-Dienstleister Cloudera und.MapR SUSE Linux Enterprise Server 12 1.1 Technologien: In-Memory/Data Appliance, Spaltenorientierung, Kompression, Partitionierung, massiv parallele Verarbeitung 2. Klassifizierung und Auswertung unstrukturierter Massendaten (Textdateien), eMails sowie Intranet/Internet-Logfiles in Verbindung zu transaktionalen Kennzahlen aus bestehendem DWH mit einer klar definierten Zielerwartung der Fachseiten. Die Ergebnisse sind Grundlage zur Planung von Services. 3. Kriterienkatalog mit Bewertungen wie: Kosten/Lizenzmodell, Installation eines Hadoop-Cluster, Server Cluster Konfiguration und Sizing, Serviceleistungen, Sicherheit, Hosting-Services, Cloud-Services, Konnektoren zur Integration diverser Datenquellen, komplette Abbildung der Big Data-Prozesse (Datenverfügbarkeit, Analytik, Visualisierung), Entwicklungsumgebung (Eclipse), grafisches Monitoring (Scheduler und Applikationsmanager), nativer Apache-Hadoop-Code etc., Apache Hadoop Komponenten der Big Data Suite: HBase (NoSQL-DB), YARN, HDFS, MapReduce, Spark in-memory, Impala, Sqoop, Zookeeper, Search, Entry, Whirr Scriptsprachen wie HiveQL, Pig,und Python Impala (Analytik mit SQL, Flexibilität, Skalierbarkeit, Monitoring und SQL-Funktionalität - ersetzt Hadoop-Workloads über MapReduce mit signifikantem Performancegewinn). Spark als technische Alternative zu MapReduce mit signifikantem Performancegewinn In-Memory mit HDFS (APIs zu Hive, Pig, und Python bei komplexen Mappings) Spezielle Anforderungen aus der Dokumentenspeicherung und -auswertung mit MongoDB Dateiformate wie JSON (JavaScript Object Notation), XML etc. 3.1 Kooperationen mit Software-Stackanbietern (Ausschnitt: SAP, IBM, Teradata, Oracle, SAS, Informatica, Talent, Tableau) 4. Bewertung nach Anbieter nach Anbietergruppen auf Basis der Bewertungen nach Forrester Research und Barc; jedoch im Detail mit differenten Bewertungen 5. Auswahlverfahren ausschließlich im Kreis von Big Data-Suite-Dienstleistern. Entscheidung den PoC mit Cloudera und MapR durchzuführen. 6. Kooperation von Software-Stack-Anbietern wie SAS und Tableau mit Schwerpunkt Analytik, Visualisierung und Reifegrad der technischen Hadoop-Integration 7. Proof of Concept Neben der Leistungsbewertung der Big Data-Dienstleister sind die Ziele des Proof of Concepts, technische Wege in einem ersten Umsetzungsstep zur Integration neuer Daten, den Möglichkeiten von Ad-hoc-Analysen, deren Automatisierung und der Ergebnis-Visualisierung in einer Big Data-Sandbox umzusetzen. Im Zuge des PoCs wird eine Best Practice-Installationsbasis für das Big Data-Framework - Zielarchitektur der Hadoop-Komponenten - empfohlen. 7.1 SAP Dokumentation (kein PoC): SAP-HANA-Architektur und technische Abgrenzung zu Big-Data-Hadoop-Architektur 7.2 Oracle Workshop und Dokumentation (PoC mit Cloudera): Oracle Big Data Appliance (In-Memory-Option, In-Memory-Aggregation, Big Table Caching, Advanced Index Compression, Force Full Caching Mode) X4-2 / Oracle 12c released 12.1.02 / Oracle Exadata Database Machine / Oracle Big Data SQL, Data Appliance zwischen Oracle und Cloudera, Oracle Big Data SQL ersetzt Hadoop-Workloads wie HiveQL, MapReduce, Spark etc.) 7.3 BM Workshops und Dokumentation (kein PoC): Architektur und Komponenten von InfoSphere BigInsights 7.4 PoC mit Cloudera Data Hub Edition Version 5.1.3 incl. Cloudera Impala (SQL-Quries auf HDFS und HBase) Version 2.0 zur Echtzeitanalyse großer Datenmenge ohne Hive und MapReduce-Jobs; Performancetest mit Apache Spark (signifikante Performancesteigerung vs. MapReduce 7.5 Cloudera/Oracle: Oracle 12c / Oracle Exadata Cloud/ Oracle Big Data SQL PoC mit Hadoop-Datenbank Oracle 12c Exadata- statt HBase - und Oracle Big Data SQL 7.6 PoC mit MapR Enterprise Database Edition Version 3.1 und Impala (spezifische Komponente zur Verwendung des Unix-Dateisystems statt HDFS, Performancetest mit Apache Spark (signifikante Performancesteigerung vs. MapReduce 7.7 PoC mit SAS Visual Analytics 7.1 (SAS ist im IT-Betrieb etabliert) als Software-Stack-Anbieter für die Analytik und Visualisierung der Ergebnisse mit Zugriff auf HBase, Impala (Abfrage) und Oracle (DWH), SAS ist Cloudera Impala-Partner, 7.8 Bewertung und Entscheidung nach PoC mit Kriterienkatalog und Bewertungsschema (Gewichtung) 7.9 Präsentationen IT und Fachseite zum Themen Big Data-Strategie, Big-Data-Nutzen, Big Data Governance und PoC-Ergebnisse 8. Dokumente 8.1 Powerpoint-Dokumente: Einführung in Big Data Hadoop-für IT > 140 Folien mit Linkverzeichnis zu den Anbietern und Apache Hadoop, Sensibilisierung zum CAP-Theorem Einführung in Big Data-Hadoop Fachseite Management Summary Big Data-Hadoop IT und Fachseite, u.a. fachliche und technische Abgrenzung von Big Data, Analytics, Business Intelligence,sowie Reporting/Berichtswesen Strategische Ausrichtung als Koexistenz-Modell Big Data und bestehendes Data Warehouse (OLAP, Analyse, ad-Hoc, Reporting) Optimierungspotential der technischen DWH-Lösung ist abhängig vom Business Case und dem Bedarf nach 8.2 Dokumentation der PoC-Ergebnisse sowie technische Beschreibung der Installation. Architekturmodell bzw.-dokumentation mit arc42 Cloudera Data Hub Editon Version 5.1.3, Cloudra Impala Version 2.0, MapR Enterprise Database Edition Verson3.1, Oracle 12c Version 12.1.02, Oracle Exadata Cloud X2-2, Oracle Big Data SQL, SAS Visual Analytics 7.1, MongoDB 2.6.4, Eclipse, Python, Linux, Projektmanagmenttool: Cloud Microsoft VisualStudio
Big Data-Lab ein Invest der AMPM GmbH weitere BI-Dienstleister
Testreihe April 2015: Erprobung Solr und ElasticSearch mit Zugriff auf HDFS Auf Hadoop/HDFS zugeschnittene Speicherformate: NumPy mit PyData,Stack (PySpark Python API, PyWeb-HDFS) und Sci Py-Stack Spark SQL, PySpark Python API (Python-Unterstützung mit Spark), Avro und Parquet HDFS / MapReduce - Migrationsstrategien nach Spark,NumPy und Sci-Py in Arbeit Zwei Kollegen analysieren ab Oktober 2014 die Features und differenzierten Elemente von: Matlab, Mahout, SAS, R / Pyton, Datameer und SPSS Dell/Intel-Cluster auf Basis Red Hat Enterprise Linux und VMware 1 Salesforce Test in der Cloud ab Januar 2014 mit Datentransfer nach Hadoop 2 Cloud Cloudera Enterprise CDH 5.3.0; weitere Tests mit Impala 5.0 Version 2.1.0 3.Cloud: Analytik mit SAS Visual Analytics 4.Cloud Oracle 12c mit Schwerpunkt Cloudera im Zusammenspiel mit Oracle Exadata (Oracle NoSQL Database 3.3.5) und Oracle Big Data SQL 5.Cloud: Informatica Powercenter (ETL und MDM) und Cloudera als Integrationslösung (MDM, Datenqualitätsmanagement) 6.Cloud Amazon AWS Big Data (S3, Redsift, DynamoDB, Kinesis vs. Kafka/Strom, Kafka/Spark) Cloud Amazon AWS HANA One 7 Cloud Microsoft Azure - erste Versuche im April 2015 8 Präsentationen: PoC, Pilotbetrieb, Strategie, Konzepte, Vorgehensmodell und Architekturen zur Big Data-Einführung Weiterbildung und Zertifizierung: Informatica Power Center und Master Data Management / Big Data Integration
Vorbereitung SAP Certified Application Associate (Edition 2014) - SAP HANA
LBBS Stuttgart
Vorgehensmodell zur BCBS #239-Einführung BCBS #239-Verprobung und technischer Proof of Concepts SAP HANA / Bank Analyzer / SAP Risk & Compliance vs -SAS Risk Management for Banking and Insurance / ABACUS/DaVinci - Integration ABACUS/DaVinci mit SAP Bank Analyzer Integration auf Basis SAP HANA Funktion: Projektleitung, technisches und fachliches Consulting Aufbau eines Excel-basierten Analyse- und Ergebnistemplates BCBS 239-Vorgehensmodell für GAP-Analyse (Meldewesen und Risikoreporting) zur fachlichen (Implementierungsstand Basel III, CRD IV, CRR, SolvV, MaRisk) und technischen (DWH/BI-Analyse) Bewertung; Stand (Deckungsgrad und Qualität) des Meldewesens mit ABACUS/DaVince und SAP HANA-Integration Dokumentationsstand (Vollständigkeit und Qualität) Zukünftige regulatorische Anforderungen BCBS 248 und IFRS9 Scan-GAP mit Beschreibung der fachlichen Handlungsfeldern Zielbild für Handlungsstränge "zentrales Finance Data Warehouse" PoC-Abschlussbericht mit fachlicher und technischer Empfehlung Bei Bedarf können umfangreiche zum BCBS 239- Vorgehensmodell "GAP-Analyse" und deren Ergebnistypen vorgelegt werden
PostFinance AG Schweiz
Business Analyst / Projektleiter
Im Rahmen des Entsendeabkommens zwischen der EU und der Schweiz begrenzter Einsatz über 90 Tage Remote und beim Kunden (im Durchschnitt drei Tage wöchentlich beim Kunden); durch Remote-Einsatz Verlängerung der Beratungsdauer Projekt: Optimierung der AML-Verfahren (Temenos/Bosch) mit Anforderungskatalog (fachlich) und Detailspezifikation; Datenmodellierung in Abstimmung des SW-Anbieters) Detailspezifikation (IT) der Anforderungen an FATCA mit Entscheidungsvorlage Standardlösung versus Eigenentwicklung (SAS); Datenmodellerweiterung DWH und Datenmodell FATCA-Data Mart, UML mit Visio, Architekturmodell mit arc42
W&W Informatik Ludwigsburg
Leader
Erfolgreiche Einführung Ende November 2013 Stabilisierungsphase und Change Requests bis Ende Januar 2014 Sonderaufgaben: - Aufwandsschätzung nach Function Point Analyse/Methode (FPA) und COCOMO, modifiziertes W&W-Modell zur Punktewertung der Transaktionstypen und Datenbestandstypen - Mitwirkung bei der Bedarfsanalyse zur SEPA-Umstellung des Zahlungsverkehrs - Mitwirkung der Konvertierungsrichtlinien von DTA nach pain, pacs und camt auf Basis von DTAUS und DATZV sowie ISO20022 und DFÜ-Abkommen Anlage 3 der Deutschen Kreditwirtschaft - Mitwirkung an der Dokumenterstellung - Erstellung des Fachkonzepts "SEPA-Umstellung des Zahlungsverkehrssystem des Konzerns - Mitwirkung -Konzept Zahlungsverkehr Projekt: Projekt-Vorbereitung SEPA Kartenzahlung - SEPA Cards Framework - auf Basis der technischen Spezifikationen der Deutschen Bundesbank für die Abwicklung von Interbanken SCC Karteneinzügen über den SEPA Clearer (SCL) des EMZ (Technische Spezifikationen SCC/SCL) - Verfahrensregeln der Deutschen Bundesbank und technische Spezifikation - Formate: pacs 002, 003, 004 und 007 sowie supl. 017 - Lastenhefte liegen bereits vor Hinweis: aus Budgetgründen wurde das Projekt verschoben; Start in 2014 geplant SEPA-Umstellung am HOST (PL/1, Cobol), Java- sowie -SAP-Umfeld (SAP, FI, CML) der Bankkernsysteme mit Online-Banking und SAP/BCA sowie CML sowie der Wertpapier- und Handelsabwicklung SEPA-Fähigkeit der Zahlungsverkehrsplattform vdB/PPM (Verfügbarkeit der relevanten SEPA-Formate pain.xxx, pacs.xxx, camt.xxx) SEPA-Umstellung der Außendienstsysteme Optimierung der TARGET2-Prozesse im ZV-System vdB/PPM Optimierung der Tages- und Nachtverarbeitung zur Datenversorgung des ZV-Systems vdB/PPM Ablösung der Eigenentwicklung "zentrales Inkasso" durch SAP FS-CD / Migration der Datenbestände aus verteilten HOST-Systemen Details: - Betroffenheitsmatrix der relevanten IT-Systeme auf Anwendungsebene - Anforderungen an das Formularmanagement und Scan-Prozesse - Prozessanalyse (Überweisungen, Lastschrift, Dialoge, Formulare, Scannen) - Architekturkonzepte auf Anwendungsebene, Fach- und DV-Konzepte der betroffenen - Zahlungsströme für Überweisungen und Lastschriften mit Mandatsverwaltung - intensive Zusammenarbeit und Verzahnung mit den betroffenen Fachseiten; > Workshops mit Fachseite und IT im Sinne von Scrum: Product Backlog, Sprint Backlog (Arbeitspakete), Sprint Planung 1 fachlich und Sprint Planung 2 IT > wöchentliche Meetings - nach Bedarf täglich - mit IT, Fachseite und bei Bedarf IT und Fachseite im Sinne von Scrum als Daily Scrum und Sprint Review - ISO20022-Zahlungsverkehrsformate in vdB/PPM auf Basis des DFÜ-Abkommens Anlage3: Spezifikation der Datenformate Version 2.7 - umsetzen - Mappingbeschreibung DTA/DTI, MT940, Verwendungszweck zu ISO20022 - Umstellung der Zahlungsprozesse vom HOST direkt nach vdB/PPM; Umstellung vom DTA- nach SEPA-Formaten aus SAP-Systemen - Ablösung der MT940-Verarbeitung mit camt.054 aus SAP-Systemen - Mappingverfahren SEPA PurposeCode und Rückgabegründe für Überweisung und Lastschrift - Integration der Zahlungsverkehrsplattform vbB/PPM der Bausparkasse und Bank - SWIFT-Service Bureau durch den Anbieter (PPM) für SWIFT-Verfahren - Umstellung der TARGET2-Datenversorgung von PPM nach Online-Verfahren der Deutschen Bundesbank - DTAZV für den nicht SEPA-Raum; Formatgenerierung aus den operativen Systemen SAP und non-SAP - fachliche und gesetzliche Anforderung aus Rolebook an Mandat und SDD sowie Umsetzung in SAP/BCA, Client/Server und HOST - SEPA-Rückläuferverarbeitung SCT und SDD (R-Transaktionen) mit Mapping nach DTA zur Weiterverarbeitung am HOST sowie zur Versorgung der SAP-Datenschnitt- stelle(ZV-Schnittstelle) - Anpassung der Verrechnungskonto im PPM (Nostro-Konten, interne Verrechnungskonten PPM-HOST, PPM-BCA, PPM-FI) - Embargo- und Vollständigskeitsprüfung im PPM - Implementierung derr Black- und Whitelist-Prüfung im PPM - Releasewechsel SAP/BCA auf EHP5 und SP9 mit allen SEPA-relevanten Hinweisen (Prüfung von über 500 SEPA-relevanten Hinweisen) - Redesign der Zahlungsverkehrsschnitte SAP/BCA - vdB/PPM im ZV-Eingang und - Ausgang - umfangreiche Testverfahren mit der Deutschen Bundesbank - Umstellung der Korrespondenz auf SEPA-Anforderungen - SAP/BCA: Realisierung Mandat und SDD; Migration der SCT- und SDD-Bestände - Einführung zur Parallelisierung (Zahlungsverkehrsschnittstelle, Tagesendverar- beitung, Monats- und Quartalabschluss) im SAP/BCA - Formatumstellung der dwpbank auf WP21-SEPA-Format - Duale Verarbeitung in DTA und SEPA für SCT in allen Bankkernsystemen - Umstellung des Beleglesers auf SEPA und pain-Eingangsverarbeitung im SAP/BCA - Redesign der Zahlungsverkehrsstatistik - alle Bank-relevanten Systeme und das ZV-System sind CORE- und COR1-fähig - Anforderungsmanagement an SAP über DSAG - Interims-Testmanagement zur SCT-Einführung und BCA-Releasewechsel - End-to-End-Test mit der Deutschen Bundesbank - Ressourcenplanung 2012 und Vorschau 2013 bis Mitte 2014 (Roadmap) - Aufbau Projektmanagement und PMO - Einsatz der Projektmanagementstandards des Konzerns SAP BCA (Enhancement Framework, BTE, BAPI), SAP-FC-CD (Ablösung der Eigenentwicklung "Zentrales Inkasso"), SAP-CML, SAP FI, Java (J2EE) - Online Banking und Auftragsverwaltung), PL/1, Format-SEPA- und IBAN-Konverter, vbB/PPM (Anbieter: van den Berg), Charity, SAP PPM, ClearQuest, SQS, dwpbank mit WP2-Format, Sfirm LBBW, MQ-Series, ARIS Projektmanagementmethode: GPM-IPMA (>300 Arbeitspakete m

Attachments