Die Deutsche Bundesbank ist eine besondere Bank: Ein integraler Bestandteil des Europäischen Systems der Zentralbanken mit bedeutender Funktion in der Finanzstabilität, Bankenaufsicht, Geldpolitik und im Zahlungsverkehr in Deutschland. Allem voran jedoch sind wir ein starkes Team aus zuverlässigen und verantwortungsbewussten Menschen, die mit ihrer täglichen Arbeit auch die IT-technischen Voraussetzungen für einen stabilen Euro und weitere Zentralbankaufgaben schaffen. Begleiten Sie uns auf dem Weg zu einer digitalen Zentralbank!
(Junior) Informatiker*in im Bereich Data Engineering
Frankfurt am Main
Vollzeit (Teilzeit ist grundsätzlich möglich), unbefristet
Ab sofort
Die Abteilung „Statistisches Informationsmanagement, mathematische Methoden“ ist verantwortlich für die Entwicklung, den Einsatz und die Pflege von IT-gestützten Prozessen, mathematisch-statistischen Methoden und Services für diverse Zentralbereiche der Deutschen Bundesbank.
Arbeit von besonderem Wert:
Ihr Einsatz bei uns
- Als Teil eines innovativen und wachsenden Teams treiben Sie den stetigen Ausbau der bankweiten Big Data Plattform voran und erhöhen so die Analysefähigkeit der Bundesbank
- In einem agilen Umfeld setzen Sie Data Pipelines von der Quellsystemanalyse über Datenintegration, Datentransformation und Datenbereitstellung bis zur Auslieferung an den Endnutzer kundenorientiert um
- Sie beraten Fachbereiche hinsichtlich verschiedener Nutzungsmöglichkeiten der Analyseanwendungen
- Sie gestalten die Weiterentwicklung der bankweiten Analyselandschaft aktiv mit
Besondere Werte:
Ihre Qualifikationen
- Akkreditierter Bachelor- oder gleichwertiger Studienabschluss der (Wirtschafts-)Informatik, (Wirtschafts-)Mathematik oder einer vergleichbaren Fachrichtung
- Kenntnisse in agilen Softwareentwicklungsmethoden sowie den dazugehörigen Tools
- Kenntnisse mindestens einer gängigen Programmiersprache (z. B. Scala, Java, PL SQL)
- Grundlagenkenntnisse über unterschiedliche Technologien im Bereich Big Data Engineering (z. B. Hadoop, Apache Spark) sind wünschenswert
- Von Vorteil sind Erfahrungen im Umgang mit großen Datenmengen in relationalen und nicht-relationalen Datenbanken sowie in der Datenmodellierung
- Idealerweise Erfahrungen in der Implementierung von ETL-Pipelines im Big-Data-Umfeld (z. B. mit Scala, Python oder SQL) oder mit ETL-Tools (z. B. Talend, MS SQL Integration Services)
- Kenntnisse in Self-Service BI-Tools (z. B. Power BI) sind wünschenswert
- Ausgeprägte Eigenständigkeit und hohe Einsatzbereitschaft gepaart mit Service- und Kundenorientierung
- Sehr gute Deutsch- und gute Englischkenntnisse in Wort und Schrift