arrow arrow--cut calendar callback check chevron chevron--large cross cross--large download filter kununu linkedin magnifier mail marker menu minus Flieger phone play plus quote share xing

Big Data Engineer (w/m/d)

Verstärke als Big Data Engineer (w/m/d) unser Team in Köln oder Frankfurt! Mit deiner Expertise baust du Data Pipelines für die Data Lakes sowie modernen DWHs unserer Kunden.

Das werden deine Aufgaben sein

  • Du stehst in direktem Austausch mit der Fachabteilung oder Business Analyst*innen und setzt deren Anforderungen in ein passendes Design um 
  • Du unterstützt bei der Konzeption und Implementierung von modernen Data Pipelines
  • Du realisierst die Datenintegration in den gängigen Enterprise Tools mit Python, Scala oder anderen Sprachen 
  • Du bist Teamplayer im Big Data-Team und bestichst in der engen Zusammenarbeit mit dem BI- und Data Science-Team 
Benefits Cologne Intelligence

Das haben wir zu bieten

  • Viel Spielraum, dein Wissen und Können einzubringen und zu erweitern 
  • Unsere Überzeugung, dass dein Wissenshunger gestillt werden sollte: Du willst Bücher? Bestellen wir dir! Du möchtest auf eine Konferenz oder Weiterbildung? Dann fährst du hin! Du bist Autodidakt*in und lernst mit Udemy? Dein Business-Account ist dir sicher! 
  • Unser Selbstverständnis, dass Wissen wächst, wenn man es teilt: Dir wird unser Open Friday sicherlich gefallen ;-) 
  • Den Grundsatz, dass uns deine Zeit kostbar ist: Wir arbeiten zu vernünftigen Zeiten, Meetups sind Arbeitszeit und mit einem Sabbatical nimmst du dir bei Bedarf eine Auszeit 
  • Spannende Projekte OHNE dabei den Koffer packen zu müssen. Wir arbeiten regional, geschlafen wird also zu Hause und Homeoffice gehört nicht erst seit 2020 zu unserer Arbeitsweise
  • Modernes Equipment mit freier Wahl von OS und Hardware 

Darauf freuen wir uns bei dir

  • Praktische Erfahrung im Data Engineering 
  • Deine Sprache der Wahl sollte Python oder Scala sein und darüber hinaus freust du dich, weitere zu lernen
  • Erfahrung in Cloud-Umgebungen wie Azure, AWS oder GCP
  • Grundlegendes Know-how zur Datenintegration (ETL/ELT Data Pipelines) für Data Lakes oder moderne DWHs
  • Begeisterung für Daten, Analysen, Technik und die Antwort auf alle Fragen
  • Fließende Deutschkenntnisse (≥ C1) für unsere auf Deutsch stattfindenden Kundensituationen und wenn auch mal Englisch gesprochen wird, kommst du damit zurecht 
  • Ein Plus aber kein Muss: Erfahrung in Streaming Pipelines, Azure Synapse, AWS Glue, Apache Airflow, Wissen um Azure Data Factory, Databricks oder Spark

Und jetzt kommst du (zu uns)

Das klingt nach dem richtigen Job in der richtigen Company für dich? Großartig, dann freuen wir uns, etwas mehr von dir zu erfahren. Du kannst uns deine Unterlagen entweder klassisch per E-Mail zukommen lassen oder du nutzt die komfortable Variante mit Lebenslauf-Upload über den "Jetzt bewerben"-Button.

Bei Fragen kannst du dich auch gerne an Antoine wenden oder du schaust bei unserem nächsten Open Friday vorbei.

Übrigens, passend zu unserer Unternehmenskultur sind wir direkt ins „Du“ geswitcht. Also darfst auch du gerne alle Ansprechpartner*innen bei uns im Unternehmen duzen. It's up to you : )

Für uns sind Daten mehr als Nullen und Einsen. Sie sind die Basis für wertvolle Informationen, die Entscheidungen im Unternehmen unterstützen. Wir entwickeln Business-Intelligence-Lösungen, die Unternehmen zu jeder Zeit mit den besten Informationen versorgen.

Johannes Schröter, Geschäftsführer CI Decision Design

Sprich uns an!