Lavoro Sql a distanza a -frankfurt-am-main ∙ Pagina 1

15 Lavori a distanza e a domicilio online

Lead Data Engineer (m/w/d)

Devoteam · Frankfurt am Main, Germania · Hybrid

  • Professional
  • Ufficio in Frankfurt am Main
Candidarsi ora
Company Description:

Wir fördern Dein persönliches Wachstum, gemeinsamen Erfolg und neue Innovationen.

Mit über 25 Jahren Erfahrung, mehr als 10.000 Tech- und Business-Experten weltweit und rund 5.000 Zertifizierungen sind wir ein führendes, technologieungebundenes Beratungs- und Dienstleistungsunternehmen. Unser Schwerpunkt liegt auf der Realisierung digitaler Strategien durch den Einsatz von Plattformtechnologien, Cybersicherheit und umfassenden Unternehmenstransformationen. Als strategischer Partner führender SaaS- und Cloud-Anbieter wie AWS, Google Cloud, Microsoft, ServiceNow, Salesforce und SAP kombinieren wir innovative Softwarelösungen mit erstklassigen Professional Services, um für unsere Kunden echten Mehrwert zu schaffen.

Gemeinsam mit Dir gestalten wir die digitale Zukunft und entwickeln visionäre, integrierte Lösungen für unsere Kunden.

#AI DRIVEN TECH CONSULTING

Deine Benefits

  • Moderne Büros in Toplage in München, Frankfurt und Stuttgart
  • Flexibles Remote- oder Hybrid Working mit der Möglichkeit, Deine Arbeitszeiten und Arbeitsorte individuell auf Deine Bedürfnisse anzupassen
  • Unsere Devoteam Academy bietet Dir ein großes Angebot an zertifizierten Trainings und Sprachkursen
  • Internationale Entwicklungsmöglichkeiten für Deinen Karriereboost bei Devoteam
  • Gaming-Lounge für Deine kreative Pause zwischen Meetings und Calls
  • Get-Together Partys und Teamevents für den regelmäßigen Austausch und Spaß mit Deinen Kollleg:innen
  • Mitarbeiter:innen-Prämien beim Werben von neuen Mitarbeiter:innen
  • Moderne IT-Ausstattung - Wähle aus einer Vielzahl von Möglichkeiten das für Dich passende Produkt
  • Corporate Benefits mit großer Auswahl an zahlreichen Angeboten für nahezu jeden Bereich
  • Jobrad und Firmenwagen Angebot mit attraktiven steuerlichen Vorteilen für Dich
  • Betriebliche Altersvorsorge, Direktversicherungen und vermögenswirksame Leistungen stehen Dir als Zusatzleistungen zur Verfügung
  • Integration Day inkl. Mentorenprogramme für Deinen perfekten Start bei Devoteam
Job Description:

 

Deine Aufgaben

  • Design und Entwicklung: Du konzipierst, entwickelst und betreibst skalierbare Datenpipelines auf modernen Cloud-Datenplattformen wie Snowflake, Databricks, Google Cloud (BigQuery) oder Azure.
  • Datenkonsolidierung: Du konsolidierst strukturierte und unstrukturierte Daten in zentrale Data Lakes und Warehouses, um sie für BI- und KI-Anwendungen nutzbar zu machen.
  • Datenmodellierung: Du implementierst robuste Datenmodelle und Speicherarchitekturen (z. B. Stern-Schema, Snowflake-Schema, Medallion-Architektur).
  • Data Governance & Qualität: Du stellst die Datenintegrität, -qualität, -sicherheit und Governance über den gesamten Datenlebenszyklus sicher (Data Lineage).
  • Automatisierung (CI/CD): Du automatisierst Workflows und Deployments mit gängigen CI/CD-Tools (z. B. GitHub Actions, GitLab CI, Jenkins).
  • Anforderungsanalyse: In enger Zusammenarbeit mit den Fachbereichen übersetzt Du deren Anforderungen in tragfähige technische Lösungen.
  • Optimierung: Du optimierst die Performance und Kosteneffizienz der Dateninfrastruktur kontinuierlich.
  • Strategischer Aufbau: Perspektivisch wirkst Du maßgeblich beim Aufbau und der strategischen Weiterentwicklung unseres zentralen Data & AI Bereichs mit und gestaltest dessen technologische Ausrichtung.

Beispiele Deiner zukünftigen Projekte

  • Modernisierung von Legacy-ETL-Workflows mithilfe von cloud-nativen Diensten und Frameworks wie dbt.
  • Aufbau von semantischen Datenmodellen für unternehmensweites Business Intelligence (Stern-/Snowflake-Schema).
  • Konzeption von Ingestion-Strecken nach der Medallion-Architektur für Batch- oder Echtzeitanalysen.
  • Bereitstellung von kuratierten und qualitativ hochwertigen Datenprodukten für BI- und KI-Anwendungsfälle.
Qualifications:

Das bringst Du mit:

  • Erfahrung: Mindestens 3 Jahre relevante Projekterfahrung als Data Engineer. Du kommst idealerweise aus einem Konzernumfeld oder einem Produktunternehmen und bringst eine "Inhouse"-Perspektive auf den Aufbau und Betrieb von Datenplattformen mit.
  • Sprachen: Sehr gute Deutsch- und Englischkenntnisse in Wort und Schrift.
  • SQL-Expertise: Exzellente Kenntnisse in SQL, inklusive Performance-Tuning.
  • Datenmodellierung: Fundierte Erfahrung in der dimensionalen Datenmodellierung und mit modernen ETL/ELT-Mustern (z. B. Medallion-Architektur).
  • Tech-Stack: Praktische Erfahrung mit gängigen Tools und Services für Datenintegration und -verarbeitung, wie z.B. dbt, Spark, Airflow und Cloud-Services wie AWS Glue, Google Dataflow oder Azure Data Factory.

Pluspunkte sammelst Du mit:

  • Erfahrung mit gängigen BI-Tools wie Tableau, Power BI oder Looker.
  • Kenntnisse im Bereich Data Mesh oder anderer dezentraler Datenarchitekturen.
  • Erfahrung mit Technologien wie Delta Lake, Apache Iceberg, Unity Catalog oder Feature Stores.

Deine Persönlichkeit

  • Kommunikationsstärke: Ausgeprägte Kommunikations- und Dokumentationsfähigkeiten in Deutsch und Englisch.
  • Arbeitsweise: Eine agile und ergebnisorientierte Denkweise.
  • Teamplayer: Du arbeitest ebenso gerne kollaborativ im Team wie auch eigenverantwortlich.
  • Analytisches Denken: Deine analytische Denkweise ist stets auf die Wertschöpfung für das Unternehmen ausgerichtet.
  • Übersetzer: Du besitzt die Fähigkeit, geschäftliche Anforderungen in technische Lösungen zu übersetzen.
  • Agilität: Du hast bereits Erfahrung in agilen, funktionsübergreifenden Teams gesammelt.
Additional Information:

You will be part of a collaborative, remote-friendly team that values continuous learning and
delivering impact through modern cloud-native data solutions.