Designer-Jobs für Data

230 Stellen für Data

Data Security Analyst Budapest

For a perfect match, you need:   Very good command of Microsoft PurviewIn-depth knowledge of data protection concepts: classification, DLP, information protection, retention/records, encryption, access governanceVery good understanding of data flows in modern collaboration/cloud environments and typical leakage scenariosExperience with policy design, rollout strategies, exception processes, and effectiveness measurementKnowledge of relevant standards/frameworks and governance requirements (e.g., data protection, auditability, control evidence)Analytical skills for evaluating alerts/findings, trend analyses, KPI reportingIn your job: Own and develop data security policies and controls (classification, DLP, retention, encryption) Design and optimize DLP and information protection measures (email, endpoints, cloud, collaboration tools) Identify sensitive data and assess exposure risks Monitor and improve the effectiveness of data protection measures Define retention and lifecycle requirements in cooperation with Legal & Compliance Create guidelines, training materials, and incident runbooks Collaborate closely with IT, Privacy, Legal, Cloud, and business teams

Stellenangebot Data Security Analyst ansehen

Data Analyst (m/w/d) - Supply Data Solutions - onsite in Hamburg Hamburg (hybrid)

What you will do Gather, analyze, and interpret data to fulfill reporting requests from business stakeholders Translate complex data into clear, actionable insights that support business strategy Support ad hoc analysis and contribute to data-driven decision-making Automate routine reporting processes and maintain existing reports to ensure reliability and improve data workflows Maintain, design, and implement advanced dashboards using tools like Google Looker Studio, enabling self-service analytics across the organization Collaborate with data engineers, data scientists, and stakeholders across the organization to ensure data quality and consistency while delivering data-driven insights that support supply-related business decisions Communicate findings effectively to technical and non-technical audiences Foster a data-driven culture within the organization, promoting the use of analytics in decision-making processes Who you are You have at least 1-2 years of experience as a Data Analyst Proficiency in SQL for complex data analysis, reporting, and querying large datasets Experience with Google BigQuery Experience with data visualization tools (e.g., Looker Studio, Excel, or similar) to create compelling dashboards and reports Excellent communication skills in English Ability to translate fuzzy business requirements from diverse stakeholders into analytical requirements.

Stellenangebot Data Analyst (m/w/d) - Supply Data Solutions - onsite in Hamburg ansehen

IT Data Engineer (M/F) Bolzano, IT

As an IT Data Engineer, you will contribute to discover insights about our customers and internal operations, by designing and implementing data pipelines and models, as well as maintaining and improving existing ones, so that you and your team can accelerate business experimentation and influence data-driven-augmented decision making. Tasks & Responsibilities Design and implement data pipelines to extract, transform, and load data from various sources, including databases, cloud storage, and APIs.

Stellenangebot IT Data Engineer (M/F) ansehen

IT Data Engineer (M/F) Bolzano, IT

As an IT Data Engineer, you will contribute to discover insights about our customers and internal operations, by designing and implementing data pipelines and models, as well as maintaining and improving existing ones, so that you and your team can accelerate business experimentation and influence data-driven-augmented decision making.   Tasks & Responsibilities   Design and implement data pipelines to extract, transform, and load data from various sources, including databases, cloud storage, and APIs.

Stellenangebot IT Data Engineer (M/F) ansehen

Data Engineer (m/f/d) Austria

Manage and refine business and technical requirements in collaboration with stakeholders Coordinate data integration activities with various source systems Design and model data structures within a Data Warehouse environment, with a strong focus on Data Vault methodology Develop and optimize data pipelines using SQL and Python Work with tools like Databricks and dbt to build scalable data transformation workflows Ensure data quality, consistency, and compliance, especially within banking-related use cases Experience in requirements management Experience in coordination with source systems Experience with data modeling in a Data Warehouse environment: Focus on Data Vault Good German and English language skills Databricks experience is nice to have Experience with dbt (data build tool) is an advantage Experience with SQL (as a query language) and Python is an advantage Banking experience is an advantage Renowned client Remote work Ihr Kontakt Ansprechpartner Florian Pracher Referenznummer 863466/1 Kontakt aufnehmen E-Mail: florian.pracher@hays.at Anstellungsart Freiberuflich für ein Projekt

Stellenangebot Data Engineer (m/f/d) ansehen

Data Scientist (all genders) DE

Location: Mobile work (Germany-wide)   What you’ll do Empower customers: Identify, design, and implement data‑ and AI‑driven use cases for external clients across diverse industries. Build the backbone: Collaborate with other Data Engineers to enhance and integrate solutions into existing data and platform architectures.

Stellenangebot Data Scientist (all genders) ansehen

Data Engineer (m/f/d) Kleinmachnow

Give it a try and learn what the market has to offer – our services are free of charge, non-binding and discreet! We look forward to hearing from you. Design, build, and optimize batch data pipelines for internal tool use cases Develop efficient Spark SQL transformations for large-scale datasets Use Python for data processing, orchestration, and automation Create and maintain data models (facts, dimensions, aggregates) with clear grain and metric definitions Ensure data quality and correctness, including handling late data, duplicates, and adjustments Implement validation, data quality checks, and reconciliation logic Work with business stakeholders to gather requirements, define metrics, and translate needs into pipelines Collaborate with infrastructure teams on standards, performance tuning, and best practices Bachelor oder Master degree in a technical field or an equivalent qualification Experience in data engineering or a related field Strong proficiency in Spark SQL for large-scale data transformations Solid Python skills for data processing and pipeline development Strong understanding of data modeling (fact tables, dimensions, grain, SCDs) Hands-on experience building and maintaining batch pipelines in production High attention to detail with a strong focus on data quality and metric integrity Ability to communicate clearly with non-technical stakeholders and translate business needs into data solutions Remuneration in the most attractive collective agreement in the industry Annual leave entitlement of 30 days Generous working time account with the possibility to pay overtime Subsidization of direct insurance (as company pension scheme) Ihr Kontakt Ansprechpartner Kristina Meng Referenznummer 863942/1 Kontakt aufnehmen E-Mail: kristina.meng@hays.de Anstellungsart Anstellung bei der Hays Professional Solutions GmbH

Stellenangebot Data Engineer (m/f/d) ansehen

Data Engineer (m/f/d) Kleinmachnow

Give it a try and learn what the market has to offer – our services are free of charge, non-binding and discreet! We look forward to hearing from you. Design, build, and optimize batch data pipelines for internal tool use casesDevelop efficient Spark SQL transformations for large-scale datasetsUse Python for data processing, orchestration, and automationCreate and maintain data models (facts, dimensions, aggregates) with clear grain and metric definitionsEnsure data quality and correctness, including handling late data, duplicates, and adjustmentsImplement validation, data quality checks, and reconciliation logicWork with business stakeholders to gather requirements, define metrics, and translate needs into pipelinesCollaborate with infrastructure teams on standards, performance tuning, and best practices Bachelor oder Master degree in a technical field or an equivalent qualificationExperience in data engineering or a related fieldStrong proficiency in Spark SQL for large-scale data transformationsSolid Python skills for data processing and pipeline developmentStrong understanding of data modeling (fact tables, dimensions, grain, SCDs)Hands-on experience building and maintaining batch pipelines in productionHigh attention to detail with a strong focus on data quality and metric integrityAbility to communicate clearly with non-technical stakeholders and translate business needs into data solutions Remuneration in the most attractive collective agreement in the industry Annual leave entitlement of 30 days Generous working time account with the possibility to pay overtime Subsidization of direct insurance (as company pension scheme) Ihr Kontakt Ansprechpartner Kristina Meng Referenznummer 863942/1 Kontakt aufnehmen E-Mail: kristina.meng@hays.de Anstellungsart Anstellung bei der Hays Professional Solutions GmbH

Stellenangebot Data Engineer (m/f/d) ansehen

Data Engineer with Data Vault 2.0 (Only Nearshore) (m/f/d) Remote

Automation of data subject information processes from intake to response and Objection handling and individual case deletion Integration of Broker Channel and Data Product and voice transcripts into the Data Product DataProduct Information: JSON test feedback / change requests Integration of customer interests (CSC) into the DataProduct for data subject rights Design, adaptation, and implementation of database architecture Independent migration of existing data and structures into the new Core Data Warehouse Logical and technical modeling of Raw and Business Vault Creation of complex business transformations using SQL based on business requirements Analysis and implementation of existing transformation logic for Data Vault 2.0 Experience with Data Vault is necessary DBT and SQL expertise is necessary Snowflake expertise is advantageous Start Date: asap Language: german Remote option Ihr Kontakt Referenznummer 863903/1 Kontakt aufnehmen Telefon:+ 49 621 1788-4297 E-Mail: positionen@hays.de Anstellungsart Freiberuflich für ein Projekt

Stellenangebot Data Engineer with Data Vault 2.0 (Only Nearshore) (m/f/d) ansehen

Data Engineer - Finance Data Hub (gn) full-/part-time (hybrid) Ratingen

What makes you stand out You hold a degree in Computer Science, Business Informatics, or a comparable qualification.You have strong expertise in SQL databases, including data modeling, table design, and data querying — ideally with experience in Snowflake.You bring experience in developing and integrating data products and are familiar with Azure Data Factory, Python, and modern cloud technologies (preferably Azure).You have hands‑on experience creating meaningful Power BI reports; knowledge of CI/CD or container technologies (e.g., Docker, Kubernetes) is a plus.You work analytically, communicate effectively, collaborate well in teams, and demonstrate a strong hands‑on mentality.You are fluent in English and have very good German skills; you also have a passion for financial databases and enjoy exploring new topics.

Stellenangebot Data Engineer - Finance Data Hub (gn) full-/part-time (hybrid) ansehen

Senior Data Engineer (m/w/d) Hamburg, DE, 22419

As Senior Data Engineer (m/w/d) , you design and operate scalable data pipelines and architectures that support Nordex analytics, reporting and machine learning solutions. You work closely with data scientists and engineering teams to deliver robust, high‑quality datasets.

Stellenangebot Senior Data Engineer (m/w/d) ansehen

Senior Data Engineer (m/w/d) Hamburg, DE, 22419

As Senior Data Engineer (m/w/d), you design and operate scalable data pipelines and architectures that support Nordex analytics, reporting and machine learning solutions. You work closely with data scientists and engineering teams to deliver robust, high‑quality datasets.

Stellenangebot Senior Data Engineer (m/w/d) ansehen

Senior Consultant (m/w/d) Data Warehouse Design | Senior Data Analyst Nürnberg,Home Office

MID – Driving Continuous Transformation     Für spannende Projekteinsätze bei unseren Kunden suchen wir erfahrene Consultants mit BI Expertise.In Deiner Position als Senior Consultant Data Warehouse / Senior Data Analyst erwarten Dich abwechslungsreiche und anspruchsvolle Tätigkeiten entlang des gesamten Prozesses der Softwareentwicklung in Projekteinsätzen bei unseren KundenEigenverantwortlich stimmst Du die unterschiedlichen Anforderungsspezifikationen mit unseren Kunden und Fachabteilungen ab, analysierst und konzipierst die Datenaufbereitungsprozesse von der Schnittstelle bis hin zur KennzahlDabei beschäftigst Du Dich mit der Entwicklung/Aufbau von relationalen und multidimensionalen Datenbanken mit dem Ziel eines einheitlichen DatenbestandesDu optimierst bestehende Systemlösungen im Kontext Data WarehouseDu gestaltest die Architektur und das Design des Data Warehouse und entwickelst moderne Lösungen für ein Datenmodell.Du hast ein Studium im Bereich (Wirtschafts-)Informatik oder einem anderen Studiengang mit IT und/oder Informatik Fokus abgeschlossen, alternativ verfügst du über eine vergleichbare Qualifikation mit entsprechender IT-Affinität und bestenfalls Bezug zu ControllingDu bringst mindestens 5 Jahre Berufserfahrung in agilen Business Intelligence- oder in Data Warehouse-Projekten mit und bist dabei mit der Umsetzung von DSGVO-konformen DWH-Lösungen in Berührung gekommen.Du verfügst über Berufserfahrung im Design von ETL-Prozessen und Datenstrukturen, insbesondere im Umgang mit sehr großen Datenmengen und bist sicher im Umgang mit SQLMehrjährige Erfahrung in der Konzeption von ETL/ELT-Prozessen sowie ein Bewusstsein für DWH-Architekturen zeichnen dich aus.Du bringst Erfahrung in der Gestaltung von Schnittstellen zum DWH mit und hast bestenfalls bereits eventbasierte Schnittstellen mit Apache Kafka designt.Du überzeugst uns mit konzeptionellen Fähigkeiten und einem prozessualen und analytischen Denkvermögen und verfügst über verhandlungssichere Deutschkenntnisse. 

Stellenangebot Senior Consultant (m/w/d) Data Warehouse Design | Senior Data Analyst ansehen

Senior Consultant (m/w/d) Data Vault Nürnberg,Home Office

MID – Driving Continuous Transformation     Mit der zunehmenden Bedeutung der Datenverarbeitung in der Cloud suchen wir nach einem erfahrenen Data Vault Consultant, der uns bei der Implementierung und Optimierung von Data Vault Lösungen in einer Cloud-Umgebung unterstützt.Du entwirfst und implementierst skalierbare Data Vault 2.1-Modelle.Dabei designst, modellierst und entwickelst Du Datenintegrationslösungen, die auf Best Practices im Bereich Data Vault basieren.Zur Sicherstellung einer reibungslosen Datenpipeline arbeitest Du eng mit den Data Engineering und BI-Teams zusammen.Du beteiligst Dich an Datenqualitätsprüfungen, Validierungen und Governance-Praktiken.Die Analyse von Kundenanforderungen und Übersetzung in skalierbare und robuste Architekturen gehören ebenfalls zu Deinen Aufgaben.Du unterstützt bei der Migration bestehender Lösungen in die Cloud.Du unterstützt die Geschäftsberichterstattung und -analyse durch sauber versionierte Data MartsAußerdem schulst und coachst Du Teams in Data Vault Methodiken und Best Practices in den jeweiligen Cloud Umgebungen.Dein Studium mit dem Schwerpunkt Informatik / Wirtschaftsinformatik, Mathematik, MINT-Fächern oder eine vergleichbare Qualifikation hast Du abgeschlossen.Du konntest bisher mindestens 5 Jahre Erfahrung in der Modellierung und Implementierung von Data Vault Lösungen in Produktionsumgebungen sammeln und bringst fundierte Kenntnisse in der Arbeit mit Cloud-Datenplattformen (z.

Stellenangebot Senior Consultant (m/w/d) Data Vault ansehen

Data Quality & BI Governance Manager (w/m/d) Borken

Stellenbeschreibung Mitwirkung in Data-Governance-Programmen und -Initiativen, um die Verwaltung von Daten in Übereinstimmung mit unternehmensweiten Standards sowie regulatorischen Anforderungen sicherzustellenEtablierung und Erweiterung des unternehmensweiten Data Catalog, einschließlich aktiver Mitgestaltung der Nutzung und Einführung von Data Glossary und Data Lineage, mit dem Ziel, eine konsistente und nachvollziehbare Datenbasis zu schaffen und die Fachbereiche beim Onboarding zu unterstützen Design und Implementierung von Datenqualitätsprüfungen und -metriken, für die Sicherstellung der Korrektheit, Konsistenz und Vertrauenswürdigkeit geschäftsrelevanter Daten Verantwortung für die Qualität unternehmensweiter KPI, durch Definition, Validierung und kontinuierliche Überwachung, in enger Abstimmung mit den Fachbereichen zur Etablierung einheitlicher KPI-Standards und zur Förderung datengetriebener Entscheidungen Überwachung und Analyse von Datenqualitätsproblemen sowie Entwicklung geeigneter Lösungsansätze, zur kontinuierlichen Verbesserung der Datenintegrität Mitwirkung an der Entwicklung von Governance-Richtlinien und Verfahren für das Datenmanagement, insbesondere im Hinblick auf Datenklassifizierung, Datensicherheit und Datenschutz, durch die Weiterentwicklung von Zugriffsrechten und die Sicherstellung der Einhaltung gesetzlicher Vorgaben wie der DSGVO Durchführung von Schulungen für Nutzer und Stakeholder, mit dem Ziel, internes Wissen über Richtlinien und Verfahren des Datenmanagements sowie zur Datenqualität aufzubauen und zu festigen Enge Zusammenarbeit mit relevanten Fachbereichen, für den Aufbau und die Pflege einer leistungsfähigen, zukunftsfähigen Infrastruktur im Bereich Datenmanagement und -qualität  Qualifikationen Abschluss eines Hochschulstudiums im Bereich Informatik, Data Science oder Wirtschaftsinformatik oder gleichwertige Kenntnisse, kombiniert mit einem ausgeprägten Interesse an technischen und rechtlichen Fragestellungen rund um Data Governance und Data Quality Erfahrung in der Arbeit mit Data-Governance-Lösungen, insbesondere mit Data Catalogs, Data Glossaries und Data Lineage-Systemen Verständnis von Datenmanagement-Praktiken, Methoden und Tools, zum Beispiel im Umfeld von Snowflake, Atlan, dbt oder Azure Data Factory Ausgeprägte Projektmanagement-Kompetenz, für die eigenständige Planung, Überwachung und Umsetzung von Datenqualitäts- und Governance-Initiativen Sehr gute analytische Fähigkeiten und ein sicheres Gespür für die Identifikation und Behebung von Datenproblemen, zur Gewährleistung einer verlässlichen Datenbasis Hohe Kommunikationsstärke, um Stakeholder gezielt zu beraten und für Datenqualitäts- und Governance-Themen zu sensibilisieren Technisches Verständnis in den Bereichen Datenbankarchitektur, Datenintegration und Datenmodellierung Vorkenntnisse in Business-Intelligence-Tools wie QlikSense, Tableau oder Power BI sowie in Programmiersprachen wie Python, R, SQL und Datenbanksystemen wie Snowflake, Oracle, SQL Server oder MySQL Zusätzliche Informationen Unser Portfolio ist auf deine Bedürfnisse zugeschnitten.

Stellenangebot Data Quality & BI Governance Manager (w/m/d) ansehen

Teammanager Data Hub Sales (gn) Vollzeit/Teilzeit (hybrid) Ratingen

What you can expect You take on the functional and disciplinary responsibility for all FTEs in the Sales Data Hub within the federated data setup, including Data Engineers, Data Scientists, Data Governance roles and Product Owners Data.You define, design, develop, and operate cloud‑based data products for the Sales, Marketing, and Customer Service business units.You are responsible for the methodological integration of data assets and data products.You manage the Sales Data Hub operationally and further develop it as a specialized unit for data‑driven solutions in Sales, Marketing, and Customer Service.You are responsible for the further development and ongoing maintenance of all sales‑related models based on feedback and requirements from the sales organization.You lead projects related to planning, expanding, and organizing new and existing products in collaboration with the relevant business units and external partners.You assume technical responsibility for data products developed by or for the Sales, Marketing, and Customer Service areas within the Data Intelligence & Analytics team.You drive the continuous expansion, professionalization, and organizational development of the Sales Data Hub within the existing governance and organizational framework.  

Stellenangebot Teammanager Data Hub Sales (gn) Vollzeit/Teilzeit (hybrid) ansehen

Data Quality and BI Governance Manager (w/m/d) Düsseldorf

Stellenbeschreibung Mitwirkung in Data-Governance-Programmen und -Initiativen, um die Verwaltung von Daten in Übereinstimmung mit unternehmensweiten Standards sowie regulatorischen Anforderungen sicherzustellenEtablierung und Erweiterung des unternehmensweiten Data Catalog, einschließlich aktiver Mitgestaltung der Nutzung und Einführung von Data Glossary und Data Lineage, mit dem Ziel, eine konsistente und nachvollziehbare Datenbasis zu schaffen und die Fachbereiche beim Onboarding zu unterstützen Design und Implementierung von Datenqualitätsprüfungen und -metriken, für die Sicherstellung der Korrektheit, Konsistenz und Vertrauenswürdigkeit geschäftsrelevanter Daten Verantwortung für die Qualität unternehmensweiter KPI, durch Definition, Validierung und kontinuierliche Überwachung, in enger Abstimmung mit den Fachbereichen zur Etablierung einheitlicher KPI-Standards und zur Förderung datengetriebener Entscheidungen Überwachung und Analyse von Datenqualitätsproblemen sowie Entwicklung geeigneter Lösungsansätze, zur kontinuierlichen Verbesserung der Datenintegrität Mitwirkung an der Entwicklung von Governance-Richtlinien und Verfahren für das Datenmanagement, insbesondere im Hinblick auf Datenklassifizierung, Datensicherheit und Datenschutz, durch die Weiterentwicklung von Zugriffsrechten und die Sicherstellung der Einhaltung gesetzlicher Vorgaben wie der DSGVO Durchführung von Schulungen für Nutzer und Stakeholder, mit dem Ziel, internes Wissen über Richtlinien und Verfahren des Datenmanagements sowie zur Datenqualität aufzubauen und zu festigen Enge Zusammenarbeit mit relevanten Fachbereichen, für den Aufbau und die Pflege einer leistungsfähigen, zukunftsfähigen Infrastruktur im Bereich Datenmanagement und -qualität  Qualifikationen Abschluss eines Hochschulstudiums im Bereich Informatik, Data Science oder Wirtschaftsinformatik oder gleichwertige Kenntnisse, kombiniert mit einem ausgeprägten Interesse an technischen und rechtlichen Fragestellungen rund um Data Governance und Data Quality Erfahrung in der Arbeit mit Data-Governance-Lösungen, insbesondere mit Data Catalogs, Data Glossaries und Data Lineage-Systemen Verständnis von Datenmanagement-Praktiken, Methoden und Tools, zum Beispiel im Umfeld von Snowflake, Atlan, dbt oder Azure Data Factory Ausgeprägte Projektmanagement-Kompetenz, für die eigenständige Planung, Überwachung und Umsetzung von Datenqualitäts- und Governance-Initiativen Sehr gute analytische Fähigkeiten und ein sicheres Gespür für die Identifikation und Behebung von Datenproblemen, zur Gewährleistung einer verlässlichen Datenbasis Hohe Kommunikationsstärke, um Stakeholder gezielt zu beraten und für Datenqualitäts- und Governance-Themen zu sensibilisieren Technisches Verständnis in den Bereichen Datenbankarchitektur, Datenintegration und Datenmodellierung Vorkenntnisse in Business-Intelligence-Tools wie QlikSense, Tableau oder Power BI sowie in Programmiersprachen wie Python, R, SQL und Datenbanksystemen wie Snowflake, Oracle, SQL Server oder MySQL Zusätzliche Informationen Unser Portfolio ist auf deine Bedürfnisse zugeschnitten.

Stellenangebot Data Quality and BI Governance Manager (w/m/d) ansehen

🙃💻Consultant Data Analytics (m/f/d) 🎰 Schwäbisch Hall

Maschinen-/Anlagenbau) von Vorteil Sehr gute Kenntnisse im Bereich ETL, Datenmodellierung und Reporting Kenntnisse über Datenstrukturen in SAP ERP und S/4HANA wünschenswert Kenntnisse im objektorientierten Design und der Softwarequalität Sehr gute analytische Fähigkeiten und ein starker Sinn für Geschäftsprozesse und Business Prioritäten Eigenständige, strukturierte und lösungsorientierte Arbeitsweise Sehr gute Kommunikations- und zwischenmenschliche Fähigkeiten Sichere Kommunikation in Deutsch und Englisch Reisebereitschaft (ca. 15%)   Haben wir Ihr Interesse geweckt?

Stellenangebot 🙃💻Consultant Data Analytics (m/f/d) 🎰 ansehen

Business/Data Analyst im Bereich Digitalisierung (m/w/d) 71032 Böblingen

Arbeitsort: Böblingen Ihre Aufgaben Übergreifende Abstimmung zur Entwicklung eines Datenökosystems für die gesamte Supply Chain Unterstützung und Beratung beim Einsatz von innovativen Digitalisierungstechnologien (Data Analytics, Cloud, …) Steuerung des komplexen Umsetzungsprozesses bis zur Realisierung und Erfolgsabsicherung der erarbeiteten Digitalisierungslösungen Anwendung von agilen Methoden, wie bspw. Design Thinking oder Scrum im Rahmen von Projekten/Workshops Ihr Profil Abgeschlossenes Studium der Wirtschaftsinformatik, Wirtschaftsingenieurwesen, Wirtschaftswissenschaften, Mathematik, Informatik, Ingenieurwissenschaften oder Vergleichbares Idealerweise erste praktische Erfahrungen in Digitalisierungsprojekten, Data Analytics, Cloudtechnologien Wir bieten Die Sicherheit eines großen, global tätigen Unternehmens mit hohen Standards für die Arbeitssicherheit Attraktive, der Qualifikation entsprechende Vergütung Unbefristete Anstellung Ein interessantes und vielseitiges Aufgabenfeld Individuelle Weiterbildung und Entwicklungsprogramme sowie vielfältige Karrieremöglichkeiten So geht’s weiter Bewerben Sie sich bitte direkt online, indem Sie auf den Button „JETZT AUF DIESE STELLE BEWERBEN“ klicken.

Stellenangebot Business/Data Analyst im Bereich Digitalisierung (m/w/d) ansehen

(Senior) Data Engineer Snowflake und dbt (all genders) Bad Homburg, Berlin, Essen, Gummersbach, Hamburg, München, Nürnberg, Stuttgart, Homeoffice/Remote

Du brennst für Data Transformation as Code und moderne Cloud-Architekturen? Dann gestalte mit uns die datengetriebene Zukunft. Architektur-Design: Du konzipierst und implementierst moderne Datenplattform-Architekturen in der Cloud auf AWS, Azure oder GCP mit Fokus auf Snowflake.Data Engineering: Du entwickelst modulare und testbare Transformations-Pipelines mit dbt und arbeitest nach Best Practices wie Versionierung, CI/CD und automatisierten Tests.Datenmodellierung: Du erstellst Datenmodelle nach Data Vault 2.0, Star-Schema oder vergleichbaren Modellierungstechniken zur strukturierten Abbildung fachlicher Anforderungen.End-to-End Orchestrierung: Du integrierst Ingestion-Tools wie Fivetran oder Airbyte und stellst die Workflow-Orchestrierung mit Airflow oder Dagster sicher.Consulting und Coaching: Du berätst Kunden bei der Auswahl geeigneter Komponenten und begleitest die Migration von Legacy-Systemen in die Cloud.Qualitätssicherung: Du stellst durch automatisierte Datenqualitätsprüfungen und klare Governance-Strukturen eine hohe Datenverlässlichkeit sicher.

Stellenangebot (Senior) Data Engineer Snowflake und dbt (all genders) ansehen

Senior Data Governance Consultant (m/w/d) Fokus Metadata Management Tool Frankfurt

Du konzipierst und verantwortest Data-Governance- und Operating-Modelle (z. B. Rollen, Verantwortlichkeiten, Domains, Prozesse). Du designst, implementierst und optimierst die Collibra Data Governance Plattform (Data Catalog, Asset-Modelle, Workflows, Communities, Verantwortlichkeiten).

Stellenangebot Senior Data Governance Consultant (m/w/d) Fokus Metadata Management Tool ansehen

Senior Data Governance Consultant (m/w/d) Fokus Metadata Management Tool Frankfurt

Du konzipierst und verantwortest Data-Governance- und Operating-Modelle (z. B. Rollen, Verantwortlichkeiten, Domains, Prozesse). Du designst, implementierst und optimierst die Collibra Data Governance Plattform (Data Catalog, Asset-Modelle, Workflows, Communities, Verantwortlichkeiten).

Stellenangebot Senior Data Governance Consultant (m/w/d) Fokus Metadata Management Tool ansehen

Senior Data Warehouse Developer (Databricks) (m/f/d) Austria

Develop, maintain, and optimize data pipelines and ETL/ELT processes using Databricks Implement version control workflows and collaborate using GitHub Build and maintain CI/CD pipelines with GitHub Actions Design and implement scalable data transformations using Python/PySpark Write efficient and reliable SQL queries for data processing and analytics Strong hands-on experience with Databricks and strong SQL skills Proficiency with GitHub for version control and collaboration Experience building CI/CD pipelines, ideally with GitHub Actions and solid knowledge of Python/PySpark Experience with Microsoft Azure and knowledge of Data Vault data modeling is an advantage Experience with Kafka or other streaming technologies is an advantage Understanding of Unity Catalog for data governance is an advantage Experience with Splunk for monitoring and troubleshooting is an advantage Renowned client Remote work possible Ihr Kontakt Ansprechpartner Florian Pracher Referenznummer 863468/1 Kontakt aufnehmen E-Mail: florian.pracher@hays.at Anstellungsart Freiberuflich für ein Projekt

Stellenangebot Senior Data Warehouse Developer (Databricks) (m/f/d) ansehen

Data Center Solution Design Engineer (w/m/d) bundesweit

Schneider Electric GmbH sucht in eine/n Data Center Solution Design Engineer (w/m/d) (ID-Nummer: 13249933)

Stellenangebot Data Center Solution Design Engineer (w/m/d) ansehen

Data Architect (gn) full-/part-time (hybrid) Ratingen

You are responsible for the conceptual, logical, and structural integrity of our Core Data Model as well as the Gold Layer across Azure, Snowflake, and dbt.You ensure that fragmented data sources are transformed into consistent, reusable, and decision‑relevant data products, actively preventing the platform from drifting into team‑specific, incompatible models.You define and maintain central business objects, canonical dimensions, shared metrics, and facts, ensuring that the Core Data Model serves as a stable, business‑oriented foundation across all domains.You develop modeling standards, naming conventions, layering concepts (Staging → Intermediate → Gold), reuse patterns, and dbt design guidelines, and you ensure their consistent implementation across all teams.You safeguard the semantic consistency of the entire data model, resolve domain conflicts, ensure that identical business terms are modeled only once, and review changes affecting core layers.You act as the technical design authority for model changes in Snowflake/dbt, balancing local requirements with long‑term model coherence, and ensuring that all models remain performant, scalable, maintainable, and of high quality.

Stellenangebot Data Architect (gn) full-/part-time (hybrid) ansehen

Senior SAP MDG M Functional Consultant (m/w/d) PLM & Data Governance Mülheim an der Ruhr

Benefits Senior-Rolle im SAP S4HANA und PLM Umfeld Fokus auf Master Data Governance und Prozessintegration Standort Mülheim an der Ruhr Aufgaben Sie übersetzen Business- und Engineering-Anforderungen in SAP S4HANA MDG M und PLM Lösungen Sie definieren funktionale Spezifikationen und begleiten Tests Sie gestalten und überwachen Data-Governance- und Data-Quality-Regeln Sie analysieren und bereinigen Stammdatenprobleme Sie steuern Schnittstellen zwischen SAP, Teamcenter und angebundenen Systemen Sie erstellen Dokumentation und Trainingsmaterialien für Endanwender Profil Abgeschlossenes Studium im Bereich Informatik, Wirtschaftsinformatik, Maschinenbau oder vergleichbar Mehrjährige Erfahrung in SAP S4HANA MDG M, SAP MM und SAP PP Erfahrung im PLM-Umfeld, idealerweise Teamcenter Sehr gute Kenntnisse in Requirements Engineering und funktionalem Design Erfahrung in Implementierungsprojekten sowie im IT-Projektmanagement Sehr gute Englischkenntnisse Unsicher, ob die Stelle zu Ihnen passt?

Stellenangebot Senior SAP MDG M Functional Consultant (m/w/d) PLM & Data Governance ansehen

Senior Data Engineer KI (m/w/d) in Hannover/München & Remote / ZRWA237790 Hannover, Niedersachsen, 30559, Deutschland

Zur Verstärkung des Teams wird ein erfahrener Data Engineer gesucht, der robuste Datenpipelines, skalierbare Datenarchitekturen sowie performante Datenaufbereitungsprozesse für KI Anwendungen konzipiert, implementiert und betreibt. Ihre Aufgaben: Design, Implementierung und Wartung von Datenpipelines für Modelltraining und Inferenz Konzeption, Entwicklung und Überwachung von Datenmodellen sowie ETL Prozessen zur Extraktion, Transformation und Beladung von Daten aus unterschiedlichen Quellen Anbindung und Integration weiterer Datenquellen in bestehende Data Lake und Data Warehouse Strukturen Verantwortung für Betrieb, Monitoring und Optimierung der entwickelten Datenaufbereitungslösungen Erstellung und Pflege von Dashboards zur Visualisierung und Präsentation von Daten Überführung explorativer Prototypen und Notebooks in stabile, automatisierte und produktive Prozesse Kontinuierliche Weiterentwicklung der technologischen Basis zur Verarbeitung großer Datenmengen hinsichtlich Performance, Skalierbarkeit und Stabilität Identifikation und Erprobung neuer Anwendungsfelder für KI gestützte Lösungen inklusive Konzeption, Machbarkeitsanalysen und produktiver Umsetzung   Ihr Profil: Mindestens 3 Jahre praktische Berufserfahrung in der Konzeption, Entwicklung und Überwachung von Datenmodellen und Datenpipelines im Umfeld moderner Data Lakes und Data Warehouses Sehr gute Kenntnisse in der Entwicklung von ETL Prozessen sowie im Umgang mit strukturierten und unstrukturierten Datenquellen Erfahrung im produktiven Betrieb von containerisierten Anwendungen in Kubernetes und Docker Umgebungen Fundierte Kenntnisse in Software Design und Architektur sowie im API Design und in der technischen Dokumentation Praxis im Testen, Betreiben und Überwachen produktiver Daten und KI Systeme inklusive Monitoring und Alerting Sehr gute Python Kenntnisse mit mehrjähriger produktiver Anwendung Erfolgreich abgeschlossenes Studium der Informatik, Wirtschaftsinformatik oder vergleichbare Ausbildung Deutschkenntnisse auf Niveau B2 oder Muttersprache   Rahmenparameter: Einsatzort: Remote (80%) & Hannover/München (20%) Laufzeit: 01.04.2026 - 31.12.2026 Auslastung: Vollzeit   Ihr GECO-Ansprechpartner freut sich auf Ihre Kontaktaufnahme und über die Zusendung Ihrer aussagekräftigen Projekthistorie sowie Ihrer Honorarvorstellung.

Stellenangebot Senior Data Engineer KI (m/w/d) in Hannover/München & Remote / ZRWA237790 ansehen

Senior Data Analyst (m/f/d) - Shop Analytics - onsite in Hamburg or Berlin Hamburg oder Berlin (hybrid)

MySQL Python Google BigQuery Gitlab What you will do Conduct in-depth analyses on shop user behavior to uncover actionable insights Drive shop optimization and growth by providing analytical insights to Business and Product Owners and influencing product enhancements Shape the success metrics for our shop, developing and monitoring KPIs that directly impact millions of users’ shopping experiences Provide full-cycle A/B test analytical support to optimize shop performance Define tracking requirements and support QA of tracking implementations to ensure data accuracy and reliability Design and implement advanced dashboards, enabling self-service analytics across the organization Collaborate with multiple stakeholders across the organization to answer shop-related questions with analytical insights, supporting business decision-making Who you are Advanced proficiency in SQL for complex data analysis and querying large datasets Expertise in e-commerce KPIs and funnel analysis Solid understanding of web analytics and experience working with frontend tracking data (GA4 experience is a plus) Experience with data visualization tools (e.g., Looker Studio, Tableau, or similar) to create compelling dashboards and reports Advanced knowledge of A/B testing methodology and statistical analysis for experiment design and interpretation Strong understanding of customer segmentation and cohort analysis in the  e-commerce context Proactive and self-driven, with the ability to work independently and drive projects from conception to completion Collaborative mindset, adept at working with cross-functional teams and building strong relationships with stakeholders Pragmatic approach to problem-solving, consistently delivering efficient, data-driven solutions.

Stellenangebot Senior Data Analyst (m/f/d) - Shop Analytics - onsite in Hamburg or Berlin ansehen

Junior Data Engineer (m/w/d) München

Du begleitest Schnittstellen end-to-end: von der Anforderungsaufnahme über Design und Umsetzung bis hin zu Tests, Rollout und Betrieb – gemeinsam mit Deinen Kolleg*innen und externen Partnern. Du arbeitest eng mit unseren Fachbereichen zusammen, priorisierst pragmatisch nach Wirkung und entwickelst Lösungen konsequent aus dem Business heraus.

Stellenangebot Junior Data Engineer (m/w/d) ansehen

(Senior) Data Engineer (gn) full-/part-time (hybrid) Ratingen

As part of our team, you will take on the following responsibilities: You work in an innovative and rapidly growing environment, using your strong communication skills to generate business value from data.You collaborate with your team and business partners in an agile setup to develop data‑driven products that address business challenges — including building data pipelines as well as work related to product, reporting, and analytics.You help design and maintain a scalable, cloud‑based data landscape that creates a new foundation for how DKV handles data.You prepare and present your results in a clear and engaging way for your business partners.You are open to new approaches and continuously refine your solutions to achieve better performance, quality, and cost efficiency.

Stellenangebot (Senior) Data Engineer (gn) full-/part-time (hybrid) ansehen

Senior FINREP Data Integration Engineer & Tagetik Architect (m/f/d) Vienna and Remote

Give it a try and learn what the market has to offer – our services are free of charge, non-binding and discreet! We look forward to hearing from you. Design and implement a SQL-based landing zone for regulatory data Develop stored procedures for transformation, enrichment, and aggregation Build and operate high-volume batch processing chains for monthly/quarterly cycles Implement SSIS-based ingestion flows and job orchestration Ensure data quality, technical lineage, and full traceability across layers Define and document integration patterns and mapping logic between landing-zone datasets and Tagetik-based reporting templates Perform operational monitoring, troubleshooting, and performance optimization Strong expertise in Microsoft SQL Server and T-SQL Hands-on experience with stored-procedure-driven ETL and complex data models Solid SSIS skills for orchestration and control of processing chains Experience with batch processing, logging, restartability, and performance tuning Knowledge of data lineage, reconciliation, and regulatory processing needs Experience with reporting platforms such as Tagetik is a plus Familiarity with Oracle source systems is advantageous Renowned Client Remote Option Ihr Kontakt Ansprechpartner Eliška Stejskalová Referenznummer 862801/1 Kontakt aufnehmen E-Mail: eliska.stejskalova@hays.at Anstellungsart Freiberuflich für ein Projekt

Stellenangebot Senior FINREP Data Integration Engineer & Tagetik Architect (m/f/d) ansehen

Senior Data Engineer Enterprise IIoT & Apps (m/f/d) Sarriguren, ES, 31621 / Hamburg, DE, 22419 / Madrid, ES, 28001

YOUR TASKS: Develop solutions on a leading-edge cloud based platform for managing and analyzing large datasets. Design, develop and deploy digital solutions ensuring the software development life cycle in an agile setup. Create technical documentation.

Stellenangebot Senior Data Engineer Enterprise IIoT & Apps (m/f/d) ansehen

Senior Data Engineer Enterprise IIoT & Apps (m/f/d) Sarriguren, ES, 31621 / Hamburg, DE, 22419 / Madrid, ES, 28001

YOUR TASKS: Develop solutions on a leading-edge cloud based platform for managing and analyzing large datasets. Design, develop and deploy digital solutions ensuring the software development life cycle in an agile setup. Create technical documentation.

Stellenangebot Senior Data Engineer Enterprise IIoT & Apps (m/f/d) ansehen

Data & Performance Analyst - Campaign Management (gn) Vollzeit/Teilzeit (hybrid) Ratingen

What makes you stand out You hold a Bachelor’s or Master’s degree in Business Administration, Industrial Engineering, Analytics, or Statistics.Ideally, you have additional qualifications in Marketing Analytics or CRM.You bring 3–5 years of professional experience in Campaign/CRM Analytics and Sales Operations.You have hands-on experience in end-to-end campaign tracking, KPI development, and European process harmonization.You are proficient in Power BI (including DAX and Data Modeling) and Power Query (ETL).You are familiar with Dynamics 365 and HubSpot (workflows/tracking).You have experience with SQL (Snowflake) and SAP data integration.You ensure data quality and consistency across systems.You communicate clearly and effectively and Stakeholder management motivates you and drives you to create solutions collaboratively.You design processes, promote enablement, and share best practices.You have excellent German and English skills, both written and spoken. We are looking forward to your application and to applicants who enrich our diverse culture!

Stellenangebot Data & Performance Analyst - Campaign Management (gn) Vollzeit/Teilzeit (hybrid) ansehen

Senior FINREP Data Integration Engineer & Tagetik Architect (m/f/d) Vienna and Remote

Give it a try and learn what the market has to offer – our services are free of charge, non-binding and discreet! We look forward to hearing from you. Design and implement a SQL-based landing zone for regulatory dataDevelop stored procedures for transformation, enrichment, and aggregationBuild and operate high-volume batch processing chains for monthly/quarterly cyclesImplement SSIS-based ingestion flows and job orchestrationEnsure data quality, technical lineage, and full traceability across layersDefine and document integration patterns and mapping logic between landing-zone datasets and Tagetik-based reporting templatesPerform operational monitoring, troubleshooting, and performance optimization Strong expertise in Microsoft SQL Server and T-SQLHands-on experience with stored-procedure-driven ETL and complex data modelsSolid SSIS skills for orchestration and control of processing chainsExperience with batch processing, logging, restartability, and performance tuningKnowledge of data lineage, reconciliation, and regulatory processing needsExperience with reporting platforms such as Tagetik is a plusFamiliarity with Oracle source systems is advantageous Renowned ClientRemote Option Ihr Kontakt Ansprechpartner Eliška Stejskalová Referenznummer 862801/1 Kontakt aufnehmen E-Mail: eliska.stejskalova@hays.at Anstellungsart Freiberuflich für ein Projekt

Stellenangebot Senior FINREP Data Integration Engineer & Tagetik Architect (m/f/d) ansehen

Data Analyst (m/w/d) Weeze

Zum nächstmöglichen Zeitpunkt suchen wir in Weeze für die IT eine/n Data Analyst (m/w/d) Deine Aufgaben Du analysierst, designst und realisierst innovative Business Intelligence (BI) Lösungen Du erfasst und spezifizierst fachliche Anforderungen Du analysierst Prozesse und erarbeitest Optimierungspotentiale Du erstellst Reports und Dashboards Du erarbeitest Ideen zur Verbesserung und Weiterentwicklung unserer BI-Systeme und Datenbankstrukturen Du unterstützt unsere Fachbereiche bei BI-Fragestellungen Dein Profil Basic: Du hast eine berufliche Ausbildung oder ein Studium im Bereich der Informatik, Mathematik, Wirtschafts-, Natur- oder Ingenieurwissenschaften.

Stellenangebot Data Analyst (m/w/d) ansehen

Data Analyst (m/w/d) Weeze

Zum nächstmöglichen Zeitpunkt suchen wir in Weeze für die IT eine/n Data Analyst (m/w/d) Deine Aufgaben Du analysierst, designst und realisierst innovative Business Intelligence (BI) Lösungen Du erfasst und spezifizierst fachliche Anforderungen Du analysierst Prozesse und erarbeitest Optimierungspotentiale Du erstellst Reports und Dashboards Du erarbeitest Ideen zur Verbesserung und Weiterentwicklung unserer BI-Systeme und Datenbankstrukturen Du unterstützt unsere Fachbereiche bei BI-Fragestellungen Dein Profil Basic: Du hast eine berufliche Ausbildung oder ein Studium im Bereich der Informatik, Mathematik, Wirtschafts-, Natur- oder Ingenieurwissenschaften.

Stellenangebot Data Analyst (m/w/d) ansehen

Senior Data Scientist (m/w/d) - Search Engine - onsite in Hamburg or Berlin Hamburg oder Berlin (hybrid)

elasticsearch AWS Python Google BigQuery Google Cloud Platform Numpy Pandas Gitlab What you will do Design and develop innovative algorithms to power a personalized shopping experience, leveraging cutting-edge machine learning techniques Deploy your solutions into production, taking full ownership and ensuring high performance and scalability Combine your data science expertise with a pragmatic, agile approach to find innovative solutions and drive measurable results within a fast-paced environment Challenge the status quo by identifying areas for improvement in existing retrieval and reranking systems, particularly those relying heavily on business logic, and propose data-driven solutions Thrive in a dynamic, fast-paced environment with a flat hierarchy, where your ideas and contributions can make a real difference Who you are Proficiency in Python or experience with at least one scientific computing language (e.g., MATLAB, R, Julia, C++) Strong SQL skills with experience in analytical or transactional database environments Theoretical understanding of machine learning principles, coupled with a hands-on approach to building and iterating on models Proven experience in building and deploying machine learning solutions that deliver tangible business value Strong understanding of data structures, algorithms, and tools for efficiently handling large datasets (e.g. pandas, numpy, dask, arrow, polars, …) Experience designing, building, and managing data pipelines Familiarity with cloud-based model training and serving platforms (e.g., GCP Vertex AI, Amazon SageMaker) Solid understanding of statistical methods for model evaluation Big Data: Experience analyzing large datasets using statistical and machine learning techniques DevOps: Familiarity with CI/CD tools (e.g., GitLab CI/CD, Hashicorp Terraform) is a plus Generative AI: Experience with generative AI and agentic frameworks (e.g., LangChain, ADK, CrewAI, Pydantic AI, …) is a plus Understanding of recommendation, retrieval and reranking systems in e-commerce and retail is a plus Excellent written and verbal communication skills in English Ability to effectively communicate complex machine learning concepts to both technical and non-technical stakeholders Proven ability to collaborate effectively within a team to establish standards and best practices for deploying machine learning models A proactive approach to knowledge sharing and fostering a quick development environment Nice to have Experience with BigQuery Knowledge of time series and (graph) neural network models Familiarity with statistical testing and Gaussian Processes Strong Knowledge of Computer Vision libraries, (e.g.

Stellenangebot Senior Data Scientist (m/w/d) - Search Engine - onsite in Hamburg or Berlin ansehen

Engineer Wind Farm Data Management (m/f/d) Madrid, ES, 28001 / Hamburg, DE, 22419

YOUR TASKS: Design, develop and deploy digital solutions ensuring the software development life cycle in an agile setup Develop solutions on a leading-edge cloud based platform for managing and analyzing large datasets Create technical documentation Analyze and decompose business requirements into technical functionalities Produce clean and efficient code based on business requirements and specifications Create Notebooks, pipelines and workflows in SCALA or Python to ingest, process and serve data in our platform Be a technical lead for junior and external developers Be a part of the continuous improvement of Nordex’ development processes by participating in retrospectives and proposing optimizations YOUR PROFILE: Technical degree in Computer Science, Software Engineering or comparable Experience or certification in Databricks Fluent English At least 3 years of proven experience Availability to travel YOUR BENEFITS: In addition to the opportunity to make our world a little more sustainable, we offer you: *Some offers may vary by location. ** Hybrid working in accordance with the company's internal policy.

Stellenangebot Engineer Wind Farm Data Management (m/f/d) ansehen

Engineer Wind Farm Data Management (m/f/d) Madrid, ES, 28001 / Hamburg, DE, 22419

YOUR TASKS: Design, develop and deploy digital solutions ensuring the software development life cycle in an agile setup Develop solutions on a leading-edge cloud based platform for managing and analyzing large datasets Create technical documentation Analyze and decompose business requirements into technical functionalities Produce clean and efficient code based on business requirements and specifications Create Notebooks, pipelines and workflows in SCALA or Python to ingest, process and serve data in our platform Be a technical lead for junior and external developers Be a part of the continuous improvement of Nordex’ development processes by participating in retrospectives and proposing optimizations   YOUR PROFILE: Technical degree in Computer Science, Software Engineering or comparable Experience or certification in Databricks Fluent English At least 3 years of proven experience Availability to travel YOUR BENEFITS: In addition to the opportunity to make our world a little more sustainable, we offer you: *Some offers may vary by location. ** Hybrid working in accordance with the company's internal policy.

Stellenangebot Engineer Wind Farm Data Management (m/f/d) ansehen

Data Scientist Generative AI (m/w/d) Remote / ZCTA237850 Frankfurt am Main, Hessen, , Deutschland

Für einen unserer Großkunden suchen wir derzeit eine Unterstützung, die die nachfolgenden Anforderungen erfüllt:   Deine Aufgaben: Durchführung von Interviews mit Stakeholdern zur Anforderungserhebung und Bewertung sowie Durchführung von Anforderungsworkshops Erhebung, Analyse, Beschreibung und Dokumentation von funktionalen und nicht funktionalen Anforderungen im Beratungsgebiet Spezifikation von Anforderungen mit Hilfe von Standardvorlagen unter Verwendung natürlicher Sprache und UML Erstellung und Anpassung von User Stories, Features und Enabler sowie Bewertung funktionaler Architekturen Erstellung funktionaler Spezifikationen und Sicherstellung, dass die fachliche Architektur aktuelle sowie zukünftige Anforderungen und Skalierungen abbildet Beschreibung und Durchführung von abnahmerelevanten Testfällen im Projektkontext Analyse bestehender Geschäftsprozesse sowie Bewertung und Entwicklung möglicher Prozessverbesserungen Erstellung strategischer Empfehlungen zur Effizienzsteigerung und Kostenreduktion sowie Entscheidungsherbeiführung beim Auftraggeber Durchführung von Geschäftsprozess und Systemanalysen Durchführung umfangreicher Datenanalysen zur Qualitätssicherung und Aufbereitung fachlicher Konzeptionen Konzeption und Implementierung von Prozessketten und Datenflüssen zur Anbindung an Large Language Models und weitere GenAI Komponenten Identifikation, Spezifikation und Implementierung von Optimierungsansätzen im Bereich Generative AI, insbesondere Prompt Optimierung Analyse prototypischer Implementierungen hinsichtlich Zielerreichung anhand produktiver Anwendungsfälle und Aufbereitung der Ergebnisse   Dein Profil:   Mindestens 6 Jahre Projekterfahrung in der Produkt und Portfolioentwicklung von IT Services Kenntnisse in der Einhaltung von Compliance und Regulierungsvorgaben wie DSGVO oder EU AI Act im Kontext von Data Science und KI Projekten Mindestens 6 Jahre Projekterfahrung in der Stakeholder Kommunikation mit technischen Experten, Fachbereichen und Entscheidungsträgern in Organisationen mit mehr als 20000 Mitarbeitern Mindestens 6 Jahre Erfahrung im Anforderungsmanagement einschließlich Analyse, Design und Systemarchitektur mit UML oder BPM Mindestens 6 Jahre Erfahrung mit den Tools Jira, Confluence, SharePoint sowie der Microsoft Office 365 Suite Erfahrung in Vorbereitung und Durchführung fachlicher Tests Sehr gute Kenntnisse in den Themen Objekterkennung, Datenplattformen und Datenarchitektur Mindestens 5 Jahre Erfahrung mit agilen Methoden wie Scrum oder SAFe sowie mehrere Projekte im agilen Umfeld Erfahrung in der Vorbereitung und Durchführung von Workshops, Design Sprints oder Design Thinking Mindestens 3 Jahre Projekterfahrung in der Umsetzung generativer KI Use Cases   Rahmenparameter: Einsatzort: Remote und nach Absprache in Frankfurt am Main Laufzeit: 23.03.2026 - 31.12.2026 Auslastung: Vollauslastung   Dein GECO-Ansprechpartner freut sich auf Deine Kontaktaufnahme und über die Zusendung Deiner aussagekräftigen Projekthistorie sowie Deiner Honorarvorstellung/Gehaltsvorstellung/Preisvorstellung.

Stellenangebot Data Scientist Generative AI (m/w/d) Remote / ZCTA237850 ansehen

SAP GROUP Reporting Consultant (m/f/d) Remote

YTD reporting Hands-on experience in GRDC form design (Manage Forms) Experience with Package Management (Manage Package app) Ability to design validation rules and manage controls in the Data Monitor Solid understanding of GRDC ?

Stellenangebot SAP GROUP Reporting Consultant (m/f/d) ansehen

SAP GROUP Reporting Consultant (m/f/d) Remote

Work with consolidation units, FS items, subitems, versions, and the ACDOCU table structureSupport both periodic and year-to-date reporting activitiesCreate and configure GRDC forms using the Manage Forms applicationMaintain and optimize forms to ensure accurate and efficient data collectionCreate and manage packages via the Manage Package appDefine package steps, assign forms or folders, and configure data-entry context for usersDesign and maintain validation rules, ensuring proper behavior in the Data MonitorUse the Reported Data Validation task to resolve reported-data issuesManage visual and backend controls to ensure consistent data qualityUnderstand GRDC data integration with ACDOCU and Group ReportingWork with Data Monitor task sequences such as Calculate Net Income Strong understanding of Group Reporting concepts and ACDOCU structureExperience with periodic vs. YTD reportingHands-on experience in GRDC form design (Manage Forms)Experience with Package Management (Manage Package app)Ability to design validation rules and manage controls in the Data MonitorSolid understanding of GRDC ?

Stellenangebot SAP GROUP Reporting Consultant (m/f/d) ansehen

ETL-Spezialist (m/w/d) Karlsdorf-Neuthard

Sie übernehmen End-to-End-Verantwortung von der Anforderung bis zur produktiven Strecke. IHRE AUFGABEN Design, Entwicklung und Betrieb von ETL-/ETL-Strecken mit SAP Data Services und SAP Datasphere – inkl. Job-Orchestrierung, Scheduling und Monitoring Migration bestehender ETL-Strecken aus SAP BI/ BO in SAP Datasphere, inkl.

Stellenangebot ETL-Spezialist (m/w/d) ansehen

ETL-Spezialist (m/w/d) Karlsdorf-Neuthard

Sie übernehmen End-to-End-Verantwortung von der Anforderung bis zur produktiven Strecke. IHRE AUFGABEN Design, Entwicklung und Betrieb von ETL-/ETL-Strecken mit SAP Data Services und SAP Datasphere – inkl. Job-Orchestrierung, Scheduling und Monitoring Migration bestehender ETL-Strecken aus SAP BI/ BO in SAP Datasphere, inkl.

Stellenangebot ETL-Spezialist (m/w/d) ansehen

Senior Tableau Consultant (m/f/d) Vienna

Give it a try and learn what the market has to offer – our services are free of charge, non-binding and discreet! We look forward to hearing from you. Design, build and optimize enterprise Tableau dashboardsDevelop reporting-friendly data models on Cloudera Data Platform (Hadoop) and Azure Databricks (Delta Lake, SQL Warehouses)Implement and tune SQL queries (Hive, Impala, Spark SQL, Databricks SQL) for performance, cost efficiency and concurrencyApply Tableau performance optimization strategies (extract vs live, push-down optimization, query tuning)Design and implement secure enterprise Tableau configurations, including row-level security aligned with role conceptsEnsure compliance with IT security, data governance and regulatory requirementsCollaborate with data platform teams, DataOps, IT security/compliance and controlling solutionsProduce professional documentation: data models, dashboard specifications, data-source definitions, security concepts, test casesConduct testing for accuracy, performance, access control and stability of dashboards and data modelsProvide knowledge transfer, coaching and structured handover to internal teams Strong hands-on experience with Tableau Desktop and Tableau Server/Cloud in enterprise environmentsProven ability to build management-ready dashboards for finance/controlling or other regulated industriesPractical experience with Cloudera Data Platform, Hadoop ecosystems, and Azure Databricks integrationsAdvanced SQL skills across Hive, Impala, Spark SQL, Databricks SQLSolid understanding of Delta Lake, parquet/ORC formats, and BI-oriented data modeling principlesExperience implementing row-level security and with enterprise BI solutionsStrong knowledge of performance optimization in Tableau, Hadoop and Databricks environmentsAbility to operate in regulated financial environments with security, compliance and data governance constraintsExcellent communication and documentation skills in English International clientRemote option Ihr Kontakt Ansprechpartner Eliška Stejskalová Referenznummer 864486/1 Kontakt aufnehmen E-Mail: eliska.stejskalova@hays.at Anstellungsart Freiberuflich für ein Projekt

Stellenangebot Senior Tableau Consultant (m/f/d) ansehen

Salesforce Integration Developer remote (EU)

The project involves setting up and testing system interfaces between Salesforce and MS Project Operations using Azure Functions as middleware. Key Responsibilities 1. Interface & Technical Setup Design and implement six integration endpoints between Salesforce and MS Project Operations via Azure Functions: Four data transfers from Salesforce to MSPO Two data transfers from MSPO to Salesforce Configure and manage integration for the following objects: Opportunity Account Portfolio (custom object) 2.

Stellenangebot Salesforce Integration Developer ansehen

Werkstudent / Praktikant Softwareentwicklung Fullstack / App-Testing / Projektkoordination (m/w/d) Nürnberg,Remote

Java, C #, Python, JavaScript, Spring, Spring Boot... Erste Basiskenntnisse mit Angular, Versionskontrolle, API-Design/ Rest, Web-Services und IT-Systemen Erste Kenntnisse über Machine Learning und KI-Systeme (v.a. Large Language Models und GenAI Agents) Grundkenntnisse über Semantic Web, Knowledge Graphs, Graph Data Science, Data Mesh und Data Products von Vorteil Interesse an IT-Themen im Banken-/Finanzwesen, wie z.B.

Stellenangebot Werkstudent / Praktikant Softwareentwicklung Fullstack / App-Testing / Projektkoordination (m/w/d) ansehen

Senior Manager Solutions Analytics (all genders) Bad Homburg, Berlin, Essen, Gummersbach, Hamburg, München, Nürnberg, Stuttgart, Homeoffice/Remote

Das bringst du mit Studium, Data-Background: Du hast ein abgeschlossenes Studium der Wirtschaftsinformatik, Informatik, Data Science oder eine vergleichbare Qualifikation.Berufserfahrung, Analytics-Know-how: Du verfügst über mindestens 8 Jahre Erfahrung in Data-Analytics-, BI-, DWH- oder KI-Projekten mit direktem Kundenkontakt.Solution Design, Pre-Sales-Expertise: Du hast fundierte Erfahrung im Anforderungsmanagement, in der Entwicklung von Solution Designs sowie in Pre-Sales- und Angebotsprozessen.Technologiekompetenz, Cloud-Plattformen: Du bringst tiefes Verständnis von Analytics- und KI-Architekturen sowie Erfahrung mit MS Fabric, Snowflake oder Databricks mit.Wirtschaftlichkeit, Multiprojektmanagement: Du kannst Projekte wirtschaftlich bewerten, kalkulieren und mehrere Kunden- und Projektkontexte parallel steuern.Kommunikationsstärke, Persönlichkeit: Du trittst souverän auf Managementebene auf, kommunizierst verhandlungssicher in Deutsch und gut in Englisch und überzeugst durch analytisches Denken, Abschlussstärke und Reisebereitschaft.

Stellenangebot Senior Manager Solutions Analytics (all genders) ansehen

Salesforce Integration Developer remote (EU)

The project involves setting up and testing system interfaces between Salesforce and MS Project Operations using Azure Functions as middleware. Key Responsibilities 1. Interface & Technical Setup Design and implement six integration endpoints between Salesforce and MS Project Operations via Azure Functions: Four data transfers from Salesforce to MSPO Two data transfers from MSPO to Salesforce Configure and manage integration for the following objects: Opportunity Account Portfolio (custom object) 2.

Stellenangebot Salesforce Integration Developer ansehen


Verwandte Berufe zu Data


Finden Sie Jobs für Data auch in Finden Sie Jobs für Finden Sie Jobs in
Impressum