Design Verification & Entwicklung Planung, Durchführung und Koordinierung von Design-Verifizierungen für Produkte in der EntwicklungErstellung von Verifizierungsplänen, Prüfstrategien und einreichungsrelevanten BerichtenEigenständige Durchführung von Design-Verifizierungsstudien????
Principal Accountabilities: Collaboration in projects of the European Data Science & Advanced Analytics Team.Concept, design, development and execution of complex innovative AI/Machine Learning solutions as well as execution and implementation of concept studies using advanced statistical methods.Development of deep learning models for structured medical concept extraction from unstructured data.Productionalization of machine learning algorithms in Big Data platforms.Application of modern data mining and machine learning techniques in connection with Healthcare Big Data to identify complex relationships and link heterogeneous data sources.Advanced usage of Large Language Models for summarization, chatbot, entity extraction etc.Develop foundational Deep Learning Models for assets and patients.Builds and trains new production grade algorithms that can learn from complex, high dimensional data to uncover patterns from which machine learning models and applications can be developed.
Umsetzung von Anforderungen mehrheitlich im Backend (Java, Spring Boot, Postgres) sowie teilweise im Frontend (Angular, Typescript)Durchführung von technischen Konzeptionen, Analysen und Design neuer FeaturesEntwicklung von Spring-Webapplikationen in der Azure CloudEntwicklung und Pflege von CI/CD-Pipelines für Code-, Daten- und ModellbereitstellungenGemeinsame Verantwortung für die Applikation ChatGPT-SkillInitiale Entwicklung, kontinuierliche Weiterentwicklung und stabiler Betrieb der Systeme im Rahmen der DevOps-Philosophie Fundierte Berufserfahrung auf Senior-Stufe in der Entwicklung moderner WebapplikationenSehr gute Kenntnisse in Java, Spring Boot, Angular und TypescriptHochschulabschluss in Informatik oder gleichwertige BerufserfahrungGutes Verständnis von generativen KI-Lösungen (Azure OpenAI Service), einschliesslich Infrastruktur-, Datenverarbeitungs- und BereitstellungsanforderungenFähigkeit zur Zusammenarbeit mit Data Scientists, Entwicklern und Solution ArchitectsBereitschaft, Wissen zu teilen und Teammitglieder in Applikationsentwicklung, IaC und CI/CD zu schulenPython-Erfahrung von VorteilSprachkenntnisse: Deutsch C2, Englisch B2 Arbeit in einem DevOps-Team bestehend aus Data Scientists, Business Engineers und DevOps EngineersMitarbeit am Aufbau einer GenAI-Plattform sowie an der Weiterentwicklung des ChatGPT-SkillsTätigkeit in einem modernen technischen Umfeld mit Cloud-, CI/CD- und GenAI-Technologien Ihr Kontakt Referenznummer 860773/1 Kontakt aufnehmen Telefon:+41 44 225 50 00 E-Mail: positionen@hays.ch Anstellungsart Freiberuflich für ein Projekt
Location: Mobile work (Germany-wide) What you’ll do Empower customers: Identify, design, and implement data‑ and AI‑driven use cases for external clients across diverse industries. Build the backbone: Collaborate with other Data Engineers to enhance and integrate solutions into existing data and platform architectures.
elasticsearch AWS Python Google BigQuery Google Cloud Platform Numpy Pandas Gitlab What you will do Design and develop innovative algorithms to power a personalized shopping experience, leveraging cutting-edge machine learning techniques Deploy your solutions into production, taking full ownership and ensuring high performance and scalability Combine your data science expertise with a pragmatic, agile approach to find innovative solutions and drive measurable results within a fast-paced environment Challenge the status quo by identifying areas for improvement in existing retrieval and reranking systems, particularly those relying heavily on business logic, and propose data-driven solutions Thrive in a dynamic, fast-paced environment with a flat hierarchy, where your ideas and contributions can make a real difference Who you are Proficiency in Python or experience with at least one scientific computing language (e.g., MATLAB, R, Julia, C++) Strong SQL skills with experience in analytical or transactional database environments Theoretical understanding of machine learning principles, coupled with a hands-on approach to building and iterating on models Proven experience in building and deploying machine learning solutions that deliver tangible business value Strong understanding of data structures, algorithms, and tools for efficiently handling large datasets (e.g. pandas, numpy, dask, arrow, polars, …) Experience designing, building, and managing data pipelines Familiarity with cloud-based model training and serving platforms (e.g., GCP Vertex AI, Amazon SageMaker) Solid understanding of statistical methods for model evaluation Big Data: Experience analyzing large datasets using statistical and machine learning techniques DevOps: Familiarity with CI/CD tools (e.g., GitLab CI/CD, Hashicorp Terraform) is a plus Generative AI: Experience with generative AI and agentic frameworks (e.g., LangChain, ADK, CrewAI, Pydantic AI, …) is a plus Understanding of recommendation, retrieval and reranking systems in e-commerce and retail is a plus Excellent written and verbal communication skills in English Ability to effectively communicate complex machine learning concepts to both technical and non-technical stakeholders Proven ability to collaborate effectively within a team to establish standards and best practices for deploying machine learning models A proactive approach to knowledge sharing and fostering a quick development environment Nice to have Experience with BigQuery Knowledge of time series and (graph) neural network models Familiarity with statistical testing and Gaussian Processes Strong Knowledge of Computer Vision libraries, (e.g.
Ihre Aufgaben: Entwicklung und Implementierung KI-gestützter Anwendungen mit Schwerpunkt auf Front-End-Lösungen (Machine Learning, NLP, Computer Vision, Generative AI, RAG-Systeme)Design und Programmierung von Softwaremodulen unter Nutzung moderner Sprachen und Frameworks (Python, Java, .NET, TensorFlow, PyTorch)Aufbau und Integration von Datenpipelines für Training und Betrieb von KI-Modellen auf Plattformen wie der Eigenentwicklung AI.nsteinKonzeption und Entwicklung fachspezifischer KI-Agents mittels Prompt-EngineeringZusammenarbeit mit Data Scientists und KI-Architekten bei der Überführung von KI-Modellen in produktive UmgebungenSicherstellung hoher Code-Qualität durch Clean Code-Prinzipien, Unit Tests und automatisierte TestverfahrenDurchführung von Fehleranalysen sowie kontinuierliche Optimierung und Weiterentwicklung bestehender AnwendungenTechnische Dokumentation von Entwicklungen, Architekturen und ErgebnissenEvaluation und Bewertung neuer KI-Technologien, Tools und Frameworks Ihre Qualifikation: Abgeschlossenes Studium der Informatik, Wirtschaftsinformatik oder eine auf anderem Weg erworbene gleichwertige QualifikationMehrjährige Berufserfahrung in der Softwareentwicklung mit modernen Programmiersprachen (Python, Java, C#, JavaScript)Fundierte Kenntnisse im Bereich Künstliche Intelligenz (Machine Learning, NLP, Generative AI, RAG-Systeme)Ausgeprägte Erfahrung im Prompt-Engineering und in der Entwicklung von KI-AgentsPraktische Erfahrung mit KI-/Datenplattformen (z.B.
SDS‑PAGE, Western Blot, CE‑SDS, SEC‑HPLC, IEX‑HPLC, RP‑HPLC, UV/Vis‑Spektroskopie sowie Aggregat‑ und Partikelanalysen Design of Experiments (DoE): Planung und Auswertung statistisch gestützter Versuchsreihen zur Prozessoptimierung Interpretation analytischer Daten und Ableitung von Prozessoptimierungen Strukturierte Dokumentation, Auswertung und Interpretation großer Datensätze Erstellung wissenschaftlicher Berichte, Präsentationen und technischer Dokumente für interne und externe Zwecke Vorbereitung und Begleitung des Transfers vom Labor‑ in den Pilot‑ oder Produktionsmaßstab Enge Zusammenarbeit mit Upstream Development, Analytics, Quality und Manufacturing Mitwirkung bei der Einführung neuer Technologien und Automatisierungslösungen; Etablierung neuer Aufreinigungs‑ oder Analyseverfahren sowie Bewertung neuer Technologien Mitwirkung bei der Erstellung und Aktualisierung von Standardarbeitsanweisungen (SOPs) Präsentation von Versuchsergebnissen und Prozessdaten in Kundenterminen sowie fachliche Diskussion der Resultate im Rahmen von Projektmeetings Was Du mitbringst Ein abgeschlossenes Studium der Biotechnologie, Biochemie, Bioverfahrenstechnik oder einer verwandten Fachrichtung (Bachelor, Master oder Promotion) Praktische Laborerfahrung, idealerweise im Bereich Proteinaufreinigung oder biotechnologischer Prozessentwicklung (durch Praktika, Abschlussarbeiten oder bereits im Berufsalltag) Erfahrung mit Marktproduktion ist ein Plus Grundkenntnisse in chromatographischen und filtrationsbasierten Verfahren sowie Interesse Erste Erfahrungen mit analytischen Methoden wie SDS‑PAGE, Western Blot oder HPLC‑Verfahren oder die Bereitschaft, Dich hier einzuarbeiten Freude an experimenteller Arbeit, sorgfältiger Dokumentation und einem strukturierten, analytischen Vorgehen Interesse an datenbasierter Prozessoptimierung und statistischen Methoden wie DoE Sicherer Umgang mit MS Office, insbesondere für die Auswertung von Daten und die Erstellung von Berichten und Präsentationen Teamorientierte Arbeitsweise und klare Kommunikation im Austausch mit verschiedenen Fachbereichen Bereitschaft, Ergebnisse verständlich aufzubereiten und auch in Kundengesprächen zu präsentieren Sehr gute Deutsch‑ und Englischkenntnisse in Wort und Schrift Offenheit, Dich fachlich weiterzuentwickeln und neue Technologien kennenzulernen Was Dich erwartet ProSphere.
Planung, Erstellung, Durchführung, Auswertung und Dokumentation von Design Verifikation Testungen im vorgegebenen elektronischen SystenDurchführung von visuellen und funktionalen Messungen mit Schwerpunkt auf Kraftmessungen von Primärpackmitteln bzw.
What you will do Gather, analyze, and interpret data to fulfill reporting requests from business stakeholders Translate complex data into clear, actionable insights that support business strategy Support ad hoc analysis and contribute to data-driven decision-making Automate routine reporting processes and maintain existing reports to ensure reliability and improve data workflows Maintain, design, and implement advanced dashboards using tools like Google Looker Studio, enabling self-service analytics across the organization Collaborate with data engineers, data scientists, and stakeholders across the organization to ensure data quality and consistency while delivering data-driven insights that support supply-related business decisions Communicate findings effectively to technical and non-technical audiences Foster a data-driven culture within the organization, promoting the use of analytics in decision-making processes Who you are You have at least 1-2 years of experience as a Data Analyst Proficiency in SQL for complex data analysis, reporting, and querying large datasets Experience with Google BigQuery Experience with data visualization tools (e.g., Looker Studio, Excel, or similar) to create compelling dashboards and reports Excellent communication skills in English Ability to translate fuzzy business requirements from diverse stakeholders into analytical requirements.
Machine Learing, NLP, Computer Vision, Generative AI, RAG-Systeme) Design und Programmierung von Softwaremodulen unter der Nutzung moderner Programmiersprachen und Frameworks (z.B. Python, Java, .NETz, TensorFlow, PyTorch) Aufbau und Integration von Datenpipelines für das Training und den Betrieb von KI-Modellen Zusammenarbeit mit Data Scientists und KI Architekten bei der Umsetzung von KI-Modellen in produktive Umgebungen Sicherstellung von Codequalität, Testbarkeitund Performance durch Clean Code, Unit Tests und automatisierte Tests Durchführung von Fehleranalysen, Optimierung und Weiterentwicklungen bestehender Anwendungen Dokumentation von Entwicklungen und Ergebnissen Untersützung bei der Evaluation neuer Ki-Technologien und Tools Ihr Profil Berufserfahrunge in der Softwareentwicklung (z.B.
As an IT Data Engineer, you will contribute to discover insights about our customers and internal operations, by designing and implementing data pipelines and models, as well as maintaining and improving existing ones, so that you and your team can accelerate business experimentation and influence data-driven-augmented decision making. Tasks & Responsibilities Design and implement data pipelines to extract, transform, and load data from various sources, including databases, cloud storage, and APIs.
As an IT Data Engineer, you will contribute to discover insights about our customers and internal operations, by designing and implementing data pipelines and models, as well as maintaining and improving existing ones, so that you and your team can accelerate business experimentation and influence data-driven-augmented decision making. Tasks & Responsibilities Design and implement data pipelines to extract, transform, and load data from various sources, including databases, cloud storage, and APIs.
As Senior Data Engineer (m/w/d), you design and operate scalable data pipelines and architectures that support Nordex analytics, reporting and machine learning solutions. You work closely with data scientists and engineering teams to deliver robust, high‑quality datasets.
As Senior Data Engineer (m/w/d) , you design and operate scalable data pipelines and architectures that support Nordex analytics, reporting and machine learning solutions. You work closely with data scientists and engineering teams to deliver robust, high‑quality datasets.
What you can expect You take on the functional and disciplinary responsibility for all FTEs in the Sales Data Hub within the federated data setup, including Data Engineers, Data Scientists, Data Governance roles and Product Owners Data.You define, design, develop, and operate cloud‑based data products for the Sales, Marketing, and Customer Service business units.You are responsible for the methodological integration of data assets and data products.You manage the Sales Data Hub operationally and further develop it as a specialized unit for data‑driven solutions in Sales, Marketing, and Customer Service.You are responsible for the further development and ongoing maintenance of all sales‑related models based on feedback and requirements from the sales organization.You lead projects related to planning, expanding, and organizing new and existing products in collaboration with the relevant business units and external partners.You assume technical responsibility for data products developed by or for the Sales, Marketing, and Customer Service areas within the Data Intelligence & Analytics team.You drive the continuous expansion, professionalization, and organizational development of the Sales Data Hub within the existing governance and organizational framework.
We are looking for a Teamlead Product (m/w/d) – Product Sorting who will drive innovation across Product Ranking & Sorting, incl. Business Logics and AI-powered solutions. Your mission is to design scalable, flexible, and high-performing real-time sorting and ranking solutions that optimize product discovery, maximize business impact, and enhance the shopping experience at AY.
Provide scientific, clinical, and operational advice to internal stakeholders developing proposals: this may include, but is not limited to, providing the strategy to protocol design/clinical development plan, mining data to address important clinical questions relevant to the study, reviewing the protocol for scientific/regulatory soundness and feasibility, logistics challenges, identification of target site and principal investigator profiles, anticipated patient recruitment, standard of care and competitive landscape.
What makes you stand out You hold a degree in Computer Science, Business Informatics, or a comparable qualification.You have strong expertise in SQL databases, including data modeling, table design, and data querying — ideally with experience in Snowflake.You bring experience in developing and integrating data products and are familiar with Azure Data Factory, Python, and modern cloud technologies (preferably Azure).You have hands‑on experience creating meaningful Power BI reports; knowledge of CI/CD or container technologies (e.g., Docker, Kubernetes) is a plus.You work analytically, communicate effectively, collaborate well in teams, and demonstrate a strong hands‑on mentality.You are fluent in English and have very good German skills; you also have a passion for financial databases and enjoy exploring new topics.
What makes you stand out You hold a master’s degree in Computer Science, Software Engineering, Mathematics, Statistics, or a related quantitative field.You have at least 3 years of professional experience in ML Engineering or MLOps, with a proven track record of building, deploying, and operating tailored AI/ML solutions in production.You bring deep expertise in Python and SQL, hands‑on experience with cloud platforms (ideally Azure), and familiarity with data warehouses such as Snowflake; foundational knowledge of Infrastructure‑as‑Code tools like Terraform is a plus.You are proficient with CI/CD tools (e.g., Azure DevOps), containerization technologies (Docker/Kubernetes), and apply modern software design patterns confidently.You thrive in a dynamic, agile, and innovative environment, working effectively both independently and as part of a team.You possess excellent English communication skills, both written and spoken; German language skills are considered a plus.