craftingIT

So einmalig wie du selbst

Unsere Analytics- und
datenbasierten Projekte

Tue das, wofür du dich begeisterst

Schön, dass du hier bist!

Analytics­@bridgingIT

Aktuelle Stellenanzeigen


Die Suche brachte Ergebnisse

BEWERBEN

BEWERBEN

JETZT ONLINE BEWERBEN

Über unser Formular kannst du einfach und bequem deine Bewerbung hochladen.

Dein CV reicht!

Deine Skills. Deine Perspektive. Deine Projektrolle(n).

Methodische und technologische Skills:

  • Kenntnisse in Data Governance, Maser Data Management, Datenstrategie, Datenkatalog und Datenqualitätsmanagement
  • Versiert im Umgang mit den Themenbereichen Compliance und Data Quality; Kenntnisse in Prozess- und Datenmanagementkonzepten
  • Kenntnisse in verschiedenen Datenbanksystemen, Datenmodellierung und Tools zur Entwicklung von ETL-Prozessen
  • Erfahrung im Bereich Data Engineering, z. B. mit Azure Data Factory, Einsatz der Datenkatalog-Tools von Informatica, Collibra oder Azure Purview
  • Kenntnisse in unternehmensrelevanten Gesetzen und Verordnungen, z. B. Sarbanes-Oxley Act (SOX) oder Datenschutz-Grundverordnung (DSGVO)

 

Typische Aufgaben:

  • Definition der Datenstrategie sowie von Fachkonzepten zum Aufbau einer nachhaltigen Data Governance
  • Erstellung von Data-Governance-Frameworks einschließlich der Definition von Prozessen, Richtlinien, Methoden, Organisationen und Rollen
  • Modellierung von Datenarchitekturen und -modellen auf Managementebene
  • Entwicklung konzernweiter Standards für den Umgang mit Daten
  • Einführung von Data-Management-Methoden und -Technologien
  • Sicherstellung des Zugriffs auf Daten und Erkennen von Risiken
  • Vereinheitlichung des Vokabulars, Standardisierung von Zugriffsprozessen

Methodische und technologische Skills:

  • Kenntnisse in Softwarearchitektur, Softwareentwicklung, IT-Architekturen
  • Kenntnisse in Data Management, Data Warehousing und Data Lakes 
  • Viel Erfahrung in der Entwicklung von organisatorischen Datenmodellen
  • Erfahrung mit Cloud-Architekturen sowie IaaS-, SaaS- und PaaS-Angeboten
  • Kenntnisse in der Architektur relationaler, spaltenbasierter, Graph- oder NoSQL-Datenbanken, Stream- oder Batch-Verarbeitung, Python oder Spark
  • Expertise in Datenplattformen, IT-Security-Skills und Modellierungstools
  • Datenintegration über mehrere interne und externen Quellen hinweg sowie Verarbeitung und Analyse großer Datenmengen

 

Typische Aufgaben:

  • Konzeption von Datenbanken, Data-Lake-Umgebungen und Big-Data-Plattformen in Verbindung mit Data Engineering und Data Science Pipelines
  • Entwicklung organisatorischer Datenarchitekturen und Datenmodelldesigns auf Konzept-, Logik- und Lösungsebene
  • Erstellung von Modellen und Diagrammen anhand von Modellierungstools
  • Vogelperspektive über die Entwicklung sowie über die Steuerung des Entwicklungsteams
  • Weiterentwicklung bestehender Plattformen, Bewertung neuer Technologien
  • Integrationskonzepte zur Einbettung von Anwendungen in eine bestehende Architektur

Methodische und technologische Skills:

  • Kenntnisse im Einsatz von On-Premises-Lösungen bzw Cloud-Computing-Plattformen wie AWS oder Azure  
  • Expertise in der Verwendung der Technologien Cloudera, Hadoop, Spark, Scala, Hive, Kafka und Splunk
  • Erfahrungen in den Programmiersprachen R, Python, Java und SQL
  • Kenntnisse in Datenmodellierungstechniken sowie Modellierungstools
  • Verarbeitung von Massendaten anhand von Data-Streaming-Lösungen wie Kafka
  • Agile Projektmethodik und Einsatz von CI/CD-Konzepten

 

Typische Aufgaben:

  • Verwaltung des gesamten Lebenszyklus einer Big-Data-Umgebung: Auswahl der Plattform, Entwurf der technischen Architektur, Anforderungsanalyse, Anwendungsentwicklung, Design von Tests, Durchführung von Deployments
  • Entwurf wiederverwendbarer Big-Data-Architekturen sowie technische Konzepte und Empfehlung von technischen Lösungen zur Umsetzung von Use Cases in den Bereichen Data Lakes, Data Science und Predictive Analytics
  • Entwicklung und Implementierung robuster Data Pipelines für Data Lakes zur Speicherung, Bearbeitung und Analyse großer Datensätze
  • Sicherstellung und Steigerung von Datenqualität, Datenvollständigkeit und Datenvalidität im Rahmen der Realisierung von Big-Data-Anwendungen

Methodische und technologische Skills:

  • Expertenwissen in der Entwicklung mit SQL und relationalen Datenbanken
  • Kenntnisse in der Administration von Datenbanken (SQL Server, Oracle DB)
  • Verwendung von ETL-Tools (ODI, SSIS, Talend, Informatica) und Big-Data-Technologien (Apache Spark, Cloudera, Hadoop)
  • Kenntnisse in NoSQL-Datenbanken (MongoDB, Cassandra, Cosmos DB)
  • Kenntnisse im Einsatz von On-Premises-Lösungen bzw. Cloud-Computing-Plattformen (AWS S3, Azure Data Factory, Databricks, Snowflake) 
  • Kenntnisse in Methoden der Datenverarbeitung und Prozessverständnis

 

Typische Aufgaben:

  • Monitoring und Maintenance sowie Weiterentwicklung von Prozessen rund um die Erstellung, Transformation, Speicherung und Pflege von Datensätzen
  • Aufbereitung und Weitergabe von Daten für nachgelagerte Datenanalysen
  • Optimierung vorhandener Datenverarbeitungsprozesse und Algorithmen
  • Entwicklung von Schnittstellen zwischen verschiedenen Softwaresystemen
  • Datenintegration und -transformation (ETL-Tools), Data Quality Management
  • Verwendung von Fehlerprotokollen zur Gewährleistung von Datenintegrität, Datenvollständigkeit und Datenaktualität

Methodische und technologische Skills:

  • Kenntnisse in Betriebssystemen, Client-Server- und IT-Architekturen
  • Beherrschung von Programmiersprachen (C#, PHP, Java, Perl, VBA etc.)
  • Beherrschung relationaler DBMS (SQL Server, Oracle, DB2, PostgreSQL)
  • Verständnis nichtrelationaler Datenbanksysteme (NoSQL, Column-Store)
  • Kenntnisse in der Verwendung von Modellierungs-Tools (ER-Diagramme)
  • Grundlagen in der Datenbankadministration und im Performance-Tuning
  • Kenntnisse in der Entwicklung von ETL-Prozessen und in Softwareentwicklung
  • DWH-Modellierung nach den Ansätzen von Kimball, Inmon oder Linstedt

 

Typische Aufgaben:

  • Erstellung von Anforderungsanalysen und Aufwandsschätzungen
  • Strukturierung und Kategorisierung vorhandener Unternehmensdaten
  • Erstellung von geeigneten technischen Konzepten und Datenmodellen
  • Entwicklung von Datenbankobjekten (Tabellen, Views, Materialized Views, Stored Procedures, Trigger, Functions, Indices)
  • Anwendungsdokumentation und Ausarbeitung von Benutzerrichtlinien
  • Durchführung von Tests (z. B. Database Unit Testing mit T-SQLt)
  • Datenbankerweiterungen und Anwendung von Sicherheitskonzepten

Methodische und technologische Skills:

  • Fundierte Kenntnisse in Mathematik, Statistik und Betriebswirtschaftslehre
  • Analytisches und lösungsorientiertes Denken innerhalb komplexer Strukturen
  • Sehr gute Branchenkenntnisse und Wissen über die jeweilige Daten-Domäne
  • Kenntnisse in diversen Programmiersprachen wie Python, Java, C++, R, VBA 
  • Erfahrung im Einsatz von Analyse-Tools wie SAS, KNIME oder RapidMiner
  • Kenntnisse in der Verwendung und Abfrage von relationalen Datenbanken
  • Sicherer Umgang mit Data Visualization Tools wie Tableau, MicroStrategy, Power BI und QlikView einschließlich Skills in Präsentation und Kommunikation

 

Typische Aufgaben:

  • Definition von Zielen, Anforderungen und Fragestellungen der Datenanalyse
  • Sammlung von strukturierten und unstrukturierten Daten aus externen und internen Datenquellen
  • Implementierung geeigneter Systeme zur Datensammlung und Speicherung
  • Datenmodellierung, Konsolidierung, Aggregation und Verknüpfung von Daten
  • Bereinigung von Datensätzen in Datenbanken, Fehleranalyse und -korrektur
  • Analyse und Interpretation von Mustern, Zusammenhängen und Trends
  • Visualisierung der Ergebnisse und Präsentation gegenüber Fachbereichen 

Methodische und technologische Skills:

  • Expertenwissen in Mathematik, Statistik, KI/ML und Operations Research
  • Phasenmodell zur Strukturierung von Data-Mining- und Analytics-Projekten
  • Analytisches und lösungsorientiertes Denken innerhalb komplexer Strukturen
  • Sehr gute Branchenkenntnisse und Wissen über die jeweilige Daten-Domäne
  • Expertise in Programmiersprachen, Analytics und Machine-Learning-Tools wie z. B. Python, R, KNIME, Spark, RapidMiner, Alteryx, TensorFlow, scikit-learn
  • Sicherer Umgang mit Data-Visualization-Tools wie Tableau, Power BI und QlikView sowie Entwicklung von Visuals mittels R Shiny oder JavaScript API
  • Ausgeprägte Skills in Präsentationstechniken und Kommunikation

 

Typische Aufgaben:

  • Ansprechpartner für Experten für Data Science aus verschiedenen Domänen
  • Identifikation und Ausarbeitung von datenbasierten Use Cases und den dazu passenden internen und externen (Big-Data-)Datenquellen
  • Anbindung von Datenquellen, Zugriff auf Data Warehouse oder Data Lakes
  • Datenqualitätsprüfungen, deskriptive Analyse von Rohdaten, Ableitung von Attributen (Feature Engineering) für Machine-Learning-Modelle
  • Trainieren, Testen, Validieren und Rollout von Machine-Learning-Modellen
  • Entwicklung von Predictive-Analytics-Lösungen auf Basis von KI-Methoden wie neuronale Netze, Fuzzy Logic, genetische Algorithmen und Simulationen

Methodische und technologische Skills:

  • Umfassende Kenntnisse in der Datenverarbeitung und Business Intelligence
  • Wissen im Bereich UI/UX, Grafikdesign sowie Kenntnisse des Storytellings
  • Regeln und Best Practices zur Erstellung verständlicher Dashboards (IBCS)
  • Expertise im Umgang mit Data-Visualization-Tools wie Tableau und Power BI
  • Kenntnisse von Business-Intelligence-Architekturen und Self-Service BI
  • Grundlagen der Verwendung und Abfrage von relationalen Datenbanken
  • Anforderungsmanagement sowie analytisches Denken und Verständnis
  • Abstraktionsfähigkeit, Kommunikationsfähigkeit und Überzeugungskraft

 

Typische Aufgaben:

  • Grafische Aufbereitung von Daten durch Verwendung visueller Elemente
  • Umwandlung komplexer Informationen in verständliche Sachverhalte
  • Erstellung von Diagrammen, Dashboards, Reports und Präsentationen
  • Vorgefertigte Visualisierungen in Bibliotheken (mit permanenter Erweiterung)
  • Entwicklung eigener Visualisierungen (Custom Visuals) mit R Shiny oder JavaScript API zur Einbindung in das Reporting oder in Analysen
  • Nutzung moderner Methoden, wie IBCS®, für ein abgestimmtes Reporting
  • Nutzung von APIs und Interfaces zur Integration von R- oder Python-Code

Auszug relevanter Technologien im Analytics-Kontext

 

Intelligente Filterung und Auswahl von Produktdaten