arrow arrow--cut calendar callback check chevron chevron--large cross cross--large download filter kununu linkedin magnifier mail marker media-audio media-blog media-video menu minus Flieger phone play plus quote share youtube

Scrum in Data Science-Projekten

Chancen, Herausforderungen und Schlüssel zum Erfolg

Scrum ist eines der bekanntesten agilen Frameworks und hat sich in der klassischen Softwareentwicklung bewährt. Es basiert auf den Grundprinzipien Empirie und Lean.

Im Kern bedeutet das: Teams arbeiten iterativ und inkrementell, treffen Entscheidungen auf Basis von Beobachtungen und Daten, organisieren sich selbst und legen großen Wert auf Transparenz. Dabei werden Ergebnisse und Prozesse regelmäßig hinterfragt und angepasst, um die Effektivität zu steigern und Ressourcen optimal zu nutzen.

Als Scrum Master sehe ich in Data Science-Projekten oft dieselben Fragen wie in der Softwareentwicklung: Wie gehen wir mit Unsicherheit um? Wie schaffen wir Transparenz? Und wie sorgen wir dafür, dass wir nicht am Kundenbedarf vorbeientwickeln?

Doch ist ein Data Science-Projekt kein klassisches Softwareprojekt. Der Unterschied liegt darin, dass Data Science-Projekte meist ungenauer definierbar, explorativer und schwerer planbar sind.

Scrum kann für Data Science-Projekte wertvoll sein, sofern die Besonderheiten wie Unsicherheit, Forschungslastigkeit und Explorationsfreiheit aktiv adressiert und die Scrum-Werte – Mut, Offenheit, Respekt, Fokus und Commitment – bewusst gelebt werden. 

Herausforderungen von Data Science-Projekten

Projekte im Bereich Data Science unterscheiden sich in vielerlei Hinsicht von klassischer Softwareentwicklung. Häufig ist zu Beginn nur grob bekannt, welches Problem wirklich gelöst werden soll. Ziele entwickeln oder ändern sich oft im Laufe des Projekts – manchmal sogar als Ergebnis der ersten Experimente. Das liegt voranging daran, dass diese Projekte angewiesen sind auf ein tieferes Verständnis der Unternehmensschritte und Daten, um daraufhin ermitteln zu können, was für ein Training relevant ist.

Eine große Rolle spielt außerdem die Abhängigkeit von Daten. Selbst das beste Modell kann nur so gut sein, wie die Qualität, Menge und Aktualität der verfügbaren Daten. Liegen diese nicht in adäquater Form vor, hat dies direkten Einfluss auf den Projektfortschritt.

Der experimentelle Charakter ist ein weiteres Merkmal: Data Science-Teams testen Hypothesen, vergleichen Modelle und bereinigen Daten – oftmals ohne Garantie, dass am Ende eines Sprints ein direkt nutzbares Inkrement vorliegt. Viele Zwischenergebnisse sind explorativ und dienen internen Lernprozessen – wir wissen jetzt, was nicht funktioniert. Dieser notwendige Forschungsansatz erschwert die Planbarkeit, denn Zeit- und Aufwandsabschätzungen sind durch unbekannte Faktoren wie Datenqualität oder Modellierbarkeit nur bedingt möglich.

Vorteile und Stärken von Scrum im Data Science-Kontext

Trotz dieser besonderen Herausforderungen kann Scrum gerade in Data Science-Projekten entscheidend unterstützen. 

Das iterative Vorgehen in Form von kurzen Sprintzyklen hilft dabei, Hypothesen schnellstmöglich zu überprüfen, die nächsten Schritte auf Basis der Ergebnisse anzupassen und Risiken frühzeitig zu erkennen und zu managen.

Ein weiterer Vorteil ist der klare Fokus auf Kundennutzen. Durch Sprint Reviews mit Stakeholdern kann früh geprüft werden, ob die bisherigen Erkenntnisse tatsächlich auf die Ziele einzahlen. Das verhindert, dass das Team an fachlichen Anforderungen vorbeientwickelt – ein Risiko, das bei rein forschungsgetriebenen Projekten nicht selten ist.

Scrum schafft zudem Transparenz und Kommunikation. 

Als Scrum Master etabliere ich bewusst die Scrum Events wie Daily Scrums, Refinements und Reviews, um den kontinuierlichen Austausch im Team und mit den Fachbereichen zu fördern. Dies ist auch für die Prüfung des Fortschritts in Richtung der Projektziele mit allen Beteiligten relevant. Gerade im Data Science-Kontext ist es wichtig, dass Zwischenergebnisse oder auch für Nutzer*innen nicht direkt sichtbare datenbasierte Ergebnisse sichtbar werden, auch wenn sie explorativ sind. Meine Aufgabe ist es, das Team darin zu unterstützen, diese Transparenz zu leben und Stakeholder daran zu beteiligen.

Durch die vorhandenen Artefakte wie dem Product Backlog haben alle Beteiligten stets ein aktuelles Bild vom Stand des Projekts.

In Verbindung mit kontinuierlicher Verbesserung durch Retrospektiven kann das Team seine Arbeitsweise laufend anpassen, um den besonderen Anforderungen von Data Science gerecht zu werden.

Nicht zuletzt bietet Scrum eine hohe Flexibilität. Elemente wie Spikes für Forschungsaufgaben oder eine angepasste Definition of Done an die Bedürfnisse des Teams, die auch Zwischenergebnisse akzeptiert, machen es möglich, den Rahmen auf den explorativen Charakter von Data Science-Arbeit zuzuschneiden.

Hier wirken auch die Scrum-Werte: 

  • Mut, Hypothesen auszuprobieren, auch wenn ein Scheitern möglich ist
  • Offenheit, auch unvollständige oder negative Ergebnisse transparent zu teilen
  • Respekt, unterschiedliche Sichtweisen und Fachperspektiven ernst zu nehmen
  • Fokus, trotz Forschungslastigkeit die vereinbarten Sprint-Ziele nicht aus den Augen zu verlieren und somit den Fokus auf die wichtigsten Analysen und Modelle zu richten
  • Commitment, gemeinsam Verantwortung für Ergebnisse zu übernehmen und trotz Unsicherheiten konsequent an den Zielen zu arbeiten

Ihr wollt mehr zu unserem agilen Portfolio erfahren? Hier geht's lang: 

Worauf es in der Umsetzung ankommt

Um als Team auch mit den Herausforderungen von Data Science-Projekten umgehen zu können, sollte bei der Vorgehensweise Folgendes berücksichtigt werden.

  • Adäquate Sprint-Ziele: Sprint-Ziele sollten nicht allein auf die potenzielle Auslieferung fertiger und nutzbarer Inkremente ausgerichtet sein, sondern auch Ziele aus Experimenten abbilden. Diese führen auch zu einer Wertmaximierung in Bezug auf Wissen bei den Teammitgliedern, wie etwa den Vergleich zweier Modelle anhand einer spezifischen Metrik oder die Erstellung eines funktionsfähigen Datenpipeline-Prototyps.
  • Kontextbezogene Sprintlänge: Die Sprintlänge sollte immer an den Kontext und die Bedürfnisse des Teams angepasst sein. Kürzere Sprintzyklen können in Data Science einen Mehrwert bieten, da sie schnellere Feedbackschleifen ermöglichen.
  • Definition of Ready (DoR): Daten-Readiness sollte Teil der DoR sein, sodass diese vor Sprintstart sichergestellt ist und Blockaden vermieden werden.
  • Definition of Done (DoD): In den Commitments, wie der Definition of Done, sollte berücksichtigt werden, dass die erarbeiteten Ergebnisse nicht immer produktionsreif sind. Es reicht gegebenenfalls aus, wenn ein Modell dokumentiert, getestet und reproduzierbar ist. Wichtig ist, dass dies im Team und mit Stakeholdern abgestimmt ist.
  • Explorationsaufgaben (Spikes): Für das Herantasten an Hypothesen können Spikes sinnvoll sein. Spikes sind neben den klassischen User Stories bewusst zeitlich begrenzt. Diese bieten dem Team Raum für Forschung, ohne den Fokus zu verlieren.
  • Starkes Erwartungsmanagement und gezielte Kommunikation: Der Austausch mit den Fachbereichen sollte besonders eng und iterativ gestaltet werden, da die Ergebnisse teilweise unsicher und die Aufgaben schwer plan- oder schätzbar sind.
    Hier ist es oft meine Rolle, als Scrum Master die passenden Rahmenbedingungen zu schaffen, damit Dokumentation und Austausch nicht als „Last“, sondern als sichtbarer Mehrwert wahrgenommen werden.

Auch der Aspekt Wissensmanagement darf nicht unterschätzt werden. Experiment-Logs, strukturierte Dokumentationen und regelmäßige Austauschformate sind essenziell, um den Lernfortschritt festzuhalten und für alle Beteiligten nutzbar zu machen. 

Mein Fazit als Scrum Master

Scrum ist kein Allheilmittel, aber es bietet genau die Mechanismen, die Data Science-Teams brauchen, um mit Unsicherheit und Komplexität umzugehen: kurze Feedbackzyklen, Transparenz und die Möglichkeit, Hypothesen systematisch zu überprüfen. Entscheidend ist jedoch, dass Scrum im Team nicht starr angewendet, sondern bewusst durch kontinuierliche Überprüfung an die besonderen Anforderungen und den Kontext der Data Science-Arbeit angepasst wird.

Das bedeutet: Wir akzeptieren, dass nicht jeder Sprint ein fertiges Produktinkrement liefert, sondern manchmal „nur“ Wissen oder auch nicht sichtbare Arbeiten in Bezug auf die Datenaufbereitung. Wir passen Definition of Done und Sprint-Ziele so an, dass auch Experimente, Prototypen oder Vergleichsergebnisse echten Wert darstellen. Wir schaffen Klarheit über Daten-Readiness und geben Raum für Exploration durch Spikes.

Vor allem aber leben wir die Scrum-Werte: Mut, Neues auszuprobieren; Offenheit, auch Unsicherheiten zu teilen; Respekt, Perspektiven einzubeziehen; Fokus, Ziele klar zu verfolgen; und Commitment, Verantwortung füreinander und für das Ergebnis zu übernehmen.

Als Scrum Master sehe ich meine Aufgabe darin, diesen Rahmen aktiv mitzugestalten, Erwartungsmanagement mit Stakeholdern zu unterstützen und dem Team dabei zu helfen, sich auf das Wesentliche zu konzentrieren: Lernen, Liefern und kontinuierlich besser werden. So kann Scrum auch in Data Science-Projekten nicht nur funktionieren, sondern echten Mehrwert schaffen.