Scrum ist eines der bekanntesten agilen Frameworks und hat sich in der klassischen Softwareentwicklung bewährt. Es basiert auf den Grundprinzipien Empirie und Lean.
Im Kern bedeutet das: Teams arbeiten iterativ und inkrementell, treffen Entscheidungen auf Basis von Beobachtungen und Daten, organisieren sich selbst und legen großen Wert auf Transparenz. Dabei werden Ergebnisse und Prozesse regelmäßig hinterfragt und angepasst, um die Effektivität zu steigern und Ressourcen optimal zu nutzen.
Als Scrum Master sehe ich in Data Science-Projekten oft dieselben Fragen wie in der Softwareentwicklung: Wie gehen wir mit Unsicherheit um? Wie schaffen wir Transparenz? Und wie sorgen wir dafür, dass wir nicht am Kundenbedarf vorbeientwickeln?
Doch ist ein Data Science-Projekt kein klassisches Softwareprojekt. Der Unterschied liegt darin, dass Data Science-Projekte meist ungenauer definierbar, explorativer und schwerer planbar sind.
Scrum kann für Data Science-Projekte wertvoll sein, sofern die Besonderheiten wie Unsicherheit, Forschungslastigkeit und Explorationsfreiheit aktiv adressiert und die Scrum-Werte – Mut, Offenheit, Respekt, Fokus und Commitment – bewusst gelebt werden.
Projekte im Bereich Data Science unterscheiden sich in vielerlei Hinsicht von klassischer Softwareentwicklung. Häufig ist zu Beginn nur grob bekannt, welches Problem wirklich gelöst werden soll. Ziele entwickeln oder ändern sich oft im Laufe des Projekts – manchmal sogar als Ergebnis der ersten Experimente. Das liegt voranging daran, dass diese Projekte angewiesen sind auf ein tieferes Verständnis der Unternehmensschritte und Daten, um daraufhin ermitteln zu können, was für ein Training relevant ist.
Eine große Rolle spielt außerdem die Abhängigkeit von Daten. Selbst das beste Modell kann nur so gut sein, wie die Qualität, Menge und Aktualität der verfügbaren Daten. Liegen diese nicht in adäquater Form vor, hat dies direkten Einfluss auf den Projektfortschritt.
Der experimentelle Charakter ist ein weiteres Merkmal: Data Science-Teams testen Hypothesen, vergleichen Modelle und bereinigen Daten – oftmals ohne Garantie, dass am Ende eines Sprints ein direkt nutzbares Inkrement vorliegt. Viele Zwischenergebnisse sind explorativ und dienen internen Lernprozessen – wir wissen jetzt, was nicht funktioniert. Dieser notwendige Forschungsansatz erschwert die Planbarkeit, denn Zeit- und Aufwandsabschätzungen sind durch unbekannte Faktoren wie Datenqualität oder Modellierbarkeit nur bedingt möglich.
Trotz dieser besonderen Herausforderungen kann Scrum gerade in Data Science-Projekten entscheidend unterstützen.
Das iterative Vorgehen in Form von kurzen Sprintzyklen hilft dabei, Hypothesen schnellstmöglich zu überprüfen, die nächsten Schritte auf Basis der Ergebnisse anzupassen und Risiken frühzeitig zu erkennen und zu managen.
Ein weiterer Vorteil ist der klare Fokus auf Kundennutzen. Durch Sprint Reviews mit Stakeholdern kann früh geprüft werden, ob die bisherigen Erkenntnisse tatsächlich auf die Ziele einzahlen. Das verhindert, dass das Team an fachlichen Anforderungen vorbeientwickelt – ein Risiko, das bei rein forschungsgetriebenen Projekten nicht selten ist.
Scrum schafft zudem Transparenz und Kommunikation.
Als Scrum Master etabliere ich bewusst die Scrum Events wie Daily Scrums, Refinements und Reviews, um den kontinuierlichen Austausch im Team und mit den Fachbereichen zu fördern. Dies ist auch für die Prüfung des Fortschritts in Richtung der Projektziele mit allen Beteiligten relevant. Gerade im Data Science-Kontext ist es wichtig, dass Zwischenergebnisse oder auch für Nutzer*innen nicht direkt sichtbare datenbasierte Ergebnisse sichtbar werden, auch wenn sie explorativ sind. Meine Aufgabe ist es, das Team darin zu unterstützen, diese Transparenz zu leben und Stakeholder daran zu beteiligen.
Durch die vorhandenen Artefakte wie dem Product Backlog haben alle Beteiligten stets ein aktuelles Bild vom Stand des Projekts.
In Verbindung mit kontinuierlicher Verbesserung durch Retrospektiven kann das Team seine Arbeitsweise laufend anpassen, um den besonderen Anforderungen von Data Science gerecht zu werden.
Nicht zuletzt bietet Scrum eine hohe Flexibilität. Elemente wie Spikes für Forschungsaufgaben oder eine angepasste Definition of Done an die Bedürfnisse des Teams, die auch Zwischenergebnisse akzeptiert, machen es möglich, den Rahmen auf den explorativen Charakter von Data Science-Arbeit zuzuschneiden.
Hier wirken auch die Scrum-Werte:
Ihr wollt mehr zu unserem agilen Portfolio erfahren? Hier geht's lang:
Um als Team auch mit den Herausforderungen von Data Science-Projekten umgehen zu können, sollte bei der Vorgehensweise Folgendes berücksichtigt werden.
Auch der Aspekt Wissensmanagement darf nicht unterschätzt werden. Experiment-Logs, strukturierte Dokumentationen und regelmäßige Austauschformate sind essenziell, um den Lernfortschritt festzuhalten und für alle Beteiligten nutzbar zu machen.
Scrum ist kein Allheilmittel, aber es bietet genau die Mechanismen, die Data Science-Teams brauchen, um mit Unsicherheit und Komplexität umzugehen: kurze Feedbackzyklen, Transparenz und die Möglichkeit, Hypothesen systematisch zu überprüfen. Entscheidend ist jedoch, dass Scrum im Team nicht starr angewendet, sondern bewusst durch kontinuierliche Überprüfung an die besonderen Anforderungen und den Kontext der Data Science-Arbeit angepasst wird.
Das bedeutet: Wir akzeptieren, dass nicht jeder Sprint ein fertiges Produktinkrement liefert, sondern manchmal „nur“ Wissen oder auch nicht sichtbare Arbeiten in Bezug auf die Datenaufbereitung. Wir passen Definition of Done und Sprint-Ziele so an, dass auch Experimente, Prototypen oder Vergleichsergebnisse echten Wert darstellen. Wir schaffen Klarheit über Daten-Readiness und geben Raum für Exploration durch Spikes.
Vor allem aber leben wir die Scrum-Werte: Mut, Neues auszuprobieren; Offenheit, auch Unsicherheiten zu teilen; Respekt, Perspektiven einzubeziehen; Fokus, Ziele klar zu verfolgen; und Commitment, Verantwortung füreinander und für das Ergebnis zu übernehmen.
Als Scrum Master sehe ich meine Aufgabe darin, diesen Rahmen aktiv mitzugestalten, Erwartungsmanagement mit Stakeholdern zu unterstützen und dem Team dabei zu helfen, sich auf das Wesentliche zu konzentrieren: Lernen, Liefern und kontinuierlich besser werden. So kann Scrum auch in Data Science-Projekten nicht nur funktionieren, sondern echten Mehrwert schaffen.