arrow arrow--cut calendar callback check chevron chevron--large cross cross--large download filter kununu linkedin magnifier mail marker media-audio media-blog media-video menu minus Flieger phone play plus quote share youtube

Messbar anders - Data Analytics beim 1. FC Köln

Teilnehmerblitzlicht zu Innovation Impuls #19

Wer Fußball verfolgt, kommt an Zahlen längst nicht mehr vorbei. In der Übertragung blinken Statistiken auf, in Spielberichten werden mehr oder minder absurde Rekorde aufgeführt, und mit immer neuen Kennzahlen soll erklärt werden, was gerade passiert ist. Klassische Werte wie Ballbesitz oder Torschüsse werden dabei zunehmend ergänzt von neuen Metriken. Packing, xGoals, schnellster Sprint. Ob diese Zahlen für mich als Fan hilfreich sind, ist zweitrangig. Ich konsumiere sie trotzdem gerne. 

Ich verfolge Fußball mit Leidenschaft, merke aber immer wieder, wie schwer mir im Nachhinein die Einordnung fällt. Ich kann, anders als beispielsweise diejenigen, die selbst über Jahre aktiv gespielt haben, oft kaum sagen, wer eigentlich ein gutes Spiel gemacht hat und warum. Es fällt mir schwer, aus Spielsituationen oder abstrakten Konzepten wie dem Verhalten gegen den Ball klare Schlüsse abzuleiten. Sicherlich liegt es auch daran, dass während der 90 Minuten bei mir die Emotion dominiert, weniger die analytische Beobachtung. Denn eigentlich passt das nicht zu mir. Ich bin Kopfmensch, arbeite als Data Engineer und habe damit beruflich täglich mit Strukturen und Zahlen zu tun. Mit Daten kann ich deutlich mehr anfangen als mit vagen Eindrücken. Genau deshalb fasziniert mich die Idee, das Geschehen auf dem Platz in eine strukturierte, messbare Form zu übertragen.

Diese „Übersetzung“ stand im Mittelpunkt des Vortrags „Messbar anders: Data Analytics beim 1. FC Köln“ von Pascal Buß beim Innovation Impuls #19 der Cologne Intelligence, den ich als Zuhörer verfolgt habe. Dabei ging es bewusst nicht um die Fanperspektive, in der Statistiken oft eine zusätzliche, manchmal unterhaltsame Ebene sind. Der Blick kam von der anderen Seite: von Vereinen, die Daten nutzen, um Spiele zu analysieren, Entscheidungen zu treffen und langfristig wettbewerbsfähig zu bleiben. Nicht als Spielerei, sondern als Werkzeug, das seinen Weg aus dem US-Sport in den modernen Profifußball gemacht hat und dort stetig ausgebaut wird.

Foto von David Bläsi
David Bläsi

Data Engineer

Die Datenbasis: von der Videoaufzeichnung zu strukturierten Daten

Wie zu Beginn jedes Analytics oder Data Science-Projekts stellt sich auch im Profifußball die Frage, auf welcher Datenbasis man aufbaut. Die Übertragung eines 90-minütigen Spiels – dem Inbegriff unstrukturierter, je nach Situation gar chaotischer Daten – in eine systematisch erfassbare Form ein zentraler Schritt. Erst so lässt sich das Geschehen auf dem Platz überhaupt analysierbar machen.

Zwei Aspekte haben mich dabei überrascht: wie manuell dieser Prozess abläuft und gleichzeitig, wie "hochauflösend" dies geschieht. Bereits während des Spiels sitzen Analyst*innen im Stadion und erfassen Ereignisse in Echtzeit. Diese Daten fließen unmittelbar in Live-Statistiken für Fans, können aber auch für Trainer*innen und Staff am Spielfeldrand relevant sein. Weitaus detailliertere Aufbereitungen, die in der Regel die Basis für tiefergehende Analysen und strategische Entscheidungen bilden, werden ebenfalls manuell von verschiedenen Dienstleistern aufbereitet und angeboten: jede Aktion wird sauber abgegrenzt, klassifiziert und mit zahlreichen Parametern versehen. Pro Partie entstehen so rund 3.000 einzelne Aktionen, aus denen je nach Anbieter bis zu 1.400 verschiedene KPIs abgeleitet werden können.

Diese Aktionen bilden allerdings nur das Geschehen „am Ball“ ab – das sind im Durchschnitt etwa 2-3 Minuten pro Spieler*in, ungefähr der Teil, den ich als nicht fachkundiger Beobachter halbwegs überblicken kann und auf dem mein Urteil darüber basiert, wer ein gutes Spiel gemacht hat. Dass sich fundiertere Bewertungen ergeben, wenn man darüber hinaus auch die Momente berücksichtigt, in denen Spieler*innen ohne Ball agieren – also die weitaus größere Zeit des Spiels, in der sie das Spielgeschehen beeinflussen, ohne selbst den Ball zu führen – liegt auf der Hand. Hierfür werden hoch aufgelöste Positionsdaten genutzt, die von Kamerasystemen im Stadion erfasst werden. Moderne Systeme zeichnen nicht nur die Koordinaten aller Spieler*innen auf, sondern arbeiten inzwischen mit 3D-Modellen einzelner Körperteile. Dadurch lassen sich Bewegungen präzise nachvollziehen und nebenbei die semi-automatische Abseitserkennung realisieren.

Herausforderungen bei der Datenqualität

Im Vortrag wurde auch die Frage der Datenqualität thematisiert – ein zentraler Aspekt, wenn man aus tausenden Aktionen und Hunderten von KPIs belastbare Schlüsse ziehen möchte. Dabei lassen sich mehrere Dimensionen unterscheiden:

  • Korrektheit: Beim manuellen Tagging passieren zwangsläufig Fehler. So kann etwa eine Aktion nach dem Pfiff des Schiedsrichters fälschlicherweise als Fehlpass gewertet werden, weil die annotierende Person das Video ohne Ton beurteilt.
  • Vollständigkeit: Äußere Umstände können das Tagging beeinträchtigen. Zum Beispiel wenn Nebel durch Pyrotechnik verhindert, dass bestimmte Aktionen erfasst werden.
  • Konsistenz: Interpretationsspielraum beim manuellen Tagging führt zu leichten Abweichungen zwischen Annotator*innen.
  • Aktualität: Je nachdem, ob Daten in Echtzeit während des Spiels oder für langfristige Entscheidungen aufbereitet werden, variieren die Anforderungen an die Aktualität.

Insgesamt betonte Pascal, dass solche Fehler meist nicht-systematisch auftreten. Sie haben deshalb nur einen überschaubaren Einfluss auf die Qualität der Analysen, womit diese weiter als wichtiger Baustein strategischer Entscheidungen, Leistungsbewertungen und taktischen Analysen nutzbar sind.

Wertschöpfung: Fokus auf low hanging fruits

Mit Blick auf den Fortschritt bei Digitalisierungsthemen wurde der Verein mit einem größeren Mittelständler verglichen: In einigen Bereichen, dazu zählen auch Analytics-Themen, erfolgte der Einstieg vergleichsweise spät. Eine der ersten Maßnahmen war dann, systematisch oben genannten Daten zu beziehen und damit überhaupt erst die Grundlage für Analytics zu schaffen. Diese Daten eröffnen potenziell eine Vielzahl an Use Cases. Als datenaffiner Mensch merkt man schnell, wie viele Fragestellungen sich damit bearbeiten ließen – und wie groß die Versuchung ist, direkt tiefer einzusteigen. Das zeigte sich auch an den zahlreichen interessierten Nachfragen aus dem Publikum, die genau in diese Richtung gingen.

Nicht nur in einem schnelllebigen Umfeld wie dem Profisport ist es besonders wichtig, den Fokus auf die low hanging fruits mit großem Mehrwert zu setzen und sich dabei nicht zu verzetteln. Im Vortrag wurden hier vor allem standardisierte Reports zur Vorbereitung auf den nächsten Gegner genannt, die es Trainerteam und Analyseabteilung ermöglichen, sich schnell einen strukturierten Überblick zu verschaffen. Ergänzt wird dies durch datenbasierte Unterstützung der Scouting-Abteilung, um aus einer großen Anzahl potenzieller Kandidat*innen gezielt diejenigen Spieler*innen zu identifizieren, die zum jeweiligen Anforderungsprofil passen. So wird Datenanalyse vom experimentellen Werkzeug zu einem festen Bestandteil operativer Entscheidungen. Dabei müssen, wie bei allen Analytics-Projekten, gewisse Aspekte berücksichtigt werden:

Zielgruppe definieren: Scouting-Informationen müssen für die Analyst*innen der Abteilung deutlich detaillierter sein als für die Geschäftsführung, die nur aggregierte Ergebnisse zur Entscheidungsfindung benötigt.

Identifikation relevanter Daten: Welche Partien sind für die Analyse eines Spielers für meine Anforderungen wirklich aussagekräftig? Kann ich ohne Weiteres die Statistiken eines Spielers einer sehr dominanten Mannschaft auf das eigene Team übertragen?

Normalisierung der Daten: Leistungswerte müssen sinnvoll skaliert oder angepasst werden (z. B. Spielzeit, Position, Liga), um Vergleichbarkeit sicherzustellen.

Automatisierung, wo möglich: Wiederkehrende Prozesse wie Report-Generierung oder Aggregationen sparen Zeit und reduzieren Fehler.

Iteratives Vorgehen: Erste Ergebnisse liefern, Feedback einholen und Prozesse schrittweise verbessern, bevor komplexere Analysen umgesetzt werden.

Die Wahrheit liegt auf dem Platz

Dass die Daten auch andersartige Analysen ermöglichen, die zur Verbesserung der Trainingsinhalte und -methoden beitragen können, zeigte ein weiteres Beispiel. Getreu dem Motto „die Wahrheit liegt auf dem Platz“ hat man sich die Frage gestellt, wie man schon ab dem Jugendbereich die Spieler*innen bestmöglich auf die Realität aus den Profiligen vorbereiten kann und sich die Frage gestellt, aus welchen Zonen Außenverteidiger*innen üblicherweise zu Torabschlüssen kommen. Die Auswertungen zeigten, dass diese Abschlüsse deutlich häufiger aus zentralen Positionen vor dem Tor erfolgen als gemeinhin angenommen – und auch anders, als es vielerorts im Training vermittelt wird. Die Daten widersprachen etablierten Annahmen, woraufhin die Trainingspraktiken angepasst wurden. Einst hätte man für eine solche Fragestellung Stunden an Videomaterial sichten müssen, um mit viel Erfahrung, manueller Arbeit und entsprechendem Interpretationsspielraum überhaupt belastbare Muster erkennen zu können. Heutzutage lassen sich solche Fragestellungen auf Basis strukturierter Daten deutlich schneller und systematischer beantworten, und zwar über viele Spiele, Ligen und Spielzeiten hinweg und ohne sich auf einzelne Beobachtungen oder subjektive Eindrücke verlassen zu müssen.

Fazit: frischer Blick auf vertrautes Spiel

Pascal hat mit seinem Use Case-getriebenen Vortrag alle Zuhörer*innen hervorragend abgeholt. Im Mittelpunkt standen nicht Tools oder technische Details, sondern die Lösung von Problemen, die für das Publikum (angesichts der Fragen und der anschließenden Diskussion sicherlich überdurchschnittlich fußballbegeistert) direkt nachvollziehbar waren. Ich bin mir sicher, dass die Weiterentwicklung von Analytics im Sportbereich auch für die Zuschauerseite mit weiteren Fakten und Statistiken spürbar sein wird.

Auch wenn für mich persönlich die Emotionen beim Zuschauen weiterhin im Vordergrund stehen werden, werde ich die nächsten Spiele nach dem Abend sicher mit einem anderen Blick verfolgen. Vielleicht achte ich dann bewusster auf die Wurfrichtungen bei Einwürfen oder schaue genauer hin, ob Said El Mala wirklich eine so gute Quote in Luftduellen in der Defensive hat, wie die Daten nahelegen.

Data & AI Solutions bei CI

Data Engineering, Data Analytics, Data Science: Wir beschäftigen uns mit allen Facetten von Daten. Hier geht's zum Portfolio: