Die Qual der Zahl

Am Anfang des modernen Kennzahlenkults steht der Taschenrechner. Als er vor 50 Jahren in die Läden kommt, kosten Modelle mit Sinus-, Tangens- und Quadratwurzeltaste noch ein kleines Vermögen. In Unternehmen kursieren Handbücher von Texas Instruments wie „Entscheidungen rechnerisch ermitteln“, die nichts weniger versprechen als Trendvorhersagen, die Analyse von Daten und die Vorhersage von Investitionsgewinnen.

Im Klassenzimmer sind die kleinen Rechenmaschinen, die sogar notorische Mathemuffel zu Zahlenspielern machen, derweil tabu, denn für die Lehrer bleibt der Lösungsweg das Lernziel. Eisern klammern sich die Studienräte an Logarithmentabellen und Formelsammlungen. Doch die Teenies spielen unter der Bank heimlich mit ihrem Casio, später sparen sie auf einen Commodore 64. Als erste Elterngeneration des Onlinezeitalters ziehen sie heute die Digital Natives groß, die sich fragen, warum Oma und Opa so stolz darauf sind, noch die antiquierte Kulturtechnik des Kopfrechnens zu beherrschen.

Hätte sich eines dieser gadgetverliebten Kids anno 2008 zu der Behauptung verstiegen, Computer seien nun so weit, dass Forscher aufhören könnten, Hypothesen aufzustellen und zu überprüfen, so wäre dies vielleicht noch als jugendlicher Übermut abgetan worden. Tatsächlich war es jedoch einer der maßgeblichen Influencer aus der ergrauenden Taschenrechnergeneration, der „Das Ende der Theorie“ proklamierte: Chris Anderson, damals Chefredakteur der amerikanischen Nerd-Bibel „Wired“, vertrat in seinem Essay die steile These, die etablierte Methodik der Natur- und Sozialwissenschaftler sei nicht mehr zeitgemäß, da moderne Rechnercluster aus fast beliebig großen Datenmengen Wissen destillieren könnten.

Die Gedankenmodelle, die am Anfang eines jeden Forschungsvorhabens stehen, seien ja ohnehin alle falsch, befand der Journalist. Sein Kronzeuge war kein Geringerer als George Box. Der greise britisch-amerikanische Statistikprofessor hatte seit Jahrzehnten gegen die Wissenschaftspraxis gestichelt: “All models are wrong.” Von Box’ Einschränkung „but some are useful“ – manche der Modelle sind besser als nichts – ließ sich Anderson nicht beirren. „Korrelation geht über Kausalität“, verkündete er keck, „mit genügend Daten sprechen die Zahlen für sich.“

Macht Big Data betriebsblind?

Aber sind Zahlen und Daten wirklich Fakten, nur weil es jetzt viel mehr davon gibt, „Big Data“ genannt? Haben wir es mit der Hybris eines berufsmäßigen Technikgläubigen zu tun, dem Machbarkeitswahn eines Betriebsblinden? Oder kann der Ansatz funktionieren, sich nicht vorher den Kopf darüber zu zerbrechen, was man wissen möchte, sondern einfach abzuwarten, was für Zahlen ein schlauer Computer ausspuckt? Wenn ja, was sagen solche Ergebnisse aus? Sind sie mehr als Zufallstreffer, die uns etwas über die Vergangenheit verraten? Was ist mit der Zukunft, aus der es keine Messwerte geben kann? Wo liegen die Grenzen einer Methode, die sich durch den Verzicht auf ein methodisches Korsett auszeichnet? Und: Was macht sie mit uns, diese Technik, die auf unsichtbaren Lösungswegen beliebig viele Nachkommastellen errechnet und so allerhöchste Präzision suggeriert? Die Qual mit der Zahl bleibt aktuell.
 

Denn all diese Fragen sind relevant. Mit den Zahlen, die unsere Computer aus unseren Daten filtern, steuern wir wie selbstverständlich unsere Betriebe und die Politiker unseren Staat. Wir messen und wir zählen ohne Unterlass, im Beruf wie privat. Durchtrainierte Manager, die mit dem Fitnesstracker jeden Schritt und jeden Herzschlag erfassen, brüsten sich damit, als Chefs „datengetriebener“ Unternehmen fit zu sein für den digitalen Wandel der Wirtschaft. Unsere Gesellschaft giert nach Quoten, Wachstumsraten, KPIs, dem RoI. Zahlen sind entweder „gut“ oder „schlecht“, eine Mitte ist nicht vorgesehen. Was sich nicht beziffern lässt, nehmen wir erst gar nicht wahr oder nicht ernst. Wir sind: zahlensüchtig.

Es ist nicht so, dass niemand die Gefahr erkannt hätte. Das Echo, das Andersons Abgesang auf wissenschaftliche Vorgehensweisen seinerzeit auslöste, war durchaus zwiespältig. Wer sich mit Data-Mining, Mustererkennung, KI oder generell mit Datenanalysen beschäftigte, konnte sich bestätigt und anerkannt fühlen. Als sich „Big Data“ in der Folgezeit als Buzzword etablierte, bot sich der Begriff als Argumentationshilfe für Verkäufer und Berater an, pries er doch die Überlegenheit der neuen Tools gegenüber dem Handwerkszeug angesehener Forscher. Heftiger Widerspruch kam indes von Wissenschaftlern, die jahrelang immer wieder mit der reißerischen Story vom Ende der Theorie konfrontiert wurden. Dabei hatte Anderson selbst nur eine Hypothese aufgestellt und sie nicht nach wissenschaftlichen Standards belegt.

"Data Lakes" besser hinterfragen

„Die Qualität der Daten ist wichtig. Der Erkenntnisgewinn wird nicht automatisch besser, wenn der Umfang der Daten zunimmt“, sagt Gerald Dipplinger, Digital Transformation Leader und Partner Tax Technology bei PwC Österreich. „Entscheidend ist: Was ist drin im Datenmeer?“ Daten an sich seien bedeutungslos, spielt er auf das altbekannte GIGO-Prinzip an: „Garbage In, Garbage Out“. Datenmüll gebiert nichts als neuen Datenmüll.

Um ein Gefühl dafür zu bekommen, was „big“ bei Datenmengen heute bedeuten kann, lohnt ein Blick nach Genf: In einer einzigen 12-Stunden-Schicht schüttet der Teilchenbeschleuniger Large Hadron Collider (LHC) des CERN zwei Exabyte an Messdaten aus, zwei Billionen Megabyte, so viel wie auf die Festplatten von zwei Millionen PCs passt. Speichern und nutzen können die Elementarteilchen-Physiker gerade einmal 40 Millionstel davon – eine sorgfältig ausgewählte Stichprobe. 99,996 Prozent des Inputs werden sofort wieder verworfen, weil sie eh niemand verarbeiten könnte.

„In Österreich sind wir leider noch voll dabei, Daten anzuhäufen und dann damit auch noch unkritisch zu arbeiten – erst recht im Steuer- und Finanzwesen.“

Gerald Dipplinger, Digital Transformation Leader und Partner Tax Technology bei PwC Österreich
<p>Gerald Dipplinger ist Partner und Digital Leader bei PwC Österreich. Er verfügt über jahrelange Berufserfahrung in der Steuerberatung von nationalen und internationalen Unternehmen, und hat sich besonders auf den Bereich Tax Technology fokussiert.&nbsp;</p>

Gerald Dipplinger ist Partner und Digital Leader bei PwC Österreich. Er verfügt über jahrelange Berufserfahrung in der Steuerberatung von nationalen und internationalen Unternehmen, und hat sich besonders auf den Bereich Tax Technology fokussiert. 

Im Vergleich zu der astronomischen Dimension dieser Datenflut hat es die Wirtschaft mit mikroskopisch winzigen Volumina zu tun. Eine Vollauswertung bestimmter Datenströme oder des in einem „Data Lake“ (Datenstausee) gesammelten Rohmaterials scheitert also kaum an technischen Hürden. Die Frage ist nur, in welchen Fällen sich der Aufwand an Technik und Personal rentiert und wann man in die GIGO-Falle tappt. „In Österreich sind wir leider noch voll dabei, Daten anzuhäufen und dann damit auch noch unkritisch zu arbeiten – erst recht im Steuer- und Finanzwesen“, so der Big-Data-Experte. „Entscheider sollten aber vor allem wissen, wie die verfügbaren Daten zustande gekommen sind.“ Wenn Umsätze der falschen Kostenstelle zugeordnet sind, weggefiltert werden oder Scheinkorrelationen entstehen, sind die Daten wertlos. Und die falsche Verknüpfung von Daten bringt auch verfälschte Ergebnisse.

Gefährliche Puffer in Reportings

Ein interessantes Einsatzgebiet für statistische Methoden aus dem Big-Data-Werkzeugkasten seien präzisere Forecasts für die Finanzabteilung. „Mit statistischen Methoden Forecasts zu bauen, dafür fehlt in Österreich allerdings derzeit noch die Qualität der Datenbasis“, stellt Gerald Dipplinger in der Praxis immer wieder fest.

Der Big-Data-Trend allein sei ohnehin noch lange kein Allheilmittel, sagt Thomas Inführ, Manager Tax Technology & Digital Services bei PwC Österreich. „Nur auf Data-Science-Methoden zu vertrauen, ist zu kurz gesprungen. Moderne Datenanalyse ist zwar ein mächtiges Werkzeug, um Dinge zu objektivieren. Aber ein Datenpool muss auch mit menschlichen Erfahrungswerten abgeglichen werden.“ Unternehmen täten also gut daran, nicht wahllos Daten in einen Trichter zu werfen, so Thomas Inführ. „Besser ist es, wenn Unternehmen Zeit und Geld investieren und einen Review der Daten manuell vornehmen. Eine KI ist in der Beziehung ja nicht wirklich schlau, sondern schleppt schlimmstenfalls eine falsche Datenbasis in die Zukunft mit.“

Wobei Big Data bislang überhaupt nicht weiterhilft, ist eine Vorhersage von Nachfrage und Marktentwicklung. Bereits 2013 erregte die sinoamerikanische Ethnografin Tricia Wang einiges Aufsehen mit der Forderung, sich nicht nur um die Quantität der Daten zu kümmern, sondern endlich auch die Qualität ernst zu nehmen. Ihr früherer Arbeitgeber Nokia sei daran gescheitert, dass er über sein immer schlechter laufendes Geschäft alles wusste, aber nichts über die Wünsche, Emotionen und Bedürfnisse seiner Kunden, die in Scharen zu Apple abwanderten und iPhones kauften. Für das, was sie vermisste, prägte Wang den Ausdruck „Thick Data“. Doch sie meinte in Wirklichkeit, dass die Finnen vor lauter Zahlenfixiertheit versäumt hätten, mit dem klassischen Repertoire der Marktforschung – etwa Tiefeninterviews und Milieustudien – zu eruieren, mit welchen Produkten sie ihre Kunden halten könnten.

Thomas Inführ Mehr lesen »

Thomas Inführ ist Manager für Tax Technology & Digital Services bei PwC Österreich.  Weniger lesen »

Bessere Erkenntnisse dank „Experience Data“

Dass hier Nachholbedarf besteht, hat auch der deutsche Softwareriese SAP erkannt. Voriges Jahr kauften die Walldorfer für acht Milliarden Dollar die amerikanische Marktforschungsplattform Qualtrics. Spezialisiert hat sich das Unternehmen auf das Sammeln und Auswerten von „Experience Data“ oder kurz „X Data“. So nennt der Gründer und CEO Ryan Smith Daten zu weichen Faktoren wie Kunden- und Mitarbeiterzufriedenheit. Sie sollen die „O Data“, also die harten operativen Daten aus der Finanzabteilung und der Produktion, ergänzen.

Das Besondere: Kunden können ihr Feedback formlos in Klartext hinterlassen. Die Software sortiert positive und negative Kommentare automatisch per Sentimentanalyse; wenn es mit einem Produkt Probleme gibt, sieht der Auftraggeber nicht nur eine schulnotenartige Kennzahl, sondern kann lesen, was die Käufer konkret stört. Qualtrics’ Geschäftsmodell besteht quasi darin, die Kluft zu überbrücken, die zwischen einer durch einseitige Fokussierung auf die verkehrten Kennzahlen geprägten Selbstwahrnehmung der Chefs und der Fremdwahrnehmung durch die Kunden und Angestellten klafft.

Auch Experience-Daten sollten mit Hausverstand angegangen und subjektive Filter bei der Bewertung berücksichtigt werden, empfiehlt PwC-Experte Gerald Dipplinger. „Es macht Sinn, das eigene Gehirn einzuschalten, wenn man Analysen vornimmt.“ Zumindest in den USA scheint es sich bei dieser Bewertung um eine Schlucht vom Ausmaß des Grand Canyons zu handeln. „Achtzig Prozent der CEOs glauben, dass ihre Angebote klasse sind“, rief Ryan Smith bei der Ankündigung seiner Dienstleistung in den Saal. „Aber nur acht Prozent der Kunden stimmen dem zu.“ Ein weiteres verblüffendes Ergebnis: Zwei Drittel der Arbeitnehmer in den USA hätten innerlich gekündigt.

Die SAP-Tochter hat also einen üppigen Markt im Visier. Da Smiths Zahlenangaben aber aus Umfragen stammen, sind sie natürlich, wie immer, ohne Gewähr.

Newsletter abonnieren

Mit dem Newsletter verpassen Sie keine Ausgabe der next: Das Magazin für Vorausdenker

Anmelden
Feedback

Sie möchten uns Feedback zu diesem Beitrag geben? Wir freuen uns auf Ihre Rückmeldung.

Feedback
Diesen Beitrag teilen

Hier können Sie den Beitrag über soziale Medien teilen.

Teilen

Sie möchten für immer auf Höhe der Vorausdenker sein?
Hier für den next: Newsletter anmelden!

Anmelden