Interview mit Said D. Werner

Wie gründet man ein nationales Dateninstitut?

von Sebastian Paul
23.03.2023
Ministerien sind Synästhesisten. Das bedeutet, sie denken in parteipolitischen Farben. Demokratietheoretisch ist das nachvollziehbar; erst in der Staatstheorie, die langfristig denkt, wird diese Praxis zum Problem. Mein Vorschlag ist, ein mit Experten besetztes Dateninstitut als autonome Agentur aus dieser Logik herauszulösen.

Said D. Werner
Alumnus des Bachelorstudiengangs „Sociology, Politics and Economics“ und achter studentischer Vizepräsident
 
  •  
     
    Hä...?
    Haben Sie Fragen zum Beitrag? Haben Sie Anregungen, die Berücksichtigung finden sollten?
    Hier haben Sie die Möglichkeit, sich an die Redaktion und die Forschenden im Beitrag zu wenden.
  •  
    Teilen

Herr Werner, mit dem nationalen Dateninstitut will die Regierung den freien Zugang zur Nutzung von Open Data – also Statistiken, Datenbanken, Karten, Bilder oder Videos – fördern. Bedenkt man, dass Daten als Währung des 21. Jahrhunderts gelten, ist das doch folgerichtig?


Said D. Werner: In der digitalen Wirtschaft spielen Daten zurecht eine zentrale Rolle. Allein 2020 wurden etwa 64 Milliarden Terabyte an Daten generiert. Das ist 128 Millionen Mal so viel wie alle verfassten Bücher der Menschheitsgeschichte auf einem Datenträger verbrauchen. Was Betriebswirte profitabel finden, macht aus der ökonomischen Brille aber noch kein Zahlungsmittel. Der ZU-Professor Josef Wieland bringt es auf den Punkt, wenn er Daten als durch Zahlen, Sprache oder andere Medien codierte Ereignisse beschreibt. Daten bleiben Rohstoffe, die Gesetzen des mikroökonomischen Feinschliffs unterliegen. Organisiert dienen sie als Informationen, die Einfluss auf Geschäftsmodelle unserer Wirtschaft und die Gesellschaft insgesamt ausüben.


Woher kommt dieser Hype um Daten?


Werner: Wenn wir von ihrer Beschleunigung seit der Entwicklung des frühen World Wide Web absehen, ist die heutige Datenwirtschaft ein Produkt der sektoralen Transformation. Bereits ab den 1940er Jahren deuteten Beiträge der Ökonomen Friedrich Hayek, Peter Drucker, Fritz Machlup und Edith Penrose darauf hin, dass der Anteil ziviler Arbeitskräfte in wissensbasierten Berufsfeldern in den USA massiv steigt – zwischen 1900 und 1959 sogar von 11 auf 32 Prozent. Neuere Berechnungen von McKinsey datieren diesen Trend von 1840 an noch weiter zurück.


Mitte des 20. Jahrhunderts erwirtschaftete die Wissensindustrie bereits ein Drittel des Bruttoinlandsproduktes. Seit 1996 verwendet die OECD den Begriff der Knowledge-Based Economy, der die Ablösung klassischer Industriegüter als Treiber der Weltmärkte durch dienstleistungsbasierte Informationsgüter markiert. De facto bedeutet das, dass wirtschaftliche Tätigkeiten, in denen der Umgang mit Daten und Informationen gefragt ist, das produzierende Gewerbe heute auf ein knappes Viertel verdrängt haben. Deshalb ist der Datenzugang für jede moderne Volkswirtschaft alternativlos.


In diesem Fall muss es doch äußerst sinnvoll sein, ein Institut zu gründen, das diese Rohstoffe maschinenlesbar verwaltet und unter freien Lizenzen zur Verfügung stellt?


Werner: Diese Einschätzung ist richtig. Die Gründungsidee, ein nationales Institut einzurichten, orientiert sich nicht umsonst am britischen Open Data Institute (ODI), das mit Sir Tim Berners-Lee, dem Vater des Internets, eine prominente Gründungsfigur ausweist. Beim ODI geht es vor allem darum, datengetriebene Prozesse für die Gesellschaft insgesamt effizient zu gestalten.


Können Sie uns einige Anwendungsfelder nennen?


Werner: Gerade in Deutschland lähmen bürokratische Verwaltungsprozesse regelmäßig das Tempo der politischen Entscheidungsfindung. Denken wir an die Coronapandemie. Vertikale wie horizontale Kooperationen von Gesundheitsämtern wurden durch beinahe antike Technologien wie dem Faxgerät ausgebremst, teils mit fatalen Folgen. Der Zugang zu offenen Daten kann Behörden im Gesundheitswesen einen effizienteren Umgang mit Patientenakten oder neuen Behandlungen eröffnen.


Auch zur Bewältigung von Umweltproblemen sind offene Daten nützlich, etwa bei der Entwaldung, Katastrophenfrüherkennung und dem Bevölkerungsschutz. Im Verkehrswesen sind sie der Königsweg zu mehr Nachhaltigkeit und Effizienz im öffentlichen Nahverkehr, etwa dem digitalen 49-Euro-Ticket. Im Finanzwesen verbessern offene Daten die Risikobewertung. In der Justiz erleichtert ihre Analyse die Dokumentation krimineller Aktivitäten, die positive Effekte für die öffentliche Sicherheit hat. In der Bildung demonstrierte jüngst ChatGPT, wie die innovative Nutzung offener Daten neben einem intuitiveren Wissenszugang ganze Paradigmenwechsel zu individuelleren Lern- und Lehrformen vollziehen kann.


Da Sie ChatGPT ansprechen, genau dieses Tool verursacht aber doch bei vielen Universitäten Kopfzerbrechen. Muss man nicht auch kritisch sein, was den Umgang mit offenen Daten angeht?


Werner: ZU-Alumnus Philipp Riederle vom Oxford Internet Institute formuliert das im Gespräch mit der Augsburger Allgemeinen folgendermaßen: „Die Motivation für Innovationen ist, Arbeit leichter zu machen und die Lebensqualität zu erhöhen.“ Das gelte für die Entwicklung von Werkzeugen in der Steinzeit wie auch für Programme wie ChatGPT. Nur wenn wir solche auf offenen Daten beruhenden Technologien in die Nutzung bringen, können wir die angeschlagene Digitalwirtschaft in Deutschland stärken.


Wie meinen Sie das?


Werner: Daten haben das Potenzial, Prozesse und Geschäftsmodelle zu optimieren. Wenn man sich auf den deutschsprachigen Raum offener Daten begrenzen will, sprechen wir zumindest über einige Millionen Terabyte. Es ist kein Geheimnis, dass Deutschland einen riesigen Nachholbedarf bei der Digitalisierung seiner Industrie hat. Schauen wir auf die Meinungsumfragen, wollte 2022 jedes siebte Unternehmen laut Bitkom sein Kerngeschäft zukünftig auf Daten aufbauen. Eigentlich ein gutes Zeichen, allerdings sah die Hälfte Deutschland bei datengetriebenen Geschäftsmodellen im internationalen Vergleich entweder abgeschlagen (29 Prozent) oder unter den Nachzüglern (20 Prozent). Die Expertenkommission zum Dateninstitut müsste eigentlich genau hier Abhilfe schaffen.


Wie bewerten sie die bisherigen Empfehlungen der Expertenkommission?


Werner: Die Zielsetzung, das Dateninstitut langfristig als Treuhänder offener Daten für Verwaltung, Wirtschaft, Wissenschaft und Zivilgesellschaft zu konstituieren, ist richtig. Problematisch ist aber, dass die Kommission verkennt, dass das Institut auch als Broker fungieren müsste, um den direkten Tausch von Daten zwischen Akteuren aus verschiedenen Sektoren zu ermöglichen. Im Gegenteil geht es derzeit um rein politische Projekte, etwa die Förderung klimafreundlicher Alternativen zum Pkw, energiepolitische Fragen zur Gaspreisbremse und rechtliche Beratungsleistungen zur Datenteilung in der Long-Covid-Forschung.


Die Expertenkommission hat immerhin politisch relevante Anwendungsfelder herausgearbeitet. Was ist daran verwerflich?


Werner: Wenn wir die von der Kommission beschworene Gleichung „Form follows function“ auseinandernehmen, stellen wir drei Dinge fest.


Erstens fokussieren die Anwendungsszenarien politische Domänen der Häuser des Bundesministeriums für Wirtschaft und Klimaschutz (BMWK) und des Bundesministeriums des Innern und für Heimat (BMI). Dabei sollte ein Dateninstitut politisch unabhängige Beratungsleistungen in Fragen des Datenschutzes, offener Standards sowie Zertifizierungen bei Data Governance anbieten. Zweitens wird das neue Institut nicht als subsidiärer Akteur im bestehenden Datenökosystem gedacht. Das bedeutet, dass es, anstatt Ressourcen im deutschen Datenökosystem zu bündeln, wiederholt transaktionale Förderlogiken bemüht. Drittens verstrickt sich die Kommission in der Auswahl ihrer Pilotprojekte in Pfadabhängigkeiten, wenn sie formuliert, dass mehr als drei Projekte pro Jahr nicht zu realisieren wären, wobei sich vor allem solche eignen würden, die aus derselben Domäne kämen wie bereits Umgesetzte. Womöglich soll es auch deshalb noch einmal eine Revision der Use Cases geben.


Ministeriale Initiativen fungieren aber häufig nach dem Prinzip transaktionaler Förderung, das heißt thematische Ausschreibungen sehen vor, dass sich interessierte Akteure bewerben. Wieso ist das am Fall des Dateninstituts problematisch?


Werner: Beim Dateninstitut wären transaktionale Designs stets auf die Erzielung positiver externer Effekte gerichtet. Indem freie Daten maschinenlesbar gemacht werden, können Unternehmen und andere Akteure sie zur Senkung ihrer Transaktionskosten nutzen. Volkswirtschaftlich führt das zu einer gemeinsamen Fixkostenamortisation, die Wettbewerbsvorteile erzeugt.


Das Problem ist, dass die transaktionale Logik durch eine thematische Steuerung bestimmte Sektoren bevorteilt und Akteure Daten nur direkt vom Institut beziehen können, nicht jedoch selbst beisteuern oder auf einer gemeinsamen Infrastruktur teilen können. Wenn wir über die Datenwirtschaft in Deutschland als Ökosystem sprechen, müssen wir verstehen, dass transaktionale Prozesse – quasi die Top-Down-Verteilung von Rohstoffen – keine Leistungen hervorbringen. Erst das organisierte Teilen von Daten zwischen multiplen Akteuren ermöglicht, dass etwas entsteht, das größer ist als die Summe seiner Bestandteile. Dafür muss die Politik platte Formen schaffen und Barrieren zum Austausch senken, wie wir es beispielsweise aus den Start-up-Garagen in Palo Alto oder den Universitätskollaborationen des MIT in Boston kennen.


Silicon Valley und Greater Boston besitzen aber auch eine ganz andere unternehmerische Kultur als in Deutschland. Vergleicht man da nicht Äpfel mit Birnen?


Werner: Der kulturelle Faktor ist äußerst relevant, egal ob wir über offene Daten, künstliche Intelligenz oder digitale Technologien im Allgemeinen sprechen. Bei jedem erfolgreichen datenbasierten Produkt steht die Sinnfrage vor der wirtschaftlichen Verwertung durch eine technologische Realisierung. Deutschland hat hier einen Nachholbedarf, der bei der Ausbildung im Bereich der Datenwissenschaften anfängt.


Doch selbst, wenn man in die barrierearmen Start-up-Schmieden der UnternehmerTUM, der RWTH Aachen oder der CODE University in Berlin schaut, hemmt der Gesetzgeber das volle kreative Potenzial, das Gründer mit datenbasierten Geschäftsmodellen entfalten könnten. In der KI-Wirtschaft wünschen sich deutsche Start-ups laut KI-Bundesverband nicht umsonst seit Jahren bessere Zugänge zu Unternehmensdaten. Aus dieser Perspektive verwundert es nicht, dass die Gründungsrate von KI-Start-ups in Großbritannien 2021 mit 605 Unternehmen deutlich vorm insgesamt schwächelnden Innovationsstandort Deutschlands (269) lag.


Schweifen wir hier nicht in Detailfragen der Wissenschaft ab?


Werner: Universitäten sind kein Abbild der echten Welt, weil die meisten den Transfer nur als dritte Mission verstehen. Ein Player in Datenökosystemen sind sie trotzdem, denn sie produzieren Forschungsdaten, die für ein Dateninstitut relevant sind, um einen sekundären Markt als Broker zu eröffnen, wie es etwa der Generalsekretär des Stifterverbandes Dr. Volker Meyer-Guckel forderte. Unser Problem in Deutschland ist, dass wir den zweiten Schritt oft vor dem ersten machen. Hierzulande planen wir beim Umgang mit Daten immer erst die nächste Regulierung, bevor wir die Institutionen vergessen, die uns überhaupt erst in Bewegung versetzen könnten.


Sie sprechen das deutsche Datenökosystem an. Können Sie konkretisieren, welche Akteure heute schon Leistungen und Beiträge für die deutsche Dateninfrastruktur erbringen?


Werner: Das deutsche Datenökosystem ist fragmentiert, aber keinesfalls wirkungslos. Der Rat für Informationsinfrastrukturen berät Bund und Länder im Auftrag der Gemeinsamen Wissenschaftskonferenz in Fragen der Datenverwaltung, stellt aber keine Daten bereit. Der Rat für Sozial- und Wirtschaftsdaten akkreditiert die bundesweiten Forschungsdatenzentren und berichtet dem Bundesministerium für Bildung und Forschung (BMBF). Die Nationale Forschungsdateninfrastruktur vertritt als eingetragener Verein die Interessen dieser Zentren, die selbst sensible und offene Daten verwalten. Das statistische Bundesamt und die Ämter der Länder erheben offene Daten nach Maßgabe des Bundesstatistikgesetzes auf Beschluss des Deutschen Bundestages und berichten ans BMI. Sie sind auch zuständig für die methodisch-technische Qualitätssicherung offener Daten.


All diese Fähigkeiten werden durch die Expertenkommission von BMWK und BMI derzeit vernachlässigt, wobei hinlänglich bekannt ist, dass Politik Architektur und Architektur Politik ist.


Angenommen das Dateninstitut würde die bestehenden Stakeholder als zentraler Akteur zusammenführen, welche Probleme bestünden bei den von Ihnen angesprochenen pfadabhängigen Förderlogiken?


Werner: Laut der Kommission soll das derzeitige Design des Instituts zukünftige Anwendungen an die Pilotthemen von umwelt-, energie- und gesundheitspolitischen Fragen pfadabhängig binden. Das ist politisches Kalkül und verwässert den eigentlichen Auftrag des Instituts, weil es laut der veröffentlichten Empfehlungen bedeutet, dass sich neue Projekte nicht bloß an alten messen müssen, sondern von ihrem thematischen Fokus abhängig gemacht werden. Das wäre hanebüchen und führt nur zu Säbelrasseln, für das wir weder Zeit noch Ressourcen haben, weil wir uns als digitaler Wirtschaftsstandort immer im internationalen Wettbewerb um Fachkräfte und Ideen befinden.


Die Governance des Dateninstituts steht laut der Expertenkommission noch nicht fest. Trotzdem wird man sich in der Bundesregierung die Frage stellen, wer die Dienstaufsicht für ein neues Dateninstitut trägt. Wie müsste eine solche Kontrollfunktion aussehen, um die angesprochenen Herausforderungen zu bewältigen?


Werner: Ministerien sind Synästhesisten. Das bedeutet, sie denken in parteipolitischen Farben. Demokratietheoretisch ist das nachvollziehbar; erst in der Staatstheorie, die langfristig denkt, wird diese Praxis zum Problem. Mein Vorschlag ist, ein mit Experten besetztes Dateninstitut als autonome Agentur aus dieser Logik herauszulösen. Eine sinnvolle Organisationsstruktur kann sich dabei am Vorbild der Bundesagentur für Sprunginnovationen orientieren, allerdings unter der Einschränkung, dass man der Geschäftsführung entsprechende Freiheitsgrade einräumt. Im Beamtendeutsch bedeutet das mindestens eine Richtlinienkompetenz bei der Auswahl der geförderten Use Cases, kein Besserstellungsverbot bei der Einstellung teurer, weil knapper Data Scientists und vor allem ein Budget, das zumindest mittelfristige strategische Planungen von 5+ Jahren erlaubt.


Klar ist, dass das einen gewaltige Kraftakt zumindest von BMWK, BMI und auch BMBF erfordert. Frei nach Josef Wieland ist das aber genau die relationale Expertise, die es bräuchte, um Interessen und Ressourcen für ein Dateninstitut sinnstiftend miteinander zu verbinden. Um es klar zu sagen: Multi-Stakeholder-Management beim Rohstoff des 21. Jahrhunderts ist das Mindeste, was wir von einer Bundesregierung aus drei Parteien erwarten können. In der Wirtschaft nennen wir es Supply Chain Management.

Zur Person

Said D. Werner ist ZU-Alumnus, Junior Fellow am Leadership Excellence Institute Zeppelin | LEIZ und Global Merit Scholar an der University of St Andrews. Zuvor war er Berater des parlamentarischen Staatssekretärs bei der Bundesministerin für Bildung und Forschung.

0
0
 
Leserbrief

Haben Sie Anmerkungen zum Beitrag?
Ihre Sichtweise ist uns wichtig! Der Leserbrief gelangt direkt in die Redaktion und wird nach Prüfung veröffentlicht.
Vielen Dank für Ihr Verständnis!

Antwort auf:  Direkt auf das Thema antworten

 
Zeit, um zu entscheiden

Diese Webseite verwendet externe Medien, wie z.B. Videos und externe Analysewerkzeuge, welche alle dazu genutzt werden können, Daten über Ihr Verhalten zu sammeln. Dabei werden auch Cookies gesetzt. Die Einwilligung zur Nutzung der Cookies & Erweiterungen können Sie jederzeit anpassen bzw. widerrufen.

Eine Erklärung zur Funktionsweise unserer Datenschutzeinstellungen und eine Übersicht zu den verwendeten Analyse-/Marketingwerkzeugen und externen Medien finden Sie in unserer Datenschutzerklärung.