MENU
Technikfolgenabschätzung

„Die Zukunft ist ein weißes Blatt, das wir erst beschreiben“

© Getty Images

12. März 2020

Technik macht unser Zimmer hell, die Wohnung warm, bringt uns zügig von A nach B und die Welt auf unsere Smart­phones. Dabei hat sie aber oftmals gravierende Konsequenzen für Mensch und Umwelt. Wie man mögliche Folgen von Technologien im Vorfeld auslotet und warum wir technischen Entwicklungen häufig mit Hoffnungen oder Ängsten begegnen – darüber spricht #explore mit Armin Grunwald, Leiter des Instituts für Technik­folgen­abschätzung und System­analyse in Karlsruhe.

#explore: Herr Grunwald, was sind die grundsätzlichen Ziele der Technik­folgen­abschätzung?
Armin Grunwald: Das Wort Technik­folgen­abschätzung ist ja ziemlich sperrig, beschreibt aber im Kern, was wir machen: Wir schätzen Technik­folgen ab – also Folgen, die es noch gar nicht gibt. Wenn es sie bereits gäbe, könnte man sie messen, könnte etwa Veränderungen der Umwelt oder des Arbeits­marktes empirisch ermitteln. Daher stellen wir auch keine Prognosen darüber auf, wie die Zukunft wird. Wir beschreiben viel­mehr, welche „Zukünfte“ möglich sind. Damit Gesellschaft, Politik und Wirtschaft sich heute darüber verständigen können: Wollen wir das, wollen wir das nicht? Was können wir tun, um Risiken zu vermeiden und Chancen zu stärken?

An wen wenden sich Ihre Unter­suchungen: an die Politik oder an die breite Öffentlichkeit?
Als wissenschaftliches Institut ist ein wesentlicher Adressat unserer Arbeit immer die Wissenschaft selbst. Aber die Beratungs­tätigkeit, die sich daran anschließt, ist sehr divers: Bei uns im Institut steht die Politik­beratung an erster Stelle – prominent vertreten durch unsere Tätigkeit beim Deutschen Bundes­tag im Büro für Technik­folgen­abschätzung seit nunmehr 30 Jahren. Aber auch für viele Ministerien oder die EU-Kommission. In den vergangenen 15 Jahren haben wir uns außer­dem den Zweig der Gesellschafts­beratung aufgebaut. Hier geht es darum, Bürgerinnen und Bürger zur Meinungs­bildung anzuregen und gemeinsam mit ihnen Fragen und Lösungs­ansätze zu diskutieren. Dabei gehen wir auch in die konkrete Gestaltung: In einem Stadt­teil in Karlsruhe haben wir zum Beispiel ein Real­labor initiiert. Gemeinsam mit den Menschen vor Ort betreiben wir hier Projekte für mehr Nach­haltig­keit, etwa im Verkehr. Ein weiterer Bereich ist die direkte Beratung bei technischen Entwicklungen, die von Forschern im Karlsruher Institut für Technologie (KIT) oder außerhalb voran­getrieben werden. Ziel ist es dabei, die Technik­entwicklung von vorne­herein in eine möglichst gute Richtung zu leiten. Damit man sich nicht hinter­her mit Folgen herum­schlagen muss, die man hätte verhindern können.

Kaum jemand hätte erwartet, wie schnell beispiels­weise das Internet unseren Alltag verändert. Wie lässt sich denn über­haupt abschätzen, welche Folgen eine Technologie haben könnte, bevor sie entwickelt und verbreitet ist?
Das ist extrem unter­schiedlich und hängt stark vom Reifegrad und Kontext einer jeweiligen Technologie ab: Wenn man etwa heute Kraft­werke entwickelt, die vielleicht erst in zehn Jahren einsetz­bar sind, können wir deren Emissions­verhalten, entstehende CO2-Vermeidungs­kosten und die Konkurrenz­situation zu anderen Vorhaben bereits sehr gut einschätzen. Denn wir kennen das heutige Energie­system sehr gut. Geht es aber um ein System, das sich gerade erst boomartig entwickelt und innerhalb kurzer Zeit eine Eigen­dynamik entfaltet, stößt dieses Prinzip an seine Grenzen. Dann kann man nur versuchen, möglichst früh eine Ahnung von den positiven wie negativen Folgen zu bekommen. Anfang der 2000er-Jahre haben wir eine Studie für den Bundes­tag zur politischen Kommunikation im Internet angefertigt. Shitstorms, Hatespeech und Fake News konnten wir damals natürlich noch nicht vorhersehen. Aber wir haben bereits darauf hingewiesen, dass man die seiner­zeit hoch­fliegenden utopischen Hoffnungen, nach denen das Internet automatisch zu mehr Demokratie führt, mit Skepsis betrachten sollte. Ein spezieller Fall ist der Hype um bestimmte Technologien, die für die einen die Welt retten und sie für die anderen in den Unter­gang führen. Das waren vor 20 Jahren die Nano­technologien, später die Steigerung menschlicher Leistungs­fähigkeit durch sogenannte Human Enhancements und ist heute die künstliche Intelligenz. Bei diesen Zukunfts­erzählungen zwischen Paradies und Apokalypse geht es nicht mehr um die Frage, wer recht hat und was das über die Zukunft in 30 Jahren aussagt. Wir fragen vielmehr, was Menschen heute dazu bringt, dieses oder jenes anzunehmen, ob das plausibel, begründet oder einfach Unsinn ist, welche Ängste, Sorgen, Diagnosen, vielleicht auch Wissens­bestände oder sogar Interessen dahinter­stecken. In einem weiteren Schritt geht es dann auch darum, welche Entscheidungen anstehen, um die Entwicklung etwa der KI heute zu steuern: Welche Sicherheits­standards, Redundanzen, Ethik­leit­linien benötigen wir, um zu verhindern, dass bestimmte Systeme außer Kontrolle geraten?

„Bei Zukunfts­erzählungen zwischen Paradies und Apokalypse geht es nicht mehr um die Frage, wer recht hat und was das über die Zukunft in 30 Jahren aussagt.“

Armin Grunwald, Leiter des Instituts für Technik­folgen­abschätzung und System­analyse

Warum neigen wir dazu, Technik mit positiven beziehungs­weise negativen Erwartungen zu belegen?
Die negative Erwartung ist das Resultat einer historischen Erfahrung: Es kommt immer wieder vor, dass Technik entweder nicht hält, was sie verspricht, oder nicht intendierte Folgen mit sich bringt. Der Klima­wandel entsteht ja gerade nicht aus einer defekten, sondern aus einer perfekt funktionierenden Technik – die nur dummer­weise dabei diese gravierenden Umwelt­folgen produziert. Auf der anderen Seite haben wir eine Ideal­vorstellung von reibungs­los funktionierender Technik; das gilt besonders für Menschen, die sich mit Technik nicht auskennen. Wenn das Auto dann mal nicht anspringt – was heute ja kaum noch vorkommt –, sind wir sauer. Und wenn wir sehen, dass der Roboter­bus an seine Grenzen stößt, sind wir enttäuscht. Diese eigen­artige Ambivalenz in unserem Verhältnis zu Technologien spitzt sich in der Öffentlichkeit immer zu auf die Frage: „Technik – Fluch oder Segen?“ Diese Frage ist völliger Unsinn, da Technik meistens beides ist.

Wissen wir einfach zu wenig, um Technologien wirklich beurteilen zu können?
Natürlich kann nicht jeder Bürger Fragen zur Energie­wende oder zur Digitalisierung im Detail einschätzen. Das ist aber auch gar nicht nötig. Dazu haben wir eine gesellschaftliche Arbeits­teilung zwischen Experten, Kontroll­instanzen und der Öffentlichkeit. Wesentliches Bindemittel ist das Vertrauen der Bürger in die entsprechenden Instanzen. Nun erwarten manche Experten, dass man ihnen glaubt, nur weil sie eben Experten sind. Das ist zu einfach gedacht, denn dieses Vertrauen muss man sich selbst­verständlich erarbeiten. In unsere Studien für den Bundes­tag nehmen wir daher Kommentar­gutachten mit auf. Wir lassen also die Befunde eines Gutachters durch einen weiteren Gutachter mit einer anderen Perspektive prüfen, um eine differenzierte Einordnung zu ermöglichen.

Wie gehen Sie konkret vor, wenn Sie etwa die möglichen Folgen des autonomen Fahrens bewerten wollen?
Zunächst erstellen wir immer einen State of the Art der jeweiligen Technik. Dazu kooperieren wir mit technischen Fachleuten der entsprechenden Disziplinen, etwa aus der Informatik oder aus der Auto­mobil­technik hier am KIT. Im nächsten Schritt geht es darum, die Zukunfts­erzählungen der Forscher kennen­zu­lernen: Was ist in der Mache in den Labors? Wann sollen die Technologien marktreif sein? Wir wissen natürlich, dass solche Selbst­einschätzungen immer zu optimistisch ausfallen: Da müssen Proto­typen entwickelt und Zulassungs­verfahren durch­laufen werden – und das dauert. Auch hier ziehen wir wieder Experten hinzu, die einen Entwicklungs­stand einschätzen können. In gewisser Weise sind wir also unter anderem eine Art Informations­broker, der verschiedene Wissens­stände zusammen­führt. Unsere genuine Kompetenz besteht in der Beurteilung dieses Zukunfts­wissens in Bezug auf Validität, Grenzen und mögliche Einseitigkeiten, indem wir mittels bestimmter Verfahren dessen Belastbarkeit testen. Auf dieser Basis stellt sich dann die große Frage, was das alles heute für uns bedeutet. Besteht beispiels­weise beim autonomen Fahren noch Regulierungs­bedarf, müssen kritische Lücken in der Forschung geschlossen werden, um die Systeme sicher, aber auch sozialverträglich zu machen? Voraus­setzung, um diese grund­sätzlichen Fragen stellen zu können, ist ein fundiertes Verständnis davon, wie die Koevolution von Technik und Gesellschaft abläuft, wo Risiken und Sensibilitäten bestehen und welche Faktoren Innovations­prozesse fördern oder hemmen können.

Was sind weitere zentrale Themen, mit denen Sie sich aktuell beschäftigen?
Also, natürlich das ganze Feld der Digitalisierung: von Maschinen­lernen, Cybersecurity und Privatheit bei Big Data über Pflegerobotik bis zum autonomen Fahren. Auch die Veränderung des Arbeitsmarktes und die Energie­wende sind für uns große Themen. Intensiv beschäftigen wir uns zudem mit den Bereichen Medizin und Genetik – insbesondere mit den neuen technischen Möglichkeiten, DNA-Bausteine im Erbgut zu verändern, um etwa Tiere und Pflanzen zu „verbessern“. Das sogenannte genetische Editieren rückt mittler­weile auch näher an den Menschen heran. Wir hatten ja hier den Fall des chinesischen Arztes He Jiankui, der Zwillinge genetisch verändert haben will.

„Das sogenannte genetische Editieren rückt näher an den Menschen heran.“

Armin Grunwald, Leiter des Instituts für Technik­folgen­abschätzung und System­analyse

Sie haben zunächst Physik, Mathematik und später Philosophie studiert. Braucht man als Technik­folgen­abschätzer ein Grund­verständnis sowohl für technisch-physikalische Zusammen­hänge als auch für Fragen der Ethik?
Mein Vorgänger war Volks­wirtschaftler, mein Nach­folger könnte Ingenieur sein. Dass ich jetzt als Leiter des Instituts Philosoph bin, ist also Zufall. Aber tatsächlich sind eine grund­legende Offenheit und eine breite Kenntnis verschiedener Lebens­bereiche wichtige Vor­aus­setzungen für die Technik­folgen­abschätzung. Ich habe meinen Weg in die Technik­folgen­abschätzung nicht geplant – das hat sich sukzessive entwickelt. Viele meiner Mitarbeiterinnen und Mitarbeiter in Karlsruhe und Berlin haben ähnlich verschlungene Ausbildungs­pfade absolviert.

Zeitreisegeschichten der Science-Fiction denken die Zukunft meist deterministisch: Tauscht man ein Glied in der Kausalitäts­kette aus, ändert sich die gesamte Geschichte. Wie würden Sie Ihre Vorstellung von Zukunft beschreiben?
Gerade bei der Digitalisierung trifft man häufig auf eine solch deterministische Sichtweise. Nach dem Motto: Wir müssen uns fit machen für die Digitalisierung. Dabei ist ja die Art und Weise, wie sich die Digitalisierung voll­zieht, von Menschen gemacht und könnte eben auch von Menschen anders gestaltet werden. In diesem Sinne ist die Zukunft für mich ein weißes Blatt Papier, das wir erst beschreiben müssen. Und wir als Technik­folgen­abschätzer zeichnen Möglichkeits­linien auf dieses Blatt, die in die Zukunft hineinragen. Wir sagen etwas über die Bedingungen, Implikationen, die Kosten, Chancen und die Risiken dieser Möglichkeiten. Wir sagen nicht, Möglichkeit 3 b) ist die beste, um etwa die Energie­wende voranzubringen. Denn eine objektive „optimale“ Lösung kann es in einer demokratischen Gesellschaft nicht geben. Die sieht für Parteien, Gruppen und Menschen mit unter­schiedlichen Wert­vor­stellungen, Interessen und Positionen jeweils anders aus. Unser Mandat besteht also darin, Wissen bereit­zu­stellen und dieses Wissen einzuordnen. Die Entscheidung für eine dieser Möglichkeiten ist Sache der Politik und der Gesellschaft.

ZUR PERSON

Armin Grunwald ist Leiter des Instituts für Technik­folgen­abschätzung und System­analyse (ITAS) und Professor für Technik­philosophie am Karlsruher Institut für Technologie (KIT). Als Leiter des Büros für Technik­folgen­abschätzung beim Deutschen Bundestag berät der Physiker, Mathematiker und Philosoph die Politik zu den möglichen Folgen von Technologien.