Helga Nowotny
Die renommierte Wissenschaftsforscherin Helga Nowotny mahnte mehr Skepsis beim Thema Künstliche Intelligenz ein.
Markus Korenjak

Ob die Regierung stabil bleibt, konnte ChatGPT am Montagabend nicht beantworten. Und auch bei der Torprognose von Frankreich gegen Österreich haute das Sprachmodell mit 3:1 daneben. Zumindest der Sieger wurde richtig vorhergesagt – bei einem Modell, das auf Wahrscheinlichkeiten beruht, keine allzu große Überraschung. Was Künstliche Intelligenz weiß und vor allem künftig wissen wird und ob wir die Technologie überhaupt noch unter Kontrolle haben, stand im Zentrum der abschließenden Podiumsdiskussion zur aktuellen Semesterfrage der Universität Wien.

Dass Regierungskrise und Fußball an diesem Tag auch im KI-Kontext Thema waren, überraschte die Wissenschaftsforscherin Helga Nowotny überhaupt nicht. "Zu wissen, was in Zukunft auf sie zukommt, ist ein ganz altes Wunschdenken der Menschen", sagte sie in ihrem Impulsvortrag. "Früher haben Orakel dieses Bedürfnis befriedigt, heute versprechen uns die Algorithmen, dass sie die Zukunft vorhersagen können." Das sei aber in mehrerlei Hinsicht problematisch.

"Selbsterfüllende Prophezeiung"

Denn zum einen würden alle Vorhersagen auf Basis von Daten aus der Vergangenheit getroffen und darauf vergessen, dass es sich immer nur um Wahrscheinlichkeitsberechnungen handle. Im sozialen Leben komme zudem ein weiteres Phänomen zum Tragen, die "selbsterfüllende Prophezeiung". Denn der Glauben an solche Prognosen könne dazu verleiten, sich genau so zu verhalten, wie es vorhergesagt wurde. Das führe zu einem Schneeballeffekt, der noch verstärkt werde, wenn man das Verhalten anderer imitiere.

Uni-Festsaal Wien Semesterfrage
Am Montagabend wurde knapp vor Anpfiff des Euro-Matches Frankreich gegen Österreich im Festsaal der Uni Wien zu den Folgen der KI-Entwicklung diskutiert.
Markus Korenjak

Als historisches Beispiel nannte Nowotny die US-Wirtschaftskrise in den 1930er-Jahren, als Menschen aus Furcht vor der Zahlungsunfähigkeit der Banken ihr Erspartes abhoben und dadurch erst deren Illiquidität besiegelten. "Eigentlich wollen wir mehr Kontrolle über die Zukunft haben. Wenn wir die Handlungsfähigkeit aber einem Algorithmus übertragen, ist paradoxerweise genau das Gegenteil der Fall", sagte Nowotny. Skepsis gegenüber KI-Modellen und deren Ergebnissen sei daher angebracht. Einen Leitfaden biete die Wissenschaft, die die Skepsis als systemische Tugend in ihrem Zentrum verankert habe.

KI als öffentliches Gut

Doch wie die Kontrolle über KI-Modelle behalten, deren Entwicklung von enormer Beschleunigung geprägt ist? Denn erschwerend kommt laut der Datenexpertin Claudia Plant hinzu, dass der Großteil der Investitionen von einigen ganz wenigen Firmen getätigt wird und die Entwicklung anders als in der wissenschaftlichen Forschung nicht offen stattfindet. Um Transparenz im KI-Bereich einfordern zu können, brauche es aber ein breiteres Grundverständnis, was KI leisten kann und was die potenziellen Gefahren, etwa beim Einsatz in militärischen Belangen, sind.

"KI kann in der Medizin Leben retten, weil sie dem Menschen beim Durchsuchen riesiger Datensätze und Erkennen seltener Muster überlegen ist", erklärte Plant. "Eingesetzt in einer Drohne, um die größtmögliche Zerstörung bei einem Angriff zu erzielen, kann sie Leben zerstören." Es liege also in unserer Hand, was wir mit der Technologie machen. An einer Regulierung in gewissen Bereichen führe daher kein Weg vorbei. Das unterstrich auch Nowotny, sieht aber gerade im militärischen Bereich bisher kaum Bereitschaft von Regierungen, über ein Einsatzverbot in autonomen Waffensystemen zu diskutieren. Sie plädierte dafür, KI als öffentliches Gut zu begreifen, das ähnlich wie Wasser nicht privatisiert sein sollte. Diesen Ansatz müsse man vermitteln und als Gesellschaft pflegen.

Regulieren oder nicht?

Die Frage von STANDARD-Chefredakteur und Moderator Gerold Riedmann, ob Europa mit dem sogenannten AI Act über das richtige Regulierungsinstrument verfüge, sorgte auf dem sonst so amikalen Podium für Meinungsverschiedenheiten. Während Nowotny den Versuch der EU, KI-Technologien in Risikokategorien einzustufen und zu regulieren, als positiven Beginn wertete und lediglich die lange Vorlaufzeit bekrittelte, bezeichnete die Rechtsanwältin Beatrice Blümel den "Regulierungsdrang auf EU-Ebene als überzogen und als Wettbewerbsnachteil für Europa."

Gruppenfoto von STANDARD-Chefredakteur Gerold Riedmann, Rechtsanwältin Beatrice Blümel, Rechtswissenschafter Nikolaus Forgó, Soziologin Helga Nowotny, Datenexpertin Claudia Plant und Spin-off-Gründer Markus Tretzmüller.
Am Podium (von links nach recht): STANDARD-Chefredakteur Gerold Riedmann, Rechtsanwältin Beatrice Blümel, Rechtswissenschafter Nikolaus Forgó, Soziologin Helga Nowotny, Datenexpertin Claudia Plant und Spin-off-Gründer Markus Tretzmüller.
Markus Korenjak

Ebenfalls kein gutes Haar am AI Act ließ Rechtswissenschafter Nikolaus Forgó. Die von den EU-Verantwortlichen gefeierte umfassende Regulierung sei noch nicht einmal in Kraft: "Bis die ersten Regeln in der Fläche wirksam werden, vergehen noch Jahre – angesichts der schnellen globalen Entwicklung ist das viel zu spät." Auf Nachfrage präzisierte Forgó, dass er absolut auch für eine Regulierung sei, diese müsse allerdings "intelligent" gestaltet sein.

So fehle im AI Act neben den bereits erwähnten militärischen Einsatzmöglichkeiten etwa der Klimaaspekt völlig. Denn der Einsatz von KI benötige enorme Energieressourcen und viel Wasser zum Kühlen der Rechenzentren. Wenn Ressourcen anderswo ohne Maß eingesetzt werden und so die Klimaerwärmung befeuern, bekomme aber auch Europa die Auswirkungen zu spüren.

Bessere statt mehr Daten

In diesem Punkt bekam Forgó Unterstützung von Spin-off-Gründer Markus Tretzmüller, der mit seinem Unternehmen Cortecs Behörden und Firmen mit einer ChatGPT-ähnlichen Analyse unterstützt. "Bisher ging es bei den meisten Modellen stets darum, immer größere Datensätze einzuspielen und so die Qualität zu verbessern. Damit sind aber auch die notwendigen Rechenressourcen stets angestiegen", sagte Tretzmüller. Ein moderner und auch ressourcenschonender Ansatz gehe eher in die Richtung, bessere Daten zu finden und damit die Modelle zu trainieren.

Ob das ÖFB-Team sich eigentlich von der ChatGPT-Prophezeiung verunsichern ließ, ist nicht bekannt. Das 0:1 gegen Frankreich fiel aber deutlich weniger blamabel aus als der vom Algorithmus vorhergesagte Endstand.