Peter Liggesmeyer, Leiter des Fraunhofer-Instituts für Experimentelles Software Engineering IESE.
Fraunhofer IESE/dpa/Archivbild
Peter Liggesmeyer, Leiter des Fraunhofer-Instituts für Experimentelles Software Engineering IESE.
Software

Experte für Augenmaß bei der Regulierung von KI

Die EU hat sich kürzlich auf die weltweit ersten Regeln für die Nutzung von KI geeinigt. Manche finden sie zu streng, andere zu lasch. Ein Software-Experte vom Fraunhofer-Institut will nicht nur die Gefahren im Fokus der Debatte sehen und mahnt zu Augenmaß.

Der Software- und IT-Experte Peter Liggesmeyer ist für Augenmaß bei der Regulierung von Künstlicher Intelligenz (KI). «Die Grundhaltung, Regelungen zu KI zu definieren, kann ich nachvollziehen», sagte der Leiter des Fraunhofer-Instituts für Experimentelles Software Engineering IESE in Kaiserslautern mit Blick auf die Regulierung auf europäischer Ebene. «Die Frage ist, wie man das vernünftig umsetzt und was die Konsequenzen sind.»

Er sehe derzeit eine sehr starke Betonung der Gefahren durch KI. «Das ist ein angstgetriebener Ansatz», betonte der Wissenschaftler. Es müsse auch darum gehen, KI an bestimmten Stellen leistungsfähiger zu machen, um sie für bestimmte Zwecke besser einsetzen zu können. «Das taucht in der Diskussion nur am Rande auf.»

Die vorgelegten Vorschriften legen Verpflichtungen für KI auf Grundlage ihrer potenziellen Risiken und Auswirkungen fest. Als besonders riskant wird KI eingestuft, die ein erhebliches Schadenspotenzial etwa für Gesundheit, Demokratie, Umwelt oder Sicherheit hat. Bestimmte Anwendungen werden komplett verboten, etwa biometrische Kategorisierungssysteme, die sensible Merkmale wie zum Beispiel die sexuelle Orientierung oder religiöse Überzeugungen verwenden. Auch das ungezielte Auslesen von Bildern aus dem Internet oder aus Überwachungsaufnahmen für Gesichtserkennungsdatenbanken soll nicht erlaubt sein.

Mitte Dezember hatte etwa der Bundesverband der Deutschen Industrie (BDI) gewarnt, Europa drohe bei der Schlüsseltechnologie ins Hintertreffen zu geraten. Der Branchenverband Bitkom sprach von einem «politischen Schaufenster-Erfolg zu Lasten von Wirtschaft und Gesellschaft», die europäische Verbraucherschutzorganisation Beuc kritisierte dagegen, dass sich die EU zu sehr auf den guten Willen der Unternehmen zur Selbstregulierung verlasse.

Liggesmeyer warnt vor zu hohen Hürden für die, die an KI arbeiten. «Die Geisteshaltung dahinter ist gut», sagte er in Richtung EU. «Man muss aber aufpassen, dass man keine gravierenden Fehler macht, die dann für sich wirtschaftlich betätigende Unternehmen zu einem substanziellen Nachteil werden, weil potenziell juristische Risiken entstehen.» Es sei wichtig, im Rahmen der freiheitlich-demokratischen Grundordnung Schranken zu setzen. Aber: «Es muss mit Augenmaß gemacht werden. Wenn man Forderungen erhebt, muss man immer schauen, wie man den Nachweis erbringen kann, dass diese Forderungen erfüllt werden.»

Es werde niemand abstreiten, dass Systeme diskriminierungsfrei sein sollen. «Wenn man aber zur Regel macht, die Nachweispflicht den Inverkehrbringern dieser Systeme aufzuerlegen, dann wird es schwierig. Es ist gar nicht so einfach, den Nachweis zu führen, dass etwas diskriminierungsfrei ist.» Sei es etwa bei einem System zur Vorauswahl von Bewerbern diskriminierungsfrei, wenn es gleich viele Männer und Frauen auswählte? Oder müsse es sich am Verhältnis bei den Absolventinnen und Absolventen in der Berufsgruppe orientieren? «Da kommt man ganz schnell in Teufels Küche», sagte Liggesmeyer.

Regulierung dürfe nicht zu einem erheblichen Problem für die Wirtschaft werden, so dass dann aufgehört werde, an Lösungen weiterzuarbeiten. «Das hätte die Konsequenz, dass solche Systeme aus Teilen der Welt kommen, wo Regulierung nicht existiert und man auch mit Social Scoring keine großen Probleme hat», sagte Liggesmeyer. «Man muss aufpassen, dass man dem eigenen Fortschritt keinen Riegel vorschiebt.» Unter Social Scoring ist eine Art Bewertung sozialen Verhaltens von Menschen mit Hilfe von KI zu verstehen.

Auch KI müsse zugestanden werden, dass sie mit gewissen Restrisiken verbunden sei. «Man will bei einem Flugzeug, dass von ihm keine übertrieben große Gefahren ausgehen», sagte er. «Aber es wird nicht verlangt, dass das verbleibende Risiko gleich null ist.» So sollte es auch bei KI sein. «Eine gewisse Restrisiko-Akzeptanz führt implizit derjenige durch, der ein System verwendet.»

«Ich persönlich habe weniger Angst vor den Stärken von KI als vor ihren aktuell noch existierenden Schwächen», sagte Liggesmeyer. «Es ist nicht so, dass uns das in absehbarer Zeit über den Kopf wächst und wir alle zu Sklaven von KI-Systemen werden. Das ist Quatsch.» Die Regulierung auf europäischer Ebene sieht er als ersten Ansatz. «Es könnte sein, dass man das in ein paar Jahren nochmal überdenken muss, was da heute geregelt wird. Es ist so ein bisschen wie das Stochern im Nebel. Ganz so viel weiß man im Moment über die Technik nicht.»

© dpa-infocom, dpa:240129-99-790296/2
Copyright 2024, dpa (www.dpa.de). Alle Rechte vorbehalten