Home » KI-Gesetz: Agile Governance und Skepsis bei Selbstregulierung
Europa Globale Nachrichten Nachricht Nachrichten

KI-Gesetz: Agile Governance und Skepsis bei Selbstregulierung

Basismodelle, Governance und Marktkonzentration stehen ganz oben auf der Liste der Bedenken der Interessengruppen, des weltweit ersten KI-Gesetzes vorbereiten. Dies wird in diesen Stunden von den EU-Institutionen verhandelt.

Das KI-Gesetz ist eine wegweisende Gesetzesinitiative zur Regulierung der künstlichen Intelligenz auf der Grundlage ihres Schadenspotenzials. Alle Augen richten sich derzeit auf die aktuellen Trilog-Verhandlungen zwischen der EU-Kommission, dem Rat der EU und dem EU-Parlament, die das Dossier zum Abschluss bringen sollen. Diese könnten in den nächsten Stunden zum Abschluss kommen.

In der Zwischenzeit haben Interessenvertreter mehrere Bedenken im Zusammenhang mit dem KI-Gesetz geäußert. Diese reichen von der Zukunftssicherheit seiner Governance-Struktur über die Tendenz zur Marktkonzentration bis hin zur Regulierung der leistungsfähigsten KI-Modelle.

Governance

„Ich denke, der Schwerpunkt muss auf dem Aufbau einer agilen Governance liegen, die mit der Innovationsgeschwindigkeit mithalten kann“, sagte Paula Gürtler, wissenschaftliche Mitarbeiterin beim Think Tank CEPS, letzte Woche auf einer von Euractiv organisierten Veranstaltung.

Für Gürtler ist die globale KI-Governance ein dichtes Gedränge. Sie verweist dabei auf die KI-Grundsätze der OECD von 2019, den Hiroshima-Prozess der G7, die Osaka-Erklärung der G20 und die UNESCO-Empfehlungen zu KI.

Gürtler sieht darin „ein größeres Potenzial für die internationale Zusammenarbeit in Bezug auf KI“, vor allem in drei Bereichen: Wissensaustausch, Umgang mit grenzüberschreitenden Auswirkungen der KI-Regulierung und Gewährleistung gemeinsamer Vorteile für alle Gesellschaften.

Marktkonzentration

„Es besteht die Möglichkeit und das Risiko extremer Oligopole“ auf dem KI-Markt, warnte Marco Bianchini, Ökonom und Koordinator der Digital for SME Global Initiative bei der OECD, auf demselben Panel.

Dies sei ein Grund zur Besorgnis, erklärt Gürtler: „Die algorithmische Kluft ist etwas, worauf man achten muss.“ Sie sagt, dass KI letztendlich nicht nur aus einer Risikoperspektive betrachtet werden sollte, sondern auch im Hinblick auf die Möglichkeiten, damit die Technologie allen zugutekommt.

Basismodelle

Mit Blick auf den KI-Sektor äußerten einige Redner ihre Skepsis gegenüber dem Ansatz der Selbstregulierung, den Frankreich, Deutschland und Italien für die leistungsfähigsten KI-Modelle verfolgt haben.

„Ich denke, ich bin generell eher skeptisch gegenüber Verhaltenskodizes und Selbstregulierung“, sagte Gürtler.

Ihrer Meinung nach kann man den Unternehmen nicht zutrauen, sich selbst zu regulieren, da ihr Hauptziel die Gewinnmaximierung ist. Sie forderte ein Gremium, welches die Aufsicht über die Entwicklerfirmen übernimmt.

Bianchini erläuterte, dass die EU-Debatte über die Regulierung von Basismodellen polarisiert sei. Das EU-Parlament dränge auf eine viel strengere Regelung als die von den drei größten europäischen Volkswirtschaften geforderten Verhaltenskodizes.

Diese Diskussion über die Frage, ob und wie Basismodelle reguliert werden sollen, findet jedoch auch in anderen Teilen der Welt statt, wie in Kanada und den Vereinigten Staaten, so Bianchini.

Der Europaabgeordnete Ibán García del Blanco fügte hinzu: „Ich bin auch skeptisch, was die Selbstregulierung angeht. Aber ich denke, wir können die Bedingungen schaffen, unter denen wir Selbstregulierung auf eine Art und Weise fördern können, die eher profitabel ist als nicht.“

García del Blanco drängte darauf, in das KI-Gesetz einige allgemeine Grundsätze für alle KI-Modelle aufzunehmen, die den ethischen Einsatz von KI bestimmen sollen.

Gürtler reagierte darauf, indem sie sagte, sie sei nicht überzeugt. Sie erklärte, dass allgemeine Konzepte wie Gleichheit und Fairness viel Raum für Interpretationen zuließen, was für die Endnutzer nachteilig sein könne. Sie schlug Zertifizierungssysteme vor, die viel weniger Interpretationsspielraum böten.

Bianchini fügte hinzu, dass Innovation im Bereich der KI in „beide Richtungen“ stattfinde. Er erklärte, dass man Basismodelle bauen könne, um die Einhaltung der Vorschriften anderer Basismodelle zu überwachen.

Quelle : EURACTIV

Recent Comments

No comments to show.

Übersetzen