Sie sind hier
In einem Gastbeitrag auf Zeit online warnen die Wissenschaftler und KI-Experten Daniel Privitera und Daniel Hacker die Bundesregierung davor, bei den derzeit laufenden Verhandlungen zur KI-Verordnung der Europäischen Union einen grundlegenden Fehler zu machen. Sie schreiben: „Eine nach wie vor offene Frage in den Verhandlungen ist, welche Regeln für besonders potente KI-Modelle wie GPT-4 gelten sollen, sogenannte Grundlagenmodelle oder foundation models. Wie nun bekannt geworden ist, erwägt die Bundesregierung, dafür zu plädieren, dass im AI Act überhaupt keine Regeln für solche Grundlagenmodelle festgeschrieben werden. Das wäre ein Fehler.“
Privitera und Hacker weisen darauf hin, dass diese Grundlagenmodelle künftig genutzt werden, um darauf aufbauend neue spezifische KI-Anwendungen zu bauen. Entwickelt werden sie derzeit von wenigen Tech-Riesen, die zum großen Teil in den USA sitzen, und die milliardenschweren Entwicklungskosten bezahlen können. Gibt es in einem der Modelle einen Fehler, wird der sich in den Anwendungen fortsetzen und dann entstehen Haftungsfragen sowie die Frage nach der Behebung des Fehlers.
Außerdem sehen die Autoren noch eine grundsätzliche Gefahr, sollte die EU keine Basisanforderungen für Entwickler von Grundlagenmodellen festlegen: „Der Schritt von ChatGPT zu ThreatGPT, also einer KI, die Cyberangriffe vorbereitet, ist nicht groß. Das ist diesen leistungsfähigen KI-Modellen technisch derzeit leider inhärent. Auch ihre Entwickler verstehen nicht vollständig, was die Modelle alles können und was nicht.
