Seit August gelten in der EU strengere Regeln für Künstliche Intelligenz. Betreiber von KI-Modellen müssen nun offenlegen, mit welchen Daten ihre Systeme trainiert wurden – erstmals erhalten Nutzer, Unternehmen und Behörden ein Auskunftsrecht. Ziel ist es, Urheberrechte besser zu schützen und die Nutzung fremder Inhalte nachvollziehbarer zu machen.
Einfach ist das jedoch nicht: KI-Systeme verwandeln riesige Datenmengen in komplexe Muster, sodass sich die ursprünglichen Quellen kaum eindeutig zuordnen lassen. Fachleute warnen daher, dass die neue Transparenzpflicht in der Praxis nur begrenzt überprüfbar sein könnte.
Besonders heikel ist die Urheberrechtsfrage. Viele KI-Modelle nutzen frei zugängliche, aber geschützte Texte oder Bilder zum Lernen – ohne dass die ursprünglichen Kreativen etwas davon haben. Neue Funktionen wie die KI-Suchergebnisse von Google verschärfen das Problem, weil Nutzer fertige Antworten bekommen, während die Inhalte von anderen stammen. Medienhäuser fürchten um ihre Geschäftsmodelle.
Jedes EU-Land muss künftig eine Aufsichtsbehörde benennen, die bei Streitfällen eingreift. In Deutschland fehlt diese Stelle bislang, obwohl das entsprechende Gesetz bereits am 2. August hätte in Kraft treten sollen.
Für die Nutzer bedeutet die Verordnung vor allem eines: Sie können jetzt anfragen, mit welchen Daten eine KI trainiert wurde – auch wenn noch unklar ist, wie die Anbieter diese Nachweise liefern sollen.