In einem gemeinsamen Dokument beschreiben die drei Länder, wie sie ein Selbstregulierungssystem anstreben, das sich auf die Anwendung, nicht aber auf die Technologie konzentriert.
Die drei Länder haben sich auf eine Reihe grundlegender Regeln geeinigt, die höchstwahrscheinlich in der nächsten europäischen KI-Gesetzgebung Anwendung finden werden. Reuters konnte dieses Dokument bereits konsultieren und stellt fest, dass es hauptsächlich auf einer verpflichtenden Selbstregulierung mit Verhaltenskodizes für KI-Modelle basiert. Gleichzeitig wendet er sich gegen die Idee, dass KI an „ungeprüften Standards“ gemessen wird.
Ein weiterer bemerkenswerter Punkt ist, dass es keine Strafen gibt, wenn etwas schief geht. Zumindest zunächst werden bei Verstößen gegen Verhaltenskodizes Stimmen laut, die die Einführung eines solchen Sanktionssystems fordern.
Die von den drei Ländern entwickelten Regeln machen auch deutlich, was bei einer KI-Anwendung schief gehen kann. Nicht mit der zugrunde liegenden Technologie. Dies bedeutet wahrscheinlich, dass der Ersteller eines KI-Sprachmodells nicht unbedingt kontrollieren muss, was andere damit erstellen, aber jeder, der eine Anwendung auf Basis eines solchen Sprachmodells erstellt, muss bestimmte Regeln befolgen.
Schließlich wird es auch „Modellkarten“ für grundlegende KI-Modelle geben. Diese enthalten Informationen darüber, wie das Modell funktioniert und was möglich ist und was nicht. Die Details stehen noch nicht fest, aber das Dokument hofft, Best Practices von der Entwickler-Community zu erhalten.

„Analyst. Totaler Alkoholkenner. Stolzer Internet-Fan. Ärgerlich bescheidener Leser.“
