Start Nachrichten Das Oversight Board sagt, Meta brauche neue Regeln für KI-generierte Inhalte

Das Oversight Board sagt, Meta brauche neue Regeln für KI-generierte Inhalte

8
0
Das Oversight Board sagt, Meta brauche neue Regeln für KI-generierte Inhalte

Das Oversight Board fordert Meta erneut auf, seine Regeln für KI-generierte Inhalte zu überarbeiten. Diesmal sagt der Vorstand, dass Meta unter anderem eine separate Regel für KI-Inhalte erstellen sollte, die unabhängig von seiner Fehlinformationsrichtlinie ist, in zuverlässigere Erkennungstools investieren und digitale Wasserzeichen besser nutzen sollte.

Die Empfehlungen der Gruppe stammen aus einem KI-generierten Video, das letztes Jahr geteilt wurde und behauptete, beschädigte Gebäude in der israelischen Stadt Haifa während des Israel-Iran-Konflikts im Jahr 2025 zu zeigen. Der Clip, der mehr als 700.000 Aufrufe verzeichnete, wurde von einem Konto gepostet, das angeblich eine Nachrichtenagentur war, tatsächlich aber von jemandem auf den Philippinen betrieben wurde.

Nachdem das Video an Meta gemeldet worden war, lehnte das Unternehmen es ab, es zu entfernen oder eine KI-Kennzeichnung mit „hohem Risiko“ hinzuzufügen, die eindeutig darauf hingewiesen hätte, dass der Inhalt mit KI erstellt oder manipuliert worden war. Der Vorstand hob die Entscheidung von Meta auf, das Label „hohes Risiko“ nicht hinzuzufügen, und sagte, der Fall werfe ein Licht auf mehrere Bereiche, in denen die aktuellen KI-Regeln des Unternehmens unzureichend seien.

„Meta muss mehr tun, um der Verbreitung irreführender, von KI generierter Inhalte auf seinen Plattformen entgegenzuwirken, auch durch unechte oder missbräuchliche Netzwerke von Konten und Seiten, insbesondere in Angelegenheiten von öffentlichem Interesse, damit Benutzer zwischen Echt und Fälschung unterscheiden können“, schrieb das Gremium in seiner Entscheidung. Meta hat schließlich drei mit der Seite verknüpfte Konten deaktiviert, nachdem das Board „offensichtliche Anzeichen einer Täuschung“ gemeldet hatte.

Eine der wichtigsten Empfehlungen des Gremiums besteht darin, dass Meta eine eigene Regel für KI-generierte Inhalte einführt, die von der Fehlinformationsrichtlinie getrennt ist. Nach Ansicht des Gremiums sollte die Regel Einzelheiten darüber enthalten, wie und wann Benutzer KI-Inhalte kennzeichnen müssen, sowie Informationen darüber, wie Meta diejenigen bestraft, die gegen die Regel verstoßen.

Der Vorstand äußerte sich auch äußerst kritisch gegenüber der Art und Weise, wie Meta seine aktuellen „AI Info“-Kennzeichnungen verwendet, und stellte fest, dass die Art und Weise, wie sie angewendet werden, „weder robust noch umfassend genug ist, um mit dem Umfang und der Geschwindigkeit von KI-generierten Inhalten zurechtzukommen“, insbesondere in Zeiten von Konflikten oder Krisen. „Ein System, das zu sehr auf die Selbstoffenlegung der KI-Nutzung und eine eskalierte Überprüfung (die selten vorkommt) angewiesen ist, um diese Ergebnisse richtig zu kennzeichnen, kann den Herausforderungen des aktuellen Umfelds nicht gerecht werden.“

Meta, so der Vorstand, müsse außerdem in eine ausgefeiltere Erkennungstechnologie investieren, die KI-Medien, einschließlich Audio und Video, zuverlässig kennzeichnen könne. Die Gruppe fügte hinzu, dass sie „besorgt“ über Berichte sei, wonach das Unternehmen „uneinheitlich“ digitale Wasserzeichen auf KI-Inhalten implementiert, die mit seinen eigenen KI-Tools erstellt wurden.

Meta reagierte nicht sofort auf eine Bitte um Stellungnahme zur Entscheidung des Aufsichtsgremiums. Das Unternehmen hat 60 Tage Zeit, um offiziell auf seine Empfehlungen zu reagieren.

Die Entscheidung ist nicht das erste Mal, dass der Vorstand den Umgang von Meta mit KI-Inhalten kritisiert. Die Gruppe hat die manipulierten Medienregeln des Unternehmens bei zwei anderen Gelegenheiten als „inkohärent“ bezeichnet und das Unternehmen dafür kritisiert, dass es sich bei der Kennzeichnung problematischer Inhalte auf Dritte, darunter Organisationen zur Faktenprüfung, verlassen habe. Metas Abhängigkeit von Faktenprüfern und anderen „vertrauenswürdigen Partnern“ wurde in diesem Fall erneut hervorgehoben, wobei der Vorstand sagte, er habe von diesen Gruppen gehört, dass Meta „weniger auf Kontaktaufnahme und Bedenken reagiert, was teilweise auf eine erhebliche Reduzierung der Kapazitäten für die internen Teams von Meta zurückzuführen ist“. Meta, so schreibt der Vorstand, „sollte in der Lage sein, solche Schadensbeurteilungen selbst durchzuführen, anstatt sich während eines bewaffneten Konflikts ausschließlich auf Partner zu verlassen, die sich an sie wenden.“

Während sich die Entscheidung des Aufsichtsgremiums auf einen Beitrag aus dem letzten Jahr bezieht, hat das Thema KI-generierter Inhalte während bewaffneter Konflikte während des jüngsten Konflikts im Nahen Osten eine neue Dringlichkeit erlangt. Seit Beginn der Angriffe der USA und Israels auf den Iran Anfang dieses Monats ist in den sozialen Medien ein starker Anstieg viraler, durch künstliche Intelligenz generierter Fehlinformationen zu verzeichnen. Der Vorstand, der zuvor angedeutet hatte, dass er gerne mit generativen KI-Unternehmen zusammenarbeiten würde, fügte einen Vorschlag hinzu, der offenbar nicht nur für Meta gilt.

„Die Branche braucht Kohärenz, um Nutzern dabei zu helfen, irreführende KI-generierte Inhalte zu unterscheiden, und Plattformen sollten sich mit missbräuchlichen Konten und Seiten befassen, die solche Inhalte teilen“, heißt es darin.

Quelle

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein