Tech News

Technik & Digital

OpenAI erforscht neue Maßnahmen zur Verbesserung der Transparenz von KI-Inhalten


Da die Welle generativer KI-Inhalte das Internet immer weiter erfasst, hat OpenAI heute zwei neue Maßnahmen angekündigt, die dazu beitragen sollen, mehr Transparenz bei Online-Inhalten zu ermöglichen und sicherzustellen, dass die Menschen wissen, was in visuellen Kreationen real ist und was nicht.

Zunächst einmal hat OpenAI dies angekündigt Beitritt zum Lenkungsausschuss der Coalition for Content Provenance and Authenticity (C2PA), um dabei zu helfen, einen einheitlichen Standard für die Zertifizierung digitaler Inhalte zu etablieren.

Laut OpenAI:

„C2PA wurde von einer Vielzahl von Akteuren, darunter Softwareunternehmen, Kameraherstellern und Online-Plattformen, entwickelt und übernommen und kann verwendet werden, um nachzuweisen, dass der Inhalt aus einer bestimmten Quelle stammt.“

OpenAI erforscht neue Maßnahmen zur Verbesserung der Transparenz von KI-Inhalten

Wie Sie in diesem Beispiel sehen können, besteht das Ziel der C2PA-Initiative im Wesentlichen darin, Webstandards für KI-generierte Inhalte zu entwickeln, die dann die Erstellungsquelle in der Inhaltscodierung auflisten und so sicherstellen, dass Benutzer wissen, was künstlich ist und was im Web real ist.

Was, wenn es möglich wäre, von großem Vorteil wäre, da soziale Apps zunehmend von gefälschten KI-Bildern wie diesem übernommen werden, die viele, viele Menschen offenbar für echt halten.

Facebook-KI-Beitrag

Eine einfache Prüfmethode hierfür wäre ein großer Vorteil bei der Beseitigung dieser Probleme und könnte es den Plattformen sogar ermöglichen, die Verbreitung einzuschränken.

Andererseits können solche Sicherheitsvorkehrungen auch von leicht versierten Webnutzern leicht abgemildert werden.

Hier kommt die nächste Initiative von OpenAI ins Spiel:

„Zusätzlich zu unseren Investitionen in C2PA entwickelt OpenAI auch neue Provenienzmethoden, um die Integrität digitaler Inhalte zu verbessern. Dazu gehört die Implementierung manipulationssicherer Wasserzeichen – das Markieren digitaler Inhalte wie Audio mit einem unsichtbaren Signal, das schwer zu entfernen sein soll – sowie Erkennungsklassifikatoren – Tools, die künstliche Intelligenz nutzen, um die Wahrscheinlichkeit zu bewerten, dass Inhalte aus generativen Modellen stammen.“

Unsichtbare Signale in von KI erstellten Bildern könnten ein großer Schritt sein, da selbst das Erstellen von Screenshots und das Bearbeiten solcher Bilder nicht einfach sein wird. Es wird wahrscheinlich auch fortgeschrittenere Hacker und Gruppen geben, die Wege finden werden, dies zu umgehen, aber es könnte den Missbrauch erheblich einschränken, wenn dies effektiv umgesetzt werden kann.

OpenAI gibt an, diese neuen Ansätze derzeit mit externen Forschern zu testen, um die Funktionsfähigkeit seiner Systeme in Bezug auf visuelle Transparenz zu ermitteln.

Und wenn es gelingt, verbesserte Methoden zur visuellen Erkennung zu etablieren, wird das einen großen Beitrag zu mehr Transparenz bei der KI-Bilderkennung leisten.

Angesichts der zunehmenden Verwendung von KI-generierten Bildern und der bevorstehenden Verbreitung von KI-generierten Videos ist dies tatsächlich ein zentrales Anliegen. Und je besser sich die Technologie verbessert, desto schwieriger wird es, zu wissen, was real ist. Aus diesem Grund ist die Verwendung fortschrittlicher digitaler Wasserzeichen eine wesentliche Überlegung, um eine allmähliche Verzerrung der Realität in allen Kontexten zu vermeiden.

Jede Plattform erforscht ähnliche Maßnahmen, aber angesichts der Präsenz von OpenAI im aktuellen KI-Bereich ist es wichtig, dass insbesondere OpenAI dasselbe erforscht.



Source link