Tech News

Technik & Digital

LinkedIn fügt Labels für KI-generierte Inhalte hinzu


LinkedIn ist die neueste soziale Plattform, die durch eine Partnerschaft mit der Coalition for Content Provenance and Authenticity (C2PA), die Daten-Tagging zur Identifizierung von KI-Bildern verwendet, Labels zu KI-generierten In-Stream-Inhalten hinzufügt.

LinkedIn fügt Labels für KI-generierte Inhalte hinzu

Wie Sie darin sehen können dieses Beispiel (gepostet vom Influencer-Marketing-Experten Lia Habermann), KI-generierte Bilder, die auf LinkedIn gepostet werden, enthalten jetzt oben rechts im In-Stream-Visual einen kleinen C2PA-Tag. Tippen Sie auf dieses Symbol und Sie können weitere Informationen zum Bild sehen.

Die Tags werden automatisch hinzugefügt, basierend auf den in das Bild eingebetteten Codedaten, die durch den C2PA-Prozess identifiziert wurden.

C2PA ist eine von mehreren Organisationen, die daran arbeiten, Industriestandards für KI-generierte Inhalte zu etablieren, zu denen auch digitale Wasserzeichen gehören, die nicht einfach aus dem Back-End-Code von Bildern und Videos entfernt werden können.

LinkedIns Muttergesellschaft Microsoft hat sich zusammen mit Google, Adobe und OpenAI bereits den C2PA-Standards angeschlossen. C2PA wurde auch von TikTok für seinen KI-Tagging-Prozess übernommen, den das Unternehmen Anfang dieses Monats angekündigt hat.

Die meisten sozialen Plattformen verfügen mittlerweile zumindest über irgendeine Form von KI-Inhalts-Tags im Stream, die dazu beitragen, die Transparenz zu verbessern und die Verbreitung von „Deepfake“-Inhalten und/oder Darstellungen von Dingen, die nicht real sind, einzuschränken.

Das ist wichtig, denn während die meisten dieser Darstellungen im Allgemeinen harmlos sind, auch wenn sie Zweifel an ihrer Authentizität aufwerfen (wie der Papst in einer Daunenjacke), könnten einige andere Missbrauchsfälle größere Auswirkungen haben. Wie gefälschte Bilder eines Angriffs auf das Pentagon oder falsche Darstellungen über den Krieg zwischen Israel und der Hamas.

Solche KI-Generationen können die öffentliche Meinung beeinflussen, was ein großes Risiko darstellt, da auf der ganzen Welt eine Reihe von Wahlen bevorstehen.

Und es besteht eine erhebliche Wahrscheinlichkeit, dass KI-generierte Inhalte bei den bevorstehenden US-Wahlen eine Rolle spielen werden. Und oft werden die Tags, selbst wenn sie als Fälschung gekennzeichnet sind, zu spät angehängt, wenn die visuellen Elemente bereits Wirkung zeigen.

Deshalb ist eine automatische und sofortige Erkennung wichtig, um sicherzustellen, dass solche Etiketten angebracht werden können, bevor sie an Bedeutung gewinnen können.

Der nächste Schritt besteht dann darin, dafür zu sorgen, dass die Öffentlichkeit versteht, was diese Etiketten bedeuten. Das erste Ziel, auf das wir hinarbeiten müssen, ist jedoch die Erreichung einer einheitlichen Berichterstattung.





Source link