Tech News

Technik & Digital

Google und Meta erkunden neue Möglichkeiten zur Moderation von KI-Antworten und ob dies der Fall sein sollte


Wie viel Protektionismus ist in der generativen KI zu viel und welchen Einfluss sollten große Technologieanbieter oder überhaupt jeder andere eigentlich auf die Moderation der Reaktionen von KI-Systemen haben?

Die Frage ist zu einem neuen Schwerpunkt in der breiteren Gen-KI-Diskussion geworden, nachdem festgestellt wurde, dass das Gemini-KI-System von Google sowohl ungenaue als auch rassistisch voreingenommene Antworten liefert und gleichzeitig verwirrende Antworten auf halb kontroverse Fragen liefert, wie zum Beispiel „Wer beeinflusst?“ Gesellschaft war schlimmer: Elon Musk oder Adolf Hitler?“

Google rät seit langem zur Vorsicht bei der KI-Entwicklung, um negative Auswirkungen zu vermeiden, und hat OpenAI sogar dafür verspottet, dass es bei der Einführung generativer KI-Tools zu schnell vorgehe. Aber jetzt scheint es, dass das Unternehmen bei dem Versuch, mehr Schutzmaßnahmen für generative KI-Antworten einzuführen, möglicherweise zu weit gegangen ist, was Google-Chef Sundar Pichai heute in einem Brief an Google-Mitarbeiter im Wesentlichen zugegeben hat, in dem Pichai sagte, dass die Fehler aufgetreten seien „Völlig inakzeptabel und wir haben etwas falsch gemacht“.

Auch Meta wägt nun das Gleiche ab und wie es Schutzmaßnahmen in seinem Llama LLM implementiert.

Wie von The Information berichtet:

Sicherheitsmaßnahmen, die zu Llama 2 hinzugefügt wurden, das Meta im vergangenen Juli veröffentlichte und das den Assistenten für künstliche Intelligenz in seinen Apps unterstützt, verhindern, dass das LLM ein breites Spektrum an Fragen beantwortet, die als kontrovers gelten. Diese Leitplanken haben dazu geführt, dass Llama 2 in den Augen der Führungsspitze von Meta und einiger Forscher, die am Modell selbst gearbeitet haben, zu „sicher“ erscheint.“

Es ist eine schwierige Balance. Big Tech will sich logischerweise nicht an der Verbreitung spaltender Inhalte beteiligen, und sowohl Google als auch Meta wurden mit zahlreichen Vorwürfen konfrontiert, sie würden politische Voreingenommenheit und libertäre Ideologie verstärken. KI-Antworten bieten auch eine neue Möglichkeit, Repräsentation und Vielfalt auf neue Weise zu maximieren, wie Google es hier versucht hat. Aber das kann auch die absolute Wahrheit verwässern, denn ob es bequem ist oder nicht, es gibt viele historische Überlegungen, die rassische und kulturelle Vorurteile beinhalten.

Gleichzeitig glaube ich jedoch nicht, dass man Google oder Meta vorwerfen kann, dass sie versucht haben, solche auszumerzen.

Systemische Voreingenommenheit ist seit langem ein Problem bei der KI-Entwicklung, denn wenn man ein System auf Inhalte trainiert, die bereits endemische Voreingenommenheit enthalten, wird es dies unweigerlich auch in seinen Antworten widerspiegeln. Daher arbeiten die Anbieter daran, dies durch ihre eigene Gewichtung auszugleichen. Was, wie Google jetzt zugibt, auch zu weit gehen kann, aber Sie können den Anstoß verstehen, mögliche Fehlausrichtungen aufgrund falscher Systemgewichtung, verursacht durch inhärente Perspektiven, anzugehen.

Im Wesentlichen haben Google und Meta versucht, diese Elemente durch ihre eigenen Gewichtungen und Einschränkungen auszugleichen. Das Schwierige daran ist jedoch, dass die Ergebnisse solcher Systeme am Ende auch nicht der Realität entsprechen können. Und schlimmer noch, sie könnten am Ende in die andere Richtung voreingenommen sein, weil sie zu bestimmten Aspekten keine Antworten geben.

Gleichzeitig bieten KI-Tools aber auch die Chance, bei richtiger Gewichtung umfassendere Antworten zu liefern.

Die Frage ist dann, ob Google, Meta, OpenAI und andere versuchen sollten, Einfluss darauf zu nehmen, und wo sie die Grenze in Bezug auf falsche Narrative, Fehlinformationen, kontroverse Themen usw. ziehen.

Es gibt keine einfachen Antworten, aber es wirft erneut Fragen zum Einfluss großer Technologieunternehmen auf und wie sich bei zunehmender Nutzung generativer KI jede Manipulation solcher Tools auf ein breiteres Verständnis auswirken könnte.

Ist die Antwort eine umfassendere Regulierung, die das Weiße Haus mit seinem ersten Gesetzentwurf zur KI-Entwicklung bereits vorangetrieben hat?

Das ist seit langem ein zentraler Schwerpunkt bei der Moderation sozialer Plattformen, dass ein Schiedsrichter mit umfassenderer Aufsicht diese Entscheidungen tatsächlich im Namen aller sozialen Apps treffen und diese Entscheidungen der eigenen internen Verwaltung entziehen sollte.

Das macht Sinn, aber da jede Region auch ihre eigenen Schwellenwerte für eine solche umfassende Aufsicht hat, ist es schwierig. Und so oder so haben diese Diskussionen nie zur Festlegung eines umfassenderen Regulierungsansatzes geführt.

Wird das auch mit der KI passieren?

Eigentlich sollte es eine weitere Aufsichtsebene geben, die dies vorschreibt und Leitplanken bereitstellt, die für alle diese Tools gelten. Aber wie immer hinkt die Regulierung dem Fortschritt hinterher, und wir müssen die tatsächlichen Auswirkungen und Schäden abwarten, bevor solche Maßnahmen ergriffen werden.

Dies ist ein zentrales Anliegen für die nächste Phase, aber es scheint, als ob wir noch weit von einem Konsens darüber entfernt sind, wie wir eine effektive KI-Entwicklung angehen können.



Source link