Tech News

Technik & Digital

Meta arbeitet mit Stanford beim Forum rund um verantwortungsvolle KI-Entwicklung zusammen


Inmitten der anhaltenden Debatte über die Parameter, die für generative KI festgelegt werden sollten, und wie sie verwendet wird, ist Meta kürzlich eine Partnerschaft mit eingegangen Stanfords Deliberative Democracy Lab eine durchführen Community-Forum zur generativen KIum Feedback von tatsächlichen Benutzern zu ihren Erwartungen und Bedenken hinsichtlich einer verantwortungsvollen KI-Entwicklung zu erhalten.

Das Forum enthielt Antworten von über 1.500 Menschen aus Brasilien, Deutschland, Spanien und den Vereinigten Staaten und konzentrierten sich auf die wichtigsten Probleme und Herausforderungen, die die Menschen in der KI-Entwicklung sehen.

Und es gibt einige interessante Hinweise zur öffentlichen Wahrnehmung von KI und ihren Vorteilen.

Die von Meta hervorgehobenen Topline-Ergebnisse zeigen Folgendes:

  • Die Mehrheit der Teilnehmer aus jedem Land glaubt, dass KI einen positiven Einfluss hatte
  • Die Mehrheit glaubt, dass KI-Chatbots in der Lage sein sollten, vergangene Gespräche zu nutzen, um Antworten zu verbessern, sofern die Menschen informiert sind
  • Die Mehrheit der Teilnehmer glaubt, dass KI-Chatbots menschenähnlich sein können, solange die Menschen informiert sind.

Obwohl das spezifische Detail interessant ist.

Meta arbeitet mit Stanford beim Forum rund um verantwortungsvolle KI-Entwicklung zusammen

Wie Sie in diesem Beispiel sehen können, waren die Aussagen, die die meisten positiven und negativen Reaktionen erhielten, je nach Region unterschiedlich. Viele Teilnehmer haben im Laufe des Prozesses ihre Meinung zu diesen Elementen geändert, aber es ist interessant zu überlegen, wo die Menschen derzeit die Vorteile und Risiken von KI sehen.

Der Bericht untersuchte auch die Einstellung der Verbraucher zur Offenlegung von KI und woher KI-Tools ihre Informationen beziehen sollten:

Stanford AI-Bericht

Interessant ist die relativ geringe Zustimmung dieser Quellen in den USA

Es gibt auch Erkenntnisse darüber, ob Menschen der Meinung sind, dass Benutzer romantische Beziehungen mit KI-Chatbots eingehen sollten.

Stanford AI-Bericht

Etwas seltsam, aber es ist eine logische Weiterentwicklung und etwas, das berücksichtigt werden muss.

Ein weiterer interessanter Aspekt der KI-Entwicklung, der in der Studie nicht speziell hervorgehoben wird, sind die Kontrollen und Gewichtungen, die jeder Anbieter in seinen KI-Tools implementiert.

Google musste sich kürzlich für die irreführenden und nicht repräsentativen Ergebnisse seines Gemini-Systems entschuldigen, das zu stark auf vielfältige Darstellungen ausgerichtet war, während das Llama-Modell von Meta ebenfalls dafür kritisiert wurde, dass es auf der Grundlage bestimmter Eingabeaufforderungen bereinigtere, politisch korrektere Darstellungen produzierte.

Beispiel für Meta-KI

Beispiele wie dieses verdeutlichen den Einfluss, den die Modelle selbst auf die Ergebnisse haben können, was ein weiteres wichtiges Anliegen bei der KI-Entwicklung ist. Sollten Unternehmen eine solche Kontrolle über diese Tools haben? Ist eine umfassendere Regulierung erforderlich, um eine gleichberechtigte Vertretung und Ausgewogenheit in jedem Instrument sicherzustellen?

Die meisten dieser Fragen können nicht beantwortet werden, da wir den Umfang solcher Tools noch nicht vollständig verstehen und wissen, wie sie die breitere Reaktion beeinflussen könnten. Aber es wird immer deutlicher, dass wir allgemeine Schutzmaßnahmen brauchen, um die Nutzer vor Fehlinformationen und irreführenden Antworten zu schützen.

Daher ist dies eine interessante Debatte, und es lohnt sich zu überlegen, was die Ergebnisse für die breitere KI-Entwicklung bedeuten.

Den vollständigen Forumsbericht können Sie hier lesen.



Source link