Die „beunruhigende“ Einführung von KI offenbart ihre Mängel. Wie besorgt sollten wir sein?
Der CEO von Google und Alphabet warnt davor, dass sich die Gesellschaft schnell an die rasante Ausbreitung der künstlichen Intelligenz (KI) anpassen muss.
„Dies wird sich auf jedes Produkt in jedem Unternehmen auswirken“, sagte Sundar Pichai am 16. April im Interview mit „60 Minuten (öffnet in neuem Tab).“ Letzten Monat veröffentlichte Google seinen Chatbot Bard – einen Konkurrenten von ChatGPT, dem weithin bekannten Chatbot von OpenAI – trotz vernichtender Kritiken in internen Tests, laut Das Byte (öffnet in neuem Tab).
Programme wie ChatGPT und Bard können als Antwort auf Benutzeranfragen selbstbewusst klingende Texte produzieren, und sie finden bereits in einigen Aufgaben, wie dem Codieren, Fuß, sagte er Ernst Davis (öffnet in neuem Tab), Informatiker an der New York University. Allerdings verraten sie oft grundlegende Fakten und „halluzinieren“, was bedeutet, dass sie Informationen erfinden. In einem aktuellen Beispiel ChatGPT erfand einen sexuellen Belästigungsskandal (öffnet in neuem Tab) und nannte einen echten Juraprofessor als Täter, komplett mit Zitaten von nicht existierenden Zeitungsartikeln über den Fall.
Die Leistungsfähigkeit dieser Programme – kombiniert mit ihren Unvollkommenheiten – macht Experten besorgt über die schnelle Einführung von KI. Während eine „Terminator“-Skynet-Situation in weiter Ferne liegt, haben KI-Programme die Fähigkeit, menschliche Vorurteile zu verstärken, es schwieriger zu machen, wahre Informationen von falschen zu unterscheiden, und die Beschäftigung zu stören, sagten Experten gegenüber Live Science.
Verwandt: DeepMind AI hat die Struktur fast aller Proteine entdeckt, die der Wissenschaft bekannt sind
Vorteil oder Vorurteil?
Während der „60 Minutes“-Diskussion bezeichnete Interviewer Scott Pelley die Fähigkeiten des Bard-Chatbots als „beunruhigend“ und sagte: „Bard scheint nachzudenken.“
Große Sprachmodelle wie Bard seien jedoch nicht empfindungsfähig, sagte er Sara Goudarzi (öffnet in neuem Tab), Mitherausgeber von disruptiven Technologien für das Bulletin of the Atomic Scientists. „Ich denke, das muss wirklich klar sein“, sagte Goudarzi.
Diese KI-Chatbots erzeugen eine menschlich klingende Schrift, indem sie statistische Schlussfolgerungen darüber ziehen, welche Wörter wahrscheinlich als nächstes in einem Satz kommen, nachdem sie mit riesigen Mengen an bereits vorhandenem Text trainiert wurden. Diese Methode bedeutet, dass die KI zwar zuversichtlich klingen mag, was sie sagt, sie es aber nicht wirklich versteht, sagte sie Damian Williams (öffnet in neuem Tab)ein Assistenzprofessor an der School of Data Science an der University of North Carolina, der sich mit Technologie und Gesellschaft befasst.
Diese KI-Chatbots „versuchen nicht, Ihnen die richtigen Antworten zu geben; sie versuchen, Ihnen eine Antwort zu geben, die Ihnen gefällt“, sagte Williams gegenüber WordsSideKick.com. Er gab ein Beispiel für ein kürzlich von ihm besuchtes KI-Panel: Der Einführungsredner bat ChatGPT, eine Biografie zu erstellen Shannon Vallor (öffnet in neuem Tab)eine KI-Ethikerin an der University of Edinburgh im Vereinigten Königreich. Das Programm versuchte, Vallor einen angeseheneren Bildungshintergrund zu verschaffen, als sie tatsächlich hatte, weil es statistisch gesehen einfach nicht wahrscheinlich war, dass jemand von ihrem Rang auf dem Gebiet das Community College besuchte und a öffentliche Universität.
Für die KI ist es einfach, menschliche Vorurteile, die in den Trainingsdaten vorhanden sind, nicht nur zu kopieren, sondern zu verstärken. Im Jahr 2018 stellte Amazon beispielsweise ein KI-Tool zum Sortieren von Lebensläufen ein, das eine anhaltende Voreingenommenheit gegenüber Frauen aufwies. Die KI stuft Lebensläufe mit weiblich klingenden Namen als weniger qualifiziert ein als solche mit männlich klingenden Namen, sagte Williams.
„Das liegt daran, dass die Daten, mit denen es trainiert wurde, die Sortierung der Lebensläufe von Menschen waren“, sagte Williams.
KI-Programme wie ChatGPT sind so programmiert, dass sie versuchen, rassistische, sexistische oder anderweitig unerwünschte Antworten zu vermeiden. Aber die Wahrheit ist, dass es so etwas wie eine „objektive“ KI nicht gibt, sagte Williams. KI wird immer menschliche Werte und Vorurteile beinhalten, weil sie von Menschen gebaut wird.
„Auf die eine oder andere Weise wird es eine Art Perspektive haben, die den Aufbau untermauert“, sagte Williams. „Die Frage ist, wollen wir das versehentlich geschehen lassen, wie wir es getan haben … oder wollen wir es absichtlich tun?“
Aufbau von KI-Schutzmaßnahmen
Pichai warnte davor, dass KI das Ausmaß der Desinformation erhöhen könnte. Schon jetzt werden KI-generierte Videos synchronisiert „Deepfakes“ sind immer überzeugender und schwerer von der Realität zu unterscheiden. Wollen beleben die „Mona Lisa“ oder Marie Curie wieder zum Leben erwecken? Deepfake-Tech kann bereits überzeugen.
Pichai sagte, dass die Gesellschaften Regulierungen und Paktverträge entwickeln müssen, um sicherzustellen, dass KI verantwortungsbewusst eingesetzt wird.
„Das muss kein Unternehmen entscheiden“, sagte Pichai gegenüber „60 Minutes“. „Deshalb denke ich, dass die Entwicklung nicht nur Ingenieure, sondern auch Sozialwissenschaftler, Ethiker, Philosophen und so weiter umfassen muss.“
Bisher fallen Vorschriften rund um KI weitgehend unter Gesetze, die ältere Technologien abdecken sollen, sagte Williams. Aber es gab Versuche für eine umfassendere Regulierungsstruktur. Im Jahr 2022 veröffentlichte das Büro für Wissenschafts- und Technologiepolitik des Weißen Hauses (OSTP) die „AI-Bill of Rights (öffnet in neuem Tab),“ eine Blaupause zur Förderung einer ethischen, menschenzentrierten KI-Entwicklung. Das Dokument behandelt Fragen der Gerechtigkeit und möglichen Schadens, sagte Williams, lässt jedoch einige besorgniserregende Probleme aus, wie die Entwicklung und den Einsatz von KI durch Strafverfolgungsbehörden und das Militär .
Laut Williams werden politische Kandidaten für Bundesbehörden und -abteilungen zunehmend von Personen ausgewählt, die ein Gefühl für die Kosten und Vorteile von KI haben. Alvaro Bedoya, der derzeitige Beauftragte der Federal Trade Commission, war der Gründungsdirektor des Georgetown Law Center for Privacy and Technology und verfügt über Fachwissen in Technologie und Ethik, sagte Williams, während Alondra Nelson, ehemalige Interimsdirektorin des OSTP, eine hatte lange Karriere beim Studium von Wissenschaft, Technologie und Ungleichheiten. Aber es sei noch ein langer Weg, um bei Politikern und politischen Entscheidungsträgern technologische Kompetenz aufzubauen, sagte Williams.
„Wir sind immer noch dabei, verschiedene große Unternehmen die Entwicklung und Verbreitung von möglicherweise sehr mächtigen Technologien lenken zu lassen, aber Technologien, die undurchsichtig sind und die in unser tägliches Leben eingebettet werden, auf eine Weise, über die wir keine Möglichkeit haben Kontrolle“, sagte er.