Tech News

Technik & Digital

KI-Anbieter und Verlage könnten Verträge mit Verlagen abschließen, um Präzision bei LL.M.-Studiengängen zu steigern


Während viele die Einführung fortschrittlicher generativer KI als den Tod des Verlagswesens, wie wir es kennen, bezeichnet haben, konnten wir in den letzten Wochen einen neuen Trend beobachten, der den Verlagen durch den KI-Wandel tatsächlich erhebliche Vorteile bringen könnte.

Denn obwohl KI-Tools und die ihnen zugrunde liegenden großen Sprachmodelle (LLMs) sowohl bei Texten als auch bei Bildern erstaunlich menschenähnliche Ergebnisse produzieren können, entdecken wir zunehmend, dass die tatsächlichen Eingabedaten von entscheidender Bedeutung sind und dass mehr in dieser Hinsicht nicht unbedingt besser ist.

Nehmen wir zum Beispiel Googles neueste generative KI-Suchkomponente und die mitunter bizarren Antworten, die sie liefert.

KI-Anbieter und Verlage könnten Verträge mit Verlagen abschließen, um Präzision bei LL.M.-Studiengängen zu steigern

Google-Chef Sundar Pichai räumt zwar ein, dass die Systeme des Unternehmens Mängel aufweisen, diese seien seiner Ansicht nach jedoch in der Konstruktion der Tools selbst begründet.

Laut Pichai (über The Verge):

Sie kommen zu einem tieferen Punkt, an dem Halluzinationen immer noch ein ungelöstes Problem sind. In gewisser Weise sind sie ein inhärentes Merkmal. Das ist es, was diese Modelle sehr kreativ macht. […] Um immer an die Sachlichkeit zu gelangen, ist ein LLM aber nicht unbedingt der beste Ansatz.“

Plattformen wie Google präsentieren diese Tools jedoch als Systeme, denen man Fragen stellen und Antworten erhalten kann. Wenn sie also keine genauen Antworten liefern, ist das ein Problem und nicht etwas, das man als zufällige Vorkommnisse erklären kann, die immer und unvermeidlich auftreten werden.

Denn während die Plattformen selbst ihre Erwartungen hinsichtlich der Genauigkeit möglicherweise etwas dämpfen möchten, nutzen Verbraucher Chatbots bereits genau zu diesem Zweck.

In dieser Hinsicht ist es etwas erstaunlich, dass Pichai zugibt, dass KI-Tools keine „Fakten“ liefern, während sie gleichzeitig in der Lage sind, Suchenden Antworten zu geben. Aber unterm Strich wird sich der Fokus auf Daten im großen Maßstab unweigerlich verschieben, und es wird nicht nur darum gehen, wie viele Daten man integrieren kann, sondern auch, wie genau diese Daten sind, um sicherzustellen, dass solche Systeme gute, nützliche Ergebnisse liefern.

Und hier kommen der Journalismus und andere Formen hochwertiger Beiträge ins Spiel.

OpenAI hat bereits einen neuen Vertrag mit NewsCorp abgeschlossen, um Inhalte von News Corp.-Publikationen in seine Modelle einbeziehen, während Meta Berichten zufolge dasselbe in Erwägung zieht. Auch wenn Publikationen also möglicherweise Traffic an KI-Systeme verlieren, die alle von Suchenden benötigten Informationen direkt auf dem Suchergebnisbildschirm oder in einer Chatbot-Antwort bereitstellen, könnten sie zumindest theoretisch zumindest einen Teil dieser Verluste durch Datenaustauschvereinbarungen wieder wettmachen, die die Qualität von LLMs verbessern sollen.

Solche Vereinbarungen könnten auch den Einfluss fragwürdiger, parteiischer Nachrichtenanbieter verringern, indem ihre Eingaben aus denselben Modellen ausgeschlossen werden. Wenn OpenAI beispielsweise Vereinbarungen mit allen Mainstream-Verlagen treffen und dabei die eher „heißen“ Verschwörungstheoretiker ausschließen würde, würde sich die Genauigkeit der Antworten in ChatGPT sicherlich verbessern.

In dieser Hinsicht wird es weniger darum gehen, das gesamte Internet zu synthetisieren, sondern vielmehr darum, durch Partnerschaften mit etablierten, vertrauenswürdigen Anbietern, zu denen auch akademische Verlage, Regierungswebsites, wissenschaftliche Verbände usw. zählen, Genauigkeit in diese Modelle einzubauen.

Google wäre hierfür bereits gut aufgestellt, denn seine Suchalgorithmen verfügen bereits über Filter, die die besten und genauesten Informationsquellen priorisieren. Theoretisch könnte Google seine Gemini-Modelle verfeinern, um beispielsweise alle Websites auszuschließen, die unter einer bestimmten Qualitätsschwelle liegen. Dies sollte zu sofortigen Verbesserungen seiner Modelle führen.

Natürlich steckt noch mehr dahinter, aber das Konzept besteht darin, dass sich LLM-Entwickler zunehmend vom Bau möglichst großer Modelle abwenden und sich mehr auf verfeinerte, qualitativ hochwertige Eingaben konzentrieren.

Das könnten auch schlechte Nachrichten für die xAI-Plattform von Elon Musk sein.

xAI, das kürzlich zusätzliche 6 Milliarden Dollar Kapital aufgebracht hat, zielt darauf ab, ein KI-System zu schaffen, das „maximal nach Wahrheit sucht“, das nicht durch politische Korrektheit oder Zensur eingeschränkt wird. Um dies zu erreichen, wird xAI durch X-Posts angetrieben. Was in Bezug auf die Aktualität wahrscheinlich ein Vorteil ist, in Bezug auf die Genauigkeit jedoch wahrscheinlich nicht so sehr.

Viele falsche, schlecht informierte Verschwörungstheorien finden auf X immer noch Anklang, oft von Musk selbst verstärkt, und das scheint angesichts dieser breiteren Trends eher ein Hindernis als ein Vorteil zu sein. Elon und seine vielen Anhänger würden das natürlich anders sehen, da ihre linksgerichteten Ansichten von dem mysteriösen Puppenspieler, gegen den sie diese Woche antreten, „zum Schweigen gebracht“ werden. Aber die Wahrheit ist, dass die meisten dieser Theorien falsch sind, und wenn man sie in die Grok-Modelle von xAI einspeist, wird das nur die Genauigkeit seiner Antworten verfälschen.

Aber im größeren Maßstab ist dies die Richtung, in die wir uns bewegen. Die meisten Strukturelemente der aktuellen KI-Modelle sind inzwischen etabliert, wobei die Dateneingaben jetzt die größte Herausforderung für die Zukunft darstellen. Wie Pichai anmerkt, sind einige davon inhärent und werden immer existieren, da diese Systeme versuchen, die bereitgestellten Daten zu verstehen. Aber mit der Zeit werden die Anforderungen an die Genauigkeit steigen, und da immer mehr Websites OpenAI und andere KI-Unternehmen davon abhalten, ihre URLs für LLM-Eingaben zu durchsuchen, werden sie ohnehin Datenverträge mit mehr Anbietern abschließen müssen.

Die Auswahl dieser Anbieter könnte als Zensur angesehen werden und zu weiteren Problemen führen. Sie wird aber auch zu genaueren, sachlicheren Antworten dieser KI-Bot-Tools führen.



Source link