Tech News

Technik & Digital

Werden KI-Tools den „sozialen Medien“ das „Soziale“ entziehen?


Das Wachstum generativer KI-Inhalte verlief rasant und wird weiter an Dynamik gewinnen, da immer mehr Webmanager und Herausgeber versuchen, mithilfe fortschrittlicher digitaler Tools die Optimierung zu maximieren und die Produktivität zu optimieren.

Aber was passiert, wenn KI-Inhalte den menschlichen Input übertreffen? Was wird aus dem Internet, wenn alles nur eine Kopie einer Kopie eines digitalen Abbilds tatsächlicher menschlicher Leistung ist?

Das ist die Frage, die sich jetzt viele stellen, da soziale Plattformen versuchen, Mauern um ihre Datensätze zu errichten, sodass KI-Start-ups nach neuen Inputs für ihre LLMs suchen müssen.

X (ehemals Twitter) beispielsweise hat den Preis für seinen API-Zugriff erhöht, um KI-Plattformen an der Nutzung von X-Posts zu hindern, und entwickelt auf dieser Grundlage ein eigenes „Grok“-Modell. Meta verfügt seit langem über eingeschränkten API-Zugriff, insbesondere seit der Katastrophe von Cambridge Analytica, und wirbt außerdem mit seinem unübertroffenen Datenpool, um sein Llama LLM voranzutreiben.

Google hat kürzlich mit Reddit einen Vertrag über die Integration seiner Daten in seine Gemini-KI-Systeme abgeschlossen. Dies ist ein weiterer Weg, von dem Sie mehr erwarten können, da soziale Plattformen, die keine eigenen KI-Modelle entwickeln möchten, nach neuen Einnahmequellen suchen Einsichten.

Das Wall Street Journal berichtete heute, dass OpenAI erwägt, sein GPT-5-Modell auf öffentlich zugänglichen YouTube-Transkripten zu trainieren, da befürchtet wird, dass die Nachfrage nach wertvollen Trainingsdaten innerhalb von zwei Jahren das Angebot übersteigen wird.

Das ist ein erhebliches Problem, denn obwohl die neuen KI-Tools in der Lage sind, zu praktisch jedem Thema menschenähnlichen Text herauszupumpen, handelt es sich dabei noch nicht um „Intelligenz“ als solche. Die aktuellen KI-Modelle verwenden Maschinenlogik und abgeleitete Annahmen, um ein Wort nach dem anderen der Reihe nach zu platzieren, basierend auf von Menschen erstellten Beispielen in ihrer Datenbank. Aber diese Systeme können nicht selbstständig denken und haben kein Bewusstsein dafür, was die von ihnen ausgegebenen Daten bedeuten. Es handelt sich um fortgeschrittene Mathematik in Text- und visueller Form, definiert durch eine systematische Logik.

Das bedeutet, dass LLMs und die darauf aufbauenden KI-Tools zumindest derzeit keinen Ersatz für menschliche Intelligenz darstellen.

Das ist natürlich das Versprechen der „künstlichen allgemeinen Intelligenz“ (AGI), Systemen, die die Denkweise des Menschen nachbilden und ihre eigene Logik und Argumentation entwickeln können, um definierte Aufgaben zu erfüllen. Einige meinen, dass dies nicht allzu sehr der Fall ist, aber auch hier gilt: Die Systeme, auf die wir derzeit zugreifen können, entsprechen nicht annähernd dem, was AGI theoretisch erreichen könnte.

An dieser Stelle äußern viele KI-Untergangsbefürworter auch Bedenken, dass wir, sobald wir ein System haben, das ein menschliches Gehirn nachbildet, uns obsolet machen könnten und eine neue technische Intelligenz die Macht übernehmen und zur dominierenden Spezies auf der Erde werden könnte.

Aber die meisten KI-Akademiker glauben nicht, dass wir dem nächsten Durchbruch nahe sind, ungeachtet dessen, was wir in der aktuellen Welle des KI-Hypes sehen.

Metas leitender KI-Wissenschaftler Yann LeCun diskutierte diesen Gedanken kürzlich im Lex Friedman-Podcast und stellte fest, dass wir aus mehreren Gründen noch nicht in der Nähe von AGI sind:

Erstens gibt es eine Reihe von Merkmalen für intelligentes Verhalten. Zum Beispiel die Fähigkeit, die Welt zu verstehen, die physische Welt zu verstehen, die Fähigkeit, sich an Dinge zu erinnern und sie abzurufen, das beständige Gedächtnis, die Fähigkeit zum Denken und die Fähigkeit zur Planung. Das sind vier wesentliche Merkmale intelligenter Systeme oder Entitäten, Menschen und Tiere. LLMs können das alles nicht oder nur auf eine sehr primitive Art und Weise tun.“

LeCun sagt, dass die Datenmenge, die Menschen aufnehmen, weit über die Grenzen von LLMs hinausgeht, die auf menschlichen Erkenntnissen aus dem Internet basieren.

„Wir sehen viel mehr Informationen, als wir aus der Sprache gewinnen, und trotz unserer Intuition geschieht das meiste, was wir lernen und der Großteil unseres Wissens durch unsere Beobachtung und Interaktion mit der realen Welt, nicht durch die Sprache.“

Mit anderen Worten: Ihre interaktive Fähigkeit ist der eigentliche Schlüssel zum Lernen und nicht das Reproduzieren von Sprache. LLMs sind in diesem Sinne fortgeschrittene Papageien, die in der Lage sind, zu wiederholen, was wir uns gesagt haben. Aber es gibt kein „Gehirn“, das all die verschiedenen menschlichen Überlegungen hinter dieser Sprache verstehen kann.

Vor diesem Hintergrund ist es in mancher Hinsicht eine Fehlbezeichnung, diese Werkzeuge überhaupt als „Intelligenz“ zu bezeichnen, da sie wahrscheinlich einer der Mitwirkenden an den oben genannten KI-Verschwörungen sind. Die aktuellen Tools benötigen Daten darüber, wie wir interagieren, um sie zu reproduzieren, aber es gibt keine adaptive Logik, die versteht, was wir meinen, wenn wir ihnen Fragen stellen.

Es ist zweifelhaft, ob die aktuellen Systeme in dieser Hinsicht auch nur einen Schritt in Richtung AGI darstellen, sondern eher eine Randbemerkung in der breiteren Entwicklung, aber auch hier besteht die größte Herausforderung, vor der sie jetzt stehen, darin, dass je mehr Webinhalte durch diese Systeme geleitet werden, die eigentliche Die Ergebnisse, die wir sehen, werden weniger menschlich, was eine entscheidende Veränderung für die Zukunft darstellen dürfte.

Soziale Plattformen machen es immer einfacher, Ihre Persönlichkeit und Erkenntnisse mit KI-Ergebnissen zu stärken und sich mithilfe fortschrittlicher Plagiate als etwas zu präsentieren, das Sie nicht sind.

Ist das die Zukunft, die wir wollen? Ist das wirklich ein Fortschritt?

In gewisser Weise werden diese Systeme zu erheblichen Fortschritten bei der Entdeckung und Verarbeitung führen. Der Nebeneffekt der systematischen Erstellung besteht jedoch darin, dass die Farbe aus der digitalen Interaktion ausgewaschen wird und wir dadurch möglicherweise schlechter dastehen.

Im Wesentlichen werden wir wahrscheinlich eine Verwässerung der menschlichen Interaktion erleben, bis zu dem Punkt, an dem wir alles in Frage stellen müssen. Dadurch werden sich mehr Menschen von öffentlichen Beiträgen abwenden und eher in geschlossene, private Chats verwickeln, in denen Sie die anderen Teilnehmer kennen und ihnen vertrauen können.

Mit anderen Worten: Der Wettlauf um die Integration dessen, was derzeit als „KI“ bezeichnet wird, könnte sich negativ auswirken und dazu führen, dass der „soziale“ Teil der „sozialen Medien“ völlig untergraben wird.

Dies wird mit der Zeit immer weniger menschlichen Input für LLMs hinterlassen und die Grundlagen solcher Systeme untergraben.



Source link