Tech News

Technik & Digital

Gefällt Ihnen Copilot nicht? Mit Opera können Sie jedes gewünschte LLM ausführen


Und das Beste: Es ist alles lokal.

Die zentralen Thesen

  • Der Opera One-Browser fügt 150 lokale LLMs hinzu, verändert das Spiel für KI-Benutzer und setzt einen neuen Standard für Datenschutz und Effizienz.
  • KI-PCs ermöglichen Benutzern nun die lokale Ausführung von LLMs, wodurch die Notwendigkeit, Abfragen an Remote-Server zu senden, reduziert und potenzielle Datenschutzbedenken ausgeräumt werden.
  • Microsoft Edge und Chrome fügen KI-Funktionen hinzu, aber Opera stiehlt die Show mit lokaler LLM-Unterstützung direkt in seinem Browser.


Es ist schwer, einen Technologiebereich zu finden, in dem künstliche Intelligenz ihn nicht in irgendeiner Weise verändert hat. Das meiste davon ist ziemlich offensichtlich, etwa die Fähigkeit der KI, Bilder zu erzeugen oder die Stimme einer Person erschreckend gut nachzubilden. Doch hinter den Kulissen arbeiten Unternehmen hart daran, die Besten auf dem KI-Markt zu werden. In der Browser-Szene ändert Microsoft den Namen seines mobilen Browsers in „Microsoft Edge: AI Browser“ und Chrome fügt KI-generierte Themes hinzu, aber Opera möchte unbedingt die Krone erobern, indem es lokal ausgeführte LLMs direkt in seinen Browser einfügt.

Verwandt

Was ist Mixtral 8x7B? Das offene LLM macht GPT-3.5 Konkurrenz

Wenn Sie von Mixtral 8x7B gehört haben, sich aber nicht sicher sind, was es so besonders macht, finden Sie hier alle Details

Opera One erhält lokalen LLM-Support

Ein Beispiel für ein LLM, das auf Opera One läuft
Bildnachweis: Opera


Wie angekündigt am Opera-Blogs, erhält der Opera One-Browser lokale LLM-Unterstützung. Wenn Sie mit einem LLM wie ChatGPT interagieren, muss Ihr Computer die Anfrage normalerweise an einen Remote-Server senden, damit sie verarbeitet wird. Dies entlastet Ihr System, wirft jedoch potenzielle Datenschutzbedenken auf. Glücklicherweise können Sie mit der Einführung von KI-PCs für die Öffentlichkeit jetzt die Hardware erwerben, die Sie zum Ausführen dieser LLMs auf Ihrem eigenen System benötigen.

Das neue Update für Opera One bringt 150 LLMs, die Sie auf Ihrem PC basteln können und die alle aus rund 50 Familien stammen. Opera listet die folgenden Familien derzeit als verfügbar auf:

  • Lama von Meta
  • Vicuna
  • Gemma von Google
  • Mixtral von Mistral AI
  • Und viele Familien mehr

Um dieses Update zu erhalten, müssen Sie Opera One über den Entwickler-Stream herunterladen, einen Link dazu finden Sie im oben verlinkten Blog-Beitrag. Sobald Sie fertig sind, können Sie den Anweisungen von Opera in seinen Ankündigungen folgen, um Ihr ganz eigenes LLM lokal einzurichten und auszuführen. Und da jetzt zum ersten Mal lokale LLMs zu Browsern hinzugefügt wurden, wird es interessant sein zu sehen, wie Konkurrenten wie Google Chrome, Mozilla Firefox und Microsoft Edge reagieren werden, wenn überhaupt.




Source link