Tech News

Technik & Digital

Das „Jailbreaken“ von KI-Diensten wie ChatGPT und Claude 3 Opus ist viel einfacher als Sie denken



Wissenschaftler des auf künstliche Intelligenz (KI) spezialisierten Unternehmens Anthropic haben einen potenziell gefährlichen Fehler in weit verbreiteten großen Sprachmodellen (LLMs) wie ChatGPT und Anthropics eigenem Chatbot Claude 3 identifiziert.

Der als „Many Shot Jailbreaking“ bezeichnete Hack nutzt das „In-Context-Learning“, bei dem der Chatbot aus den Informationen lernt, die in einer von einem Benutzer geschriebenen Textaufforderung bereitgestellt werden, wie in beschrieben Forschung veröffentlicht im Jahr 2022. Die Wissenschaftler stellten ihre Ergebnisse in einem neuen Artikel vor, der auf der veröffentlicht wurde sanity.io Cloud-Repository und testete den Exploit auf dem Claude 2 AI-Chatbot von Anthropic.



Source link