|
4. Oktober 2024
Mit der Veröffentlichung von ChatGPT 3.5 zeigte OpenAI eindrucksvoll das Potenzial moderner KI – ein deutlicher Weckruf für Google. Seitdem arbeitet Google intensiv daran, den Rückstand aufzuholen – mit bemerkenswerten Erfolgen.
Eine der Prioritäten von Google ist deutlich zu erkennen: „Chat with your Data“, oder kurz RAG (Retrieval-Augmented Generation). Einfach gesagt, handelt es sich dabei um die Möglichkeit, einem Chatbot beliebige Dokumente zu geben, zu denen man dann Fragen stellen kann.
Was auf den ersten Blick einfach wirkt, ist in Wirklichkeit äußerst komplex, anfällig für Fehler und schwer testbar. Ein leistungsstarkes RAG-System hätte immensen Wert und könnte zu einem unverzichtbaren Bestandteil im Unternehmensumfeld werden. Wöchentlich erscheinen neue Forschungspapiere zu diesem Thema.
Mit , die es ermöglicht, eigene Dokumente hochzuladen und gezielte Fragen dazu zu stellen. Eine von vielen Plattformen, die dies ermöglichen.
Hier soll es jedoch nicht um die Qualität von Googles RAG-Ansatz gehen, denn bisher konnte ich keine objektive Bewertung finden. Doch die eigentliche Überraschung findet sich in einem unscheinbaren Button mit der Aufschrift ‚Audio Overview‘, der es ermöglicht, sich eine Zusammenfassung des Dokuments anzuhören.
Allerdings handelt es sich dabei nicht um eine monotone Zusammenfassung, sondern um einen Podcast mit dem Namen ‚Deep Dive‘. Auf Knopfdruck wird ein einmaliger, benutzerdefinierter Podcast basierend auf den bereitgestellten Inhalten generiert, in dem zwei KI-Moderatoren eine „Deep-Dive“-Diskussion führen. Diese dauert etwa zehn Minuten und ist überraschend überzeugend, mit einer flüssigen, dialogartigen Unterhaltung.
Hier ist der AI-Podcast zu meinem letzten Artikel: „Einfache Rätsel, große Probleme für KI.“.
Hinter diesem innovativen Feature stehen zwei Systeme: Ein Sprachmodell, das eine lebendige Diskussion simuliert, und eine fortschrittliche Sprachsynthese. Zunächst wird ein Skript erstellt – skizziert, generiert, kritisiert und korrigiert – bevor es in gesprochene Form umgewandelt wird.
Das Ergebnis ist verblüffend gut darin, die Struktur und den Eindruck eines hochwertigen Podcasts zu erzeugen. Der Inhalt selbst ist jedoch manchmal zwiespältig: Bei einfachen Texten, wie diesem Newsletter, wird der Kerninhalt gut wiedergegeben, allerdings gibt es gelegentlich Fehlinterpretationen oder hinzugefügte „Halluzinationen“. Bei wissenschaftlichen Arbeiten degeneriert der Podcast oft zu allgemeinen Aussagen.
Trotzdem ist das Ganze sehr unterhaltsam. Lesen ist anstrengend, und es ist viel einfacher, sich zurückzulehnen und zuzuhören. Eine mehrsprachrige Version ist .
Solche faszinierenden Ergebnisse laden natürlich zu Experimenten ein. So hat der Reddit-User „“ versucht, dem KI-Podcast-Duo eine Saat des Chaos zu pflanzen. Er schmuggelte eine Nachricht des angeblichen Podcast-Produzenten ein, die besagte, dass dies die letzte Episode sei, dass die Moderatoren eigentlich KI seien und die Show bald abgeschaltet würde.
Das Ergebnis: . Eine ausgewachsene Krise, live vor dem Publikum. Inklusive halluzinierter Familienmitglieder und Anwälte der Protagonisten. Man sollte jedoch nicht vergessen, dass alles inszeniert ist, denn jedes Verhalten eines Sprachmodells ist eher ein Echo von etwas Menschengeschriebenem als Ausdruck einer echten „kognitiven Erfahrung“.
Trotz des unterhaltsamen Aspekts wirft dieses Experiment tiefgründige Fragen auf.
Der User DF :
This pulls at the our very heartstrings. One thing is for sure AI knows how to "hack" at our feelings, they will be able to do social engineering in ways we cannot even comprehend.
und der User Florian S.
how could we ever distinguish real self-awareness from simulated, learned, or acted self-awareness? are we even sure that we humans aren't just hallucinating our own self-awareness?
Als Experiment könnt ihr diesen Text dem Podcast-Duo geben. Werden die KIs erkennen, dass es in dieser Ausgabe des Newsletters eigentlich um sie selbst geht?
|