ChatGPT unter der Lupe

Das große Hypethema ChatGPT beherrscht die Schlagzeilen. In diesem Artikel lesen Sie, was dahintersteckt und wofür sich ChatGPT sehr gut eignet – und wofür gar nicht.

ChatGPT ist keine künstliche Intelligenz. Laut Lexikon umschreibt Intelligenz die Fähigkeit, sich in neuen Situationen zurechtzufinden und Aufgaben und Probleme durch Denken und Verstehen zu lösen. Es geht also um die kognitive Leistungsfähigkeit. ChatGPT hingegen ist ein Chatbot mit Big Data, oder genauer gesagt mit einem Large Language Model (LLM), einem wirklich sehr großen Sprachmodell. Die Ergebnisse sind ziemlich beeindruckend, haben aber nichts mit Wissen oder gar Intelligenz zu tun. Das Ganze beruht einzig und allein auf Wahrscheinlichkeiten.

Wenn es Sie unter den Fingernägeln juckt, gleich loszulegen und ChatGPT auszuprobieren, dann können Sie diesen Abschnitt überspringen. GPT steht für den englischen Begriff »Generative Pretrained Transformer«. »Generativ« steht für ein Machine-Learning-Modell, das auf Grundlage einer riesigen Menge von Textdaten statistische Merkmale herausfiltert, um anschließend anhand von Algorithmen sinnvolle Texte zu erstellen. ChatGPT greift auf einen Textkorpus von rund einer Billion Wörtern zu, darunter sechs Millionen Wikipedia-Artikel und Millionen von Büchern und Webseiten, und berechnet daraus Wahrscheinlichkeiten. »Transformator« bezeichnet eine bestimmte Art der Architektur eines Sprachmodels. Die 2017 von Google Research vorgestellte Technik ermöglicht viel tiefere neuronale Netzwerke als vorangegangene Architekturen und ist speziell auf Dialoge mit Menschen ausgelegt. GPT aus dem Jahr 2018 war bereits in der Lage, selbstständig Muster in Texten zu erkennen. Das gelang durch eine Kombination von Transformatoren mit nicht-überwachtem Lernen. […]

Fachartikel für Chip