Zum Inhalt springen

Mythen über Künstliche Intelligenz: Die häufigsten Irrtümer über OpenAIs Chatbot ChatGPT

806d2de80cf340e2b1d6506b4bd0decd Mythen über Künstliche Intelligenz: Die häufigsten Irrtümer über OpenAIs Chatbot ChatGPT

Sie haben in den letzten Wochen bestimmt schon einmal von ChatGPT gehört. Der Hype um diesen revolutionären Chatbot der Firma OpenAI, hat ein beispielloses Ausmaß erreicht, mit dem weder Experten noch die Macher hinter der künstlichen Intelligenz gerechnet haben.

Nie zuvor in der Geschichte der Menschheit hat sich ein Produkt derart schnell verbreitet wie ChatGPT.

Mehr als über 100 Millionen Nutzerinnen und Nutzer haben das Tool in den ersten zwei Monaten nach seiner Veröffentlichung Ende letzten Jahres genutzt. An Schulen und Universitäten wird ebenso darüber diskutiert, welchen Einfluss die KI haben könnte, wie am Arbeitsplatz oder in den Medien. Aber mit diesem Erfolg sind auch viele Missverständnisse entstanden.

Plötzlich ist jeder ein KI-Experte und Menschen ohne entsprechendes Wissen über die Funktionsweise von maschinellem Lernen oder künstlichen neuronalen Netzen tauschen fleißig Ratschläge und Meinungen über ChatGPT in den sozialen Medien und Online Communities. Doch einige Behauptungen und Anleitungen sind schlichtweg falsch und tragen somit nicht gerade zu einem besseren Verständnis der Technologie bei.

Wer ChatGPT und Co. einsetzt, um sich einen Text übersetzen, zusammenfassen oder umschreiben zu lassen und sich auf die generierten Aussagen verlässt, sollte jedoch wissen, wie die Antworten von ChatGPT entstehen und wo die Grenzen und Risiken der KI liegen. In diesem Artikel möchte ich daher einige der größten Missverständnisse über ChatGPT klären, über die ich bei meinen Recherchen zu meinem Buch in den letzten Monaten gestoßen bin.

Zunächst ist es wichtig zu verstehen, wie die KI überhaupt funktioniert. Und hier tauchen bereits die ersten Probleme auf. Denn ein häufiger Fehler ist die Verwechslung von ChatGPT mit den zugrundeliegenden Sprachmodellen wie GPT-3, GPT-3.5 und GPT-4. Tatsächlich ist ChatGPT der von OpenAI entwickelte Chatbot, während GPT-3, GPT-3.5 und GPT-4 die sogenannten „großen Sprachmodelle“ sind, die als Basis für ChatGPT und andere KI-Text-Tools dienen.

Diese Sprachmodelle kann man sich als einen sehr, sehr guten Text-Vorhersage-Algorithmus vorstellen. Es ist ein bisschen wie die automatische Vervollständigung auf Ihrem Smartphone, aber sehr viel fortschrittlicher und komplexer.

Diese Modelle werden so trainiert, dass sie Muster in den Daten erkennen, mit denen sie gefüttert wurden. Im Fall von GPT waren das gigantische Menge an Text aus dem Internet und aus tausenden von Büchern. Die Modelle lernen über statistische Analyse dieser Texte, wie Sätze normalerweise strukturiert sind, welche Wörter tendenziell zusammen auftreten, und so weiter.

Das Modell nutzt diese gelernten Muster dann, um Vorhersagen zu treffen. Wenn Sie beispielsweise die Worte „Der Himmel ist…“ eingeben, wird das Modell vorhersagen, dass das nächste Wort „blau“ ist. Es macht diese Vorhersage, indem es alle Muster, die es aus den Daten gelernt hat, analysiert und das Wort auswählt, das am wahrscheinlichsten als nächstes kommt.

Die neuesten Modelle sind besonders gut darin, diese Vorhersagen zu treffen und können sogar ganze Artikel oder Essays basierend auf ein paar Eingabewörtern generieren. Es ist jedoch wichtig zu beachten, dass, die Modelle zwar sehr gut darin sind, Text zu generieren, der menschlich klingt, sie nicht wirklich verstehen, was sie da schreiben. Sie erzeugen einfach Text basierend auf Mustern und Wahrscheinlichkeiten, die sie aus den Daten gelernt haben.

Sprachmodelle sind keine Wissensmodelle.

Sie sind darauf ausgelegt, menschenähnliche Texte anhand von Wortwahrscheinlichkeiten zu erzeugen. Das heißt auch, dass Informationen nicht in einer Datenbank ablegen, sondern nur die Wahrscheinlichkeit einzelner Wörter oder Wortteile berechnen basierend auf vorherigen Wörtern und den Trainingsdaten.

Damit ist es zwar möglich, ChatGPT nach Informationen zu fragen oder Texte zu generieren, die breites Wissen erfordern, doch es kann auch passieren, dass ChatGPT einfach etwas behauptet, das gar nicht stimmt, einfach weil es die wahrscheinlichste Antwort ist. Diese falschen Antworten trifft der Chatbot leider ebenso selbstbewusst, wie richtige Aussagen. In der Praxis ist daher schwer zu erkennen, wann ChatGPT etwas erfindet und wann eine Information tatsächlich aus den Trainingsdaten stammt. Besonders auffällig ist das, wenn man ChatGPT noch Informationen zu sich selbst fragt.

ChatGPTs Selbsteinschätzung ist oft falsch, denn das Sprachmodell weiß wenig über sich selbst.

Die Entwicklerinnen und Entwickler können dem Chatbot nur ein paar grundlegende Informationen mitteilen, beispielsweise dass es „ChatGPT“ heißt und möglichst freundlich und neutral antworten soll und sich nicht zu kritischen oder toxischen Themen äußern oder Unterstützung bei der Begehung von Straftaten leisten darf.

Die KI kann beispielsweise aber nichts darüber sagen, wie viele seiner Trainingsdaten in einer bestimmten Sprache vorliegen oder ob ein bestimmtes Buch in den Daten enthalten war. Wenn Sie es nach solchen Details fragen, erfindet es einfach eine Antwort. Daher ist es wichtig, die generierten Inhalte auf Aktualität und Genauigkeit zu überprüfen.

Ein weiteres wichtiges Detail ist, dass die KI nur Zugang zu den Informationen haben kann, die auch in ihren Trainingsdaten enthalten sind. Konkret bedeutet dies, dass ChatGPT nicht über Ereignisse oder Entwicklungen berichten kann, die nach der Sammlung und Speicherung dieser Trainingsdaten stattgefunden haben. Mit anderen Worten: Sein Wissen über die Welt endet im September 2021, da dies das Abschlussdatum des Datenpools ist, der sowohl für GPT-3 und dessen Nachfolger GPT-3.5, als auch für die neueste Version GPT-4 genutzt wurde. Hinzu kommt, dass dieser Datenpool unvollständig ist, weshalb es vorkommen kann, dass ChatGPT über Ereignisse, die vor diesem Zeitpunkt stattfanden, nichts weiß.

Es ist ein verbreiteter Irrtum, dass ChatGPT im Internet recherchiert. In Wirklichkeit kann es das (noch) nicht.

Wenn man eine Webseite erwähnt, kann ChatGPT diese nicht abrufen oder auslesen, sondern benutzt nur die Wörter aus dieser URL, um eine plausibel klingende Antwort zu erfinden. Doch OpenAI arbeitet permanent an Verbesserungen. Ein neues, „Browsing“ genanntes Modell, das tatsächlich auf das Internet zugreifen kann, wird bereits getestet und könnte in ein paar Wochen den zahlenden Nutzern von ChatGPT Plus zur Verfügung stehen.

Soll ChatGPT etwas verbessern, zusammenfassen oder umschreiben, muss man derzeit noch den vollständigen Text in das Chatfenster kopieren. Dabei hat ChatGPT jedoch Grenzen, sowohl bei der Eingabe als auch bei der Ausgabe. Diese liegen – je nach verwendetem Modell – aktuell bei etwa 1.500 bis 1.700 Worten. Trotzdem behaupten einige Marketer, sie hätten mit ChatGPT ein ganzes Buch geschrieben und es bei Amazon erfolgreich verkauft.

Ein komplettes Buch mit nur einem Klick zu erstellen, ist ein Märchen.

Wer versucht eine konsistente Handlung über dutzende Ausgaben mit ChatGPT zu verfolgen, wird schnell merken, wie wichtig es ist, die Begrenzung des Kontextes zu beachten.

Das gilt übrigens auch für die Vermischung unterschiedlicher Themen in einem Gespräch. ChatGPT berücksichtigt die letzten 1.500 bis 1.700 Worte in einem Gesprächsverlauf. Wenn darin unterschiedliche Themen vermischt werden, führt dies ebenfalls zu verwirrenden Antworten. Besser ist es, für jedes Thema einen neuen Chatverlauf zu starten.

Zusammenfassend lässt sich sagen, dass Sprachmodelle durchaus beeindruckende Ergebnisse liefern können, aber längst nicht perfekt sind. Man sollte immer kritisch sein, wenn man Informationen und Daten von ChatGPT verwendet oder weitergibt. Ein Faktencheck ist daher immer eine gute Idee. Seien Sie sich stets bewusst, dass Sie mit einem Werkzeug arbeiten und keine allwissende KI vor sich haben.

Zum Abschluss möchte ich Sie auf mein neues Buch hinweisen: „Richtig Texten mit KI: ChatGPT, GPT-4, GPT-3 & Co.“ In diesem Werk lernen Sie, wie man mithilfe von Künstlicher Intelligenz für Job, Universität und Websites schreibt – schneller und besser als je zuvor. Es ist mein erster Ausflug in die Welt des Schreibens mit KI, und es ist in gewisser Weise das inoffizielle Handbuch für Tools, die auf ChatGPT, GPT-3 und GPT-4 basieren. Es enthält leicht verständliche Erklärungen und zahlreiche Beispiele aus meiner täglichen Praxis. Damit schaffen Sie es, die KI-Textgenerierung effektiv für sich zu nutzen.

richtig texte mit ki inkl gpt 4 Mythen über Künstliche Intelligenz: Die häufigsten Irrtümer über OpenAIs Chatbot ChatGPT

Das Buch „Richtig Texten mit KI: Das Buch über ChatGPT, GPT-4 und Co.“ ist jetzt erhältlich. Weitere Informationen finden Sie auf meiner Website: hier.

Ich hoffe, dass es Ihnen dabei hilft, ein tieferes Verständnis für KI und ihre Möglichkeiten im Schreibprozess zu entwickeln. Freuen Sie sich auf eine aufregende Leseerfahrung!

Kai Spriestersbach