GPT, Transformer & Halluzinationen – So tickt ChatGPT!
// Lieber nur Audio? Bei Spotify hören
// KI-Zusammenfassung
Diese Folge erklärt die Funktionsweise von ChatGPT, indem sie die Bedeutung der Buchstaben G, P und T aufschlüsselt: Generativ, Vortrainiert und Transformer. Du erfährst, dass KI nicht wirklich "weiß", sondern als "Prediction Machine" Wahrscheinlichkeiten berechnet, und wie diese Technologie die Kosten für Content-Erstellung und Intelligenz auf nahezu null senkt.
Shownotes
ChatGPT schreibt Aufsätze, Texte, Mails – manchmal besser als wir. Aber wie genau funktioniert das eigentlich? In dieser Folge werfen Benjamin Wüstenhagen und Moritz Heininger einen Blick hinter die Kulissen generativer KI: Was bedeutet „GPT“? Was sind Transformer-Modelle? Und warum klingt alles so überzeugend, obwohl die KI eigentlich nur rät?
Eine verständliche Einführung in die Welt von ChatGPT – ohne technische Überforderung, aber mit jeder Menge Aha-Momente. Abonniere Co-Intelligence, wenn du wissen willst, wie KI wirklich tickt.
#CoIntelligence #TheKeyAcademy #SnipKi #KünstlicheIntelligenz #KiInUnternehmen #GenerativeKi #MachineLearning #Sprachmodelle #AutomatisierungmitKi #EffizientesArbeitenMitKi #PromptEngineering #KiTransformation #ChatGPT #PromptEngineering #KiImArbeitsalltag #KiImEinsatz #KiErklärt
Erkenntnisse
- 2:10
Generative KI erschafft etwas Neues, wie Bilder oder Texte, im Gegensatz zu Machine Learning, das bestehende Daten analysiert und Vorhersagen trifft.
- 3:08
GPT-Modelle sind auf gigantischen, öffentlich verfügbaren Datensätzen vortrainiert, um Zusammenhänge zwischen Wörtern und Themengebieten zu verstehen und schnellere Antworten zu liefern.
- 4:40
Der Transformer ist die Architektur hinter GPT-Modellen, die es ermöglicht, Beziehungen zwischen Wörtern im Kontext zu verstehen und Informationen parallel zu verarbeiten, was präzise und schnelle Antworten liefert.
- 6:12
KI ist eine "Prediction Machine", die basierend auf vortrainierten Daten die Wahrscheinlichkeit des nächsten Wortes oder Tokens berechnet, anstatt echtes Wissen zu besitzen.
- 13:41
Generative KI führt zu einer "Entwertung durch Technologie", indem sie die Kosten für die Erstellung von Inhalten und sogar für Intelligenz auf nahezu Null senkt, was massive Innovationen ermöglicht.
Zitate
-
„Hat und ich magische Moment der magische Moment ja und ich Antworten bekommen habe auf ja auch komplexe Fragen, die einfach für mich zumindest Sinn ergeben haben."
-
„Eigentlich weiß das Ding gar nichts, denn man muss verstehen, was dahinter steht und vor allem auch was die drei Buchstaben bedeuten. Das G, das P und das T."
-
„Fairerweise muss ich sagen ist es auch gar nicht so wichtig wirklich genau zu verstehen, wie so ein GPT Modell funktioniert. Denn und das Beispiel habe ich schon mal gebracht, ich kann sehr gutes Internet bedienen. Ich habe keine Ahnung, wie das TCPIP Protokoll dahinter funktioniert"
-
„Heute ist es multimodal geworden. Das heißt, ich kann nicht nur Text erzeugen, ich kann auch Bilder erzeugen. Es gibt das Modelle, die ganze Videos erzeugen. Erste kleine Filme, Code."
-
„KI weiß zwar nichts und macht nur vorher vorhersagen. KI ist aber ein extrem powerful ein Tool, was extrem powervoll ist, um mal wieder so einen englischen Begriff reinzuwerfen. und der, der weiß, wie dieses Tool verwendet, hat einfach einen klaren Vorteil gegenüber den anderen."
Häufige Fragen
Wofür stehen die Buchstaben G, P und T in ChatGPT? ▾
Die Buchstaben G, P und T in ChatGPT stehen für Generativ, Vortrainiert (Pre-trained) und Transformer. Generativ bedeutet, dass die KI etwas Neues erschafft, Vortrainiert, dass sie auf großen Datensätzen gelernt hat, und Transformer beschreibt die zugrundeliegende Architektur, die das Verständnis natürlicher Sprache ermöglicht.
Was ist der Unterschied zwischen generativer KI und Machine Learning? ▾
Der Hauptunterschied ist, dass generative KI etwas Neues erschafft, wie zum Beispiel ein Bild oder einen Blogpost. Machine Learning hingegen analysiert bestehende Daten, um Muster zu erkennen und Vorhersagen zu treffen, wie etwa die Empfehlung des nächsten Videos auf Netflix oder die Klassifizierung eines Fotos als Hund oder Katze.
Wie funktioniert das Pre-Training von KI-Modellen wie ChatGPT? ▾
Beim Pre-Training werden KI-Modelle auf sehr großen, oft öffentlich verfügbaren Datensätzen trainiert. Dadurch lernen die Modelle Zusammenhänge zwischen Wörtern und Themengebieten zu verstehen. Dies ermöglicht es ihnen, viel schneller zu antworten, da die Beziehungen und Wahrscheinlichkeiten zwischen einzelnen Wörtern bereits im Modell berechnet wurden.
Besitzt KI echtes Wissen oder wie trifft sie Entscheidungen? ▾
KI besitzt kein echtes Wissen im menschlichen Sinne, sondern funktioniert als "Prediction Machine". Sie berechnet basierend auf den vortrainierten Daten die Wahrscheinlichkeit des nächsten Wortes oder Tokens. Das Wort mit der höchsten Wahrscheinlichkeit wird ausgewählt, und dieser Prozess wiederholt sich, um kohärente und sinnvolle Antworten zu generieren.
Was bedeutet Multimodalität im Kontext von KI? ▾
Multimodalität bedeutet, dass KI-Modelle nicht nur Text verarbeiten oder erzeugen können, sondern verschiedene Medienformen miteinander verbinden. Das heißt, man kann beispielsweise aus Text ein Bild erzeugen, aus einem Bild ein Video generieren oder aus einem Video wiederum Text extrahieren. Dies bricht die traditionellen Silos zwischen Medienformen auf und ermöglicht neue Anwendungen.
Wie verändert generative KI die Kosten für Content-Erstellung und Intelligenz? ▾
Generative KI senkt die Kosten für die Erstellung von Inhalten auf nahezu null, ähnlich wie das Internet die Kosten für Informationsverbreitung und Cloud-Technologie die Speicherkosten gesenkt hat. Darüber hinaus reduziert sie auch die Kosten für Intelligenz. Diese "Entwertung durch Technologie" führt zu massiven Innovationen und ermöglicht es Nutzern, Fähigkeiten zu erlangen, die zuvor undenkbar waren.
Weitere Fragen
Wofür stehen eigentlich die drei Buchstaben in der Abkürzung GPT? ▾
GPT steht für Generativ, Pretrained und Transformer. Das bedeutet, die KI erschafft neue Inhalte, wurde vorab mit riesigen Datenmengen trainiert und nutzt eine spezielle Architektur, um Zusammenhänge in Sprache parallel zu verarbeiten.
„Das G steht für generativ, das P steht für pretrained und das T steht für Transformer." · 1:25
Was unterscheidet generative KI von klassischem Machine Learning? ▾
Klassisches Machine Learning analysiert bestehende Daten, um Vorhersagen zu treffen, wie etwa Filmempfehlungen bei Netflix. Generative KI hingegen erschafft komplett neue Inhalte, wie zum Beispiel Bilder, Blogposts oder Code.
„Generative heißt ist etwas Neues erstellt. Das heißt eine KI, die ein Bild von einem Hund erstellen kann oder ein Bild von einer Katze oder ein Aufsatz oder ein Blogpost." · 2:09
Weiß ChatGPT wirklich die Antworten auf meine fachlichen Fragen? ▾
Nein, die KI besitzt kein echtes Wissen, sondern funktioniert als Vorhersagemaschine. Sie berechnet auf Basis ihrer Trainingsdaten lediglich die Wahrscheinlichkeit, welches Wort als Nächstes folgen muss.
„Also es ist eine sogenannte Prediction Machine, wie man so schön sagt. Es wird der nächste Token oder das nächste Wort kann man glaube ich für unseren Fall hier eins zu eins ersetzen." · 6:09
Was bedeutet es in der Praxis, dass KI-Modelle multimodal sind? ▾
Multimodal bedeutet, dass du nicht mehr auf Text beschränkt bist, sondern verschiedene Medienformen kombinieren kannst. Du kannst beispielsweise aus einem Text ein Bild generieren, aus einem Bild ein Video machen oder aus einem Screenshot direkt Code erstellen lassen.
„Heute ist es multimodal geworden. Das heißt, ich kann nicht nur Text erzeugen, ich kann auch Bilder erzeugen. Es gibt das Modelle, die ganze Videos erzeugen. Erste kleine Filme, Code und ich kann das auch in alle Richtung machen." · 8:23
Warum spricht man bei generativer KI von einer Entwertung durch Technologie? ▾
Ähnlich wie das Internet die Verbreitung von Informationen kostenlos gemacht hat, senkt generative KI die Kosten für die Erstellung von Inhalten drastisch. Letztendlich sinken dadurch sogar die Kosten für Intelligenz auf nahezu null, was völlig neue Innovationen antreibt.
„Es ist nicht nur die Erstellung des Contents, die Kostenerstellung des Contents, die quasi fast auf null runtergehen, sondern in gewisser Art und Weise auch die Kosten von Intelligenz, die auf null runtergehen." · 13:40
Diese Folge wird zitiert in
-
„Es ist wichtiger zu verstehen, warum KI jetzt relevant ist und wie sie funktioniert, anstatt sich auf die neuesten Modellversionen zu fixieren, da sich der Markt rasant entwickelt."
#1 KI verstehen – warum der Hype real ist
-
„Halluzinationen und die Notwendigkeit der Faktenprüfung bleiben kritische Probleme bei KI-Modellen."
#39 2025: Das wilde KI-Jahr im Rückblick - DeepSeek-Schock, Vibe Coding & Milliarden
-
„RAG (Retrieval-Augmented Generation) funktioniert, indem relevante Informationen aus einer Vektordatenbank mit der Nutzeranfrage kombiniert und an ein großes Sprachmodell gesendet werden, um präzisere Antworten zu generieren."
#12 Wissensmanagement neu gedacht: ChatGPT und andere KI-Tools für die Arbeitswelt von morgen
-
„Die Fähigkeit, sich Präferenzen und Schreibweisen zu merken (Memory-Funktion)"
#6 ChatGPT entpackt: Das Schweizer Taschenmesser der KI
-
„Auch bei der Nutzung von KI für Datenanalysen ist es entscheidend, kritisch zu bleiben, die Daten selbst zu verstehen und die Ergebnisse der KI zu hinterfragen, um Halluzinationen oder Fehlinterpretationen zu vermeiden."
#14 KI-Tool ersetzt den Datenanalysten?!
-
„Google-Wissenschaftler legten mit dem Transformer-Modell den Grundstein für Large Language Models."
#37 Gemini 3: Besser als GPT-5? Ein Betriebssystem in einer Nacht coden
In anderen Folgen erwähnt
-
„Generative KI unterscheidet sich von traditionellem Machine Learning, indem sie nicht nur bestehende Daten klassifiziert oder vorhersagt, sondern aktiv neue Inhalte wie Texte, Bilder oder sogar Videos erstellen kann."
#51 Coden ohne Vorwissen - So nutzt du Claude Code
-
„Generative KI führt zu einer 'Entwertung durch Technologie', indem sie die Kosten für die Erstellung und Speicherung von Inhalten sowie die Kosten für Intelligenz auf nahezu Null senkt, ähnlich wie das Internet die Kosten für Informationsverbreitung und Cloud-Technologie die Speicherkosten revolutioniert haben."
#40 2026: Der große KI-Crash? - Nvidia, Energie-Krise & OpenAIs Ende
-
„Obwohl KI manchmal als 'stochastischer Papagei' abgetan wird, der nur Vorhersagen trifft, ist sie ein extrem mächtiges Werkzeug. Wer versteht, wie man dieses Tool effektiv einsetzt, hat einen klaren Vorteil gegenüber anderen."
#5 Prompt Engineering: Die Kunst, mit Maschinen zu sprechen
-
„Generative KI führt zu einer 'Entwertung durch Technologie', indem sie die Kosten für die Erstellung von Inhalten und sogar für Intelligenz auf nahezu Null senkt, was massive Innovationen ermöglicht."
#32 Der Bull Case - Der wahre KI-Boom ist unsichtbar
-
„Generative KI führt zu einer 'Entwertung durch Technologie', indem sie die Kosten für die Erstellung und Speicherung von Inhalten sowie die Kosten für Intelligenz auf nahezu Null senkt, ähnlich wie das Internet die Kosten für Informationsverbreitung und Cloud-Technologie die Speicherkosten revolutioniert haben."
#32 Der Bull Case - Der wahre KI-Boom ist unsichtbar
-
„Generative KI unterscheidet sich von traditionellem Machine Learning, indem sie nicht nur bestehende Daten klassifiziert oder vorhersagt, sondern aktiv neue Inhalte wie Texte, Bilder oder sogar Videos erstellen kann."
#42 Vibe Coding Erklärt: Wie AI die Softwareentwicklung radikal ändert
-
„Generative KI unterscheidet sich von traditionellem Machine Learning, indem sie nicht nur bestehende Daten klassifiziert oder vorhersagt, sondern aktiv neue Inhalte wie Texte, Bilder oder sogar Videos erstellen kann."
#10 Voice AI im Unternehmen: 7 smarte Anwendungen für Sprache & Sound
-
„Obwohl KI manchmal als 'stochastischer Papagei' abgetan wird, der nur Vorhersagen trifft, ist sie ein extrem mächtiges Werkzeug. Wer versteht, wie man dieses Tool effektiv einsetzt, hat einen klaren Vorteil gegenüber anderen."
#3 Bias, Bullshit, Datenschutz – Wie wir KI verantwortungsvoll nutzen
Transkript
// Vollständiges Transkript
Komplettes Transkript dieser Folge öffnen →
Ähnliche Folgen

#37: Gemini 3: Besser als GPT-5? Ein Betriebssystem in einer Nacht coden

#21: 20 Folgen KI | Was wir wirklich gelernt haben

#12: Wissensmanagement neu gedacht: ChatGPT und andere KI-Tools für die Arbeitswelt von morgen

#5: Prompt Engineering: Die Kunst, mit Maschinen zu sprechen
