// Transkript
#24: GPT-5: Der Realitätscheck - Nach dem Shitstorm: Unser Urteil
Vollständiges Transkript dieser Episode des Co-Intelligence Podcasts. 4.982 Wörter. · Auf YouTube ansehen ↗
0:00 Intro
0:00 Ich gebe meinen Prompt ein und hinten dran hinter GPD5 liegen verschiedene Modelle und dann entscheidet sozusagen Chat GBD für mich, welches dieser Modelle ausgewählt wird, um mir die
0:11 Antwort zu geben. Das ist ein Reasoning Modell, ist ein schnelles Modell, ein kleines großes Modell, ein riesen Vorteil für 90% aller Leute ist aber Nachteil für erfahrene User Userinn, die
0:22 wissen, welches Modell am besten ist.
0:28 Willkommen zurück zu Cointelligence, eurem KI Lern Podcast. Heute in der Folge 24 und mit dem Sonderthema Chat GPT 5 Monat lang getestet. Braucht ihr es? Braucht ihr es nicht? Es
0:42 ist gut, es ist schlecht. Warum gab's einen riesen Shitstorm, nachdem es veröffentlicht wurde? All das werden wir heute besprechen. Und wir sind Morit Heininger und Benjamin Wüsberg.
0:54 Gut, springen wir mal rein ins Thema. Wie war der Laune von Chatchi BT5? Vielleicht etwas holprich. Also die als es gerade eingeführt wurde, ist es bei mir relativ instabil gelaufen,
1:07 ehrlicherweise und meine Timeline auf LinkedIn war voll von nicht so schönen Kommentaren dazu. Wie war es bei dir? Ja, ich fand es war vor allem gemixt irgendwie so aus den Teag Nachrichten
1:11 Wie war der Launch von ChatGPT-5?
1:19 dieser Welt, die sich irgendwie so ein bisschen auf die Performance Themen konzentriert haben, waren die News erstmal eigentlich positiv und das Feedback sehr positiv, aber es hat
1:28 irgendwie gefühlt einen Tag gedauert und dann haben sich die positiven News vor allem in sehr negative News gedreht. Ähm, woran lag das? Äh ja, also vorher hatten wir drüber
1:40 Positive vs. Negative News: Woran lag's?
1:41 gesprochen, dass man bei Chat GPT so viele Modelle hat und immer überlegen muss, was ich jetzt 3O oder 4 oder 4O oder Mini oder Makro oder Nano oder wie auch immer. Ja, und dann gab's noch eins. Ja,
1:55 und Chat GPT hat im Prinzip selber ausgewählt, welche Modelle gerade genutzt werden und das führt zu mal besseren und mal schlechteren Ergebnissen. Ja, und im Endeffekt äh
2:05 haben die Leute glaube ich vor allem ein Prass gehabt, weil ihnen gefühlt was weggenommen wurde, auch wenn ihnen vielleicht was Besseres gegeben wurde, haben sie sich irgendwie teilweise so an
2:15 die Modelle gewöhnt und an den Kommunikationsstil, vor allem von 40 oder VO One, was ja ähnliches Modell ist. Ähm und äh dann gab's auf einmal ein riesen Shitstorm,
2:26 dass ich nicht mehr die Möglichkeit hatte eben die Herr mir vertraut Modelle zu verwenden, weil Chat GPT auf einmal auch ganz anders geantwortet hat als vorher. Der Stil war ganz anders. Vorher
2:37 war es immer sehr sehr blumig und freundlich und bunt und Emojis so ein bisschen, ne? Und GPD ähm 4 hat auch oft mir irgendwie mal ein Kompliment gegeben, dass ich was gut gemacht habe
2:51 und auf die Schulter geklaubt. Jetzt macht er sonst keiner. Ja. Ähm und äh das war dann auf einmal nicht mehr so. Und da gab's dann einen kleinen Schitstorm an, m sagen großen Schitstorm
3:02 an Leuten ähm die sich aufgeregt haben und gesagt haben, sie werden nie wieder Chetch BT nutzen. Aber sie haben schnell reagiert. Der Head of Product von Ch ist auch ein
3:10 Deutscher. Nick Turley. Ähm gibt's auch ein OMR Podcast mit dem ist ganz spannend. Er ist glaube ich noch nicht mal 30. Also schon jedenfalls hat der auch schnell reagiert auch auf LinkedIn
3:19 und hat dann gesagt: "Hey, wir wir haben das die Kritik gehört und ihr könnt jetzt wieder euer Modell auswählen." Genau. Allerdings nur erstmal ähm die Plus Nutzer. Ich bin gespannt, wenn wir
3:30 wenn der Podcast von uns hier ausgestrahlt wird, dann kann das natürlich auch alles wieder anders sein. Aber jetzt ja direkt wenige Tage danach war es eben erst möglich nur für die
3:41 Plusus User dann unter den Optionen auch die alten Modelle auszuwählen und mittlerweile ist es auch bei Default wieder der Fall, dass ich die alten Modelle auswählen kann im Modell Selector
3:52 und ja, es ist halt irgendwie ein bisschen zweisaltidiges Schwert, ne? Die einen sind Happy Cool. Ich kann wieder mein altes Modell nutzen. Alle anderen, die von KI nicht so viel Ahnung haben,
4:01 haben jetzt wieder das gleiche Problem. Ich habe irgendwie oben Jet GPT5, hab ein Jet GPD GPT 5 Reasoning und habe dann wieder meine ganzen alten Modelle und weiß irgendwie wieder nicht so
4:12 richtig, was ich denn eigentlich für Modell nutzen sollte, um die besten Ergebnisse zu bekommen, ne? Aber ich glaube, für den Großteil der Nutzer ist es schon insofern besser, als
4:20 dass du jetzt in gewisser Weise geführt wirst. Zwar gibt's noch die Kritik, hey, manchmal wird nicht das richtige Modell ausgewählt, aber ich vermute, das wird mit der Zeit besser und es glaube ich
4:30 jetzt besser, dass auch Menschen an die Modelle rangeführt werden, die früher man extra auswählen musste, weil sie halt teurer waren oder mehr Energie verbraucht haben oder mehr Zeit
4:38 verbraucht haben. Äh, jetzt, wenn ich ja so eine komplizierte Aufgabe habe, dann steht teilweise da: "Hey, ich denke gerade nach, ich brauche ein bisschen länger." Dann weiß man, okay, da wird
4:47 ein ein Thinking, ein Reasoning Modell eingesetzt. Und das ist schon großer Vorteil für viele Nutzer, die darüber gar nicht Bescheid wussten. Genau. Ich glaube, für 90% unserer Hörer
4:57 und Hörerinnen ist GPT5 die beste Wahl, weil sie im Zweifel nicht genau wissen, welches Modell sie wählen sollen, für welche Aufgabe. Sam Oldtman hat vor kurzem gesagt, dass glaube ich nur ein
5:14 oder 2% aller Nutzer von Chat GPT jemals ein Reasoning Modell verwendet haben. Also die Modelle, die man für komplexere Aufgabenstellung eben verwenden möchte. Free Verion,
5:25 die gibt es Chat GP in, ich glaube ja, GPT5 gibt's in der Free Version und dadurch haben auch das erste Mal User und die Userin der Free Version die Möglichkeit eben diese Reasoning Modelle
5:36 kennenzulernen und aus dem Grund meine ich, dass die allermeisten User von ChbT dadurch profitieren und im Endeffekt deutlich bessere Ergebnisse bekommen als vorher. ein Case. Ich s
5:49 letztens mit meinem Dad äh beim Abendessen und kommt aus der Nähe von Frankfurt und da ist jetzt das Thema, dass die Einflugsschneise geändert wurde und die Flugzeuge jetzt über unser Haus fliegen
6:02 und nicht mehr über Darmstadt wie davor und da gibt's irgendwie Krieg zwischen den Kommunen und er wollte sich quasi informieren, wie da die rechtliche Situation ist, was da in der Kommune
6:03 Vergleich mit anderen Modellen: GPT-4, Mistral & Co.
6:12 oder der Gemeinde machen kann und hat einfach Chat GPT einfach die VO Variante gewählt, hat das irgendwie da eingegeben und kam halt nur MX raus, weil es wurde nicht das Internet an, also diese
6:23 Internetoption angemacht. Das Cutofate war super früh, das heiß diese Einflugschneiden, die ganze Thematik kannte Chat GPT überhaupt nicht und es kam raus und das war vor GPT 5. Dann
6:33 habe ich gesagt, okay, guck mal irgendwie ah musst du besser Brompten, besser Kontext geben, du musst die Internetsuche anmachen und du musst das O3 Modell verwenden, weil es ja quasi
6:42 ein rechtlicher Case ist und Reasoning. Äh und dann war das Ergebnis sehr sehr gut. So, das musst du aber auch erstmal wissen. Sowas wissen die allerwenigsten Leute. Jetzt mit GP mit GPT 5 kann ich
6:53 die gleiche Frage stellen und GPT5 ist schlau genug, um zu entscheiden, okay, pass auf, das ist ein Reason Case, dafür muss ich ins Internet, also wählt selbst das Tool Internetsuche aus und gibt dir
7:02 dann sofort die Antwort. Du musst also kein Prompting Experte oder KI Experte sein, um das Ergebnis zu bekommen, was du gerne hättest. Du bist selbständig und willst mit KI und digitalen Tools
7:12 nicht den Anschluss verlieren? Dann schau mal bei The Key Academy vorbei. Unsere Online Lehrgänge mit EAK Zertifikat sind verständlich, flexibel und bringen dich wirklich weiter, auch
7:22 ohne Vorwissen. Keypacademy lernen, dass du in deinem Alltag passt. Ich hoffe, das Modell schlägt vielen Leuten vor, viel zu klagen in Frankfurt, damit ich aus Berlin endlich mal direkt nach San
7:33 Francisco fliegen kann und nicht über Lab oder über Frankfurt. Ja, Frankfurt ist eh wunderschön. Dann kannst du noch ein Apple trinken, gehst nach den Sachsenhausen noch mal vorbei
7:44 und genießt die Zeit. Sehr schön. Kann ich dir empfehlen. Fußball sowieso, ne? Also jetzt gibt's wahrscheinlich direkt Pushback Kommentare. Nein, das beste Team XY. Dabei weiß jeder, dass Eintrcht
7:56 Frankfurt das beste Fußballteam ist. Da brauchen wir uns gar nicht drüber zu enthalen. Interessiert Fußball. Wen interessiert Fußball? Ähm insgesamt finde ich aber es gut bei
8:06 CHP 5, dass es deutlich schneller geworden ist, wenn man jetzt nicht gerade das Reasoning hat oder das Thinking, was man einstellen kann. Und selbst wenn ich so eine langsame Antwort
8:14 habe, habe ich jetzt die Möglichkeit auch zu sagen, kürzt das ab. Also das oben so ein kleiner Button. Weiß gar nicht, wie der in der deutschen UI ist, aber irgendwie kürzer oder schneller.
8:22 Schnelle Antwort. Du denkst mir so lang, ich will jetzt einfach nur eine Antwort sofort. Äh genau. Nee, vielleicht wir haben das gar nicht so richtig erklärt, glaube ich, im Eingang mit diesen
8:32 Modellauswahlen, ne? Es ist so, dass ich einfach, ich gebe meinen Prompt ein und hinten dran hinter GPT5 liegen verschiedene Modelle und dann entscheidet sozusagen GPT Chat GPT für
8:44 mich, welches dieser Modelle ausgewählt wird, um mir die Antwort zu geben. Das ist ein Reasoning Modell, das ist ein schnelles Modell, ein kleines großes Modell, das ist ein riesen Vorteil für
8:54 90% aller Leute ist aber Nachteil für erfahrene User Userinn, die wissen, welches Modell am besten ist, weil es auch Chat GPT Fehler macht und im Zweifel auch mal Modell gewählt wird,
9:06 was einfach gar nicht so gut ist und nicht State of the Art ist. Und wenn ich mir diese äh Evaluation ähm es gibt ja diese LM Arena und diese ganzen Benchmark sozusagen Wettbewerb
9:18 anschaue. Genau. Wettbewerbe zwischen den einzelnen Modellen und dann sind zwei der Modelle von also zwei GPT5 Modelle sind die besten zwei Modelle aktuell. Ja, das kann sich in einer
9:29 Woche wieder ändern, aber ein Modell ist irgendwo auf Platz 10 oder 12 oder 15 oder weiß auch nicht mehr genau irgendwo relativ weit hinten. So und das heißt, es kann sein, ich gebe eine Frage ein
9:39 und bekomme dann Anfall von diesem schlechten Modell und bin dann auf einmal enttäuscht von der Qualität, weil eben das schlechte Modell gewählt wurde. Und das ist auch so ein bisschen das
9:44 Der große Shitstorm: Die Kontroverse um die neuen Features
9:47 Problem von GPT5, insbesondere von für Experten und Expertinnen oder auch für für Businesses, die quasi eine gewisse ähm Verlässlichkeit einfach brauchen in der Antwort in der Antwort Qualität in der
10:00 Konsistenz. Und da ist so eine so eine automatische Modellauswahl wieder ein bisschen problematisch. Also es kommt immer auch so ein bisschen auf den Useryp an, aber ja, wie gesagt, für die
10:09 meisten Standard User und Userinnen ist es eigentlich eine ganz gute Option, würde ich behaupten. Ich würde vermuten, dass in dem Jahr von heute alle Modelle nur noch ein
10:19 Interface haben, du vielleicht für die 3% der absoluten Poweruser die Möglichkeit hast, das zu ändern, aber alle anderen bekommen das serv wirt, was gerade richtig ist, weil sonst verlierst
10:29 einfach den Überblick. Also bei Grock gibt's jetzt auch die Möglichkeit, ich kann dann Grock 3, Grock 4, Super Grock, Elon Grock, was auch immer noch. Bei Cloud wahrscheinlich auch, weiß ich
10:39 gar nicht, nutze ich nicht so viel. Be kannst du das, da hast du glaube ich, ich nutze das hin und wieder du hast die Auswahl zwischen Sonnet und Opos, also ein klein größeren Modell und kannst
10:50 dann halt auch dieses Advanced Reasoning und Advanced Thinking heißt es da glaube ich anstellen und dann quasi die Modelle, also nicht auch nicht so ultra viele verschiedene Optionen. Ähm ja, was
11:02 ganz interessant ist, ist der Charakter tatsächlich von GPT5 ist ein anderer als der von GPT 4.0. Es ist viel technischer. Gefühlt ist es ein Modell oder es ist auch ein Modell, was
11:17 eigentlich gebaut wurde für Softwareentwickler, für technische Positionen ist extrem gut im Coden um so Product Requirement Documentation zu erstellen und es arbeitet sehr viel mit
11:29 präzisen Aussagen mit Bulletpunkten und ist daher kommt es auch deutlich kühler rüber in den Antworten, wie eben GPD for all oder VO One es in der Vergangenheit
11:41 getan hat oder auch heute noch tut, wenn ich es auswähle. und ist daher für mich gefühlt für das Verfassen von kreativen Texten, von LinkedIn Beiträgen, von irgendwie
11:53 Content, der jetzt nicht technisch der Natur ist, nicht besser tatsächlich als das Forer for all Modell. M Sam O Altman, also der CEO von Open AI hat schon dazu gesagt, dass sie daran
12:05 arbeiten werden und dass es ein bisschen weniger kühl ausgestalten wollen. Weil das viele Leute als negativ ja angemerkt haben. Das kann sein, dass über die Zeit
12:14 noch ein bisschen verändert, aber so in den ersten ein, zwei Wochen ist es definitiv der Fall, dass es ja wie ein anderer Mensch ist. Und ähm ein Grund wohl ähm laut äh laut Reddit
12:26 und anderen Internetquellen, warum so viele Leute sich darüber aufgeregt haben, ist, dass sie wirklich mittlerweile Chat GPT wie so ein Lebensberater, Psychiater, Body Coach
12:35 verwenden. Und ähm auch wenn der Code schlauer ist auf einmal, wenn der nicht mehr so einsam ist, ja, ist halt also tatsächlich Leute finden das störend, dass die KI nicht mehr so blumig und
12:48 nett und irgendwie nicht verstehend und mir sagt, wie toll ich bin und so weiter und äh ich glaub das hat ob einfach ein bisschen unterschätzt, also wie sehr Leute da schon teilweise anscheinend mit
12:58 dem Charakter dieser Maschine, dieser dieser KI irgendwie vertraut sind und es sie dann stört, wenn auf einmal der Charakter ein anderer auch wenn inhaltlich schlecht die Antworten besser
13:08 sind, das ist total crazy. Ich habe bei mir im Systemprum prompt drin, dass ich gerne möglichst alles sehr kühl und sehr Fakten basiert und ohne große Komplimente und Blümchen serviert haben möchte.
13:19 Benny ist nicht so der emotionale Typ, ne? Hast du wahrscheinlich deiner Frau auch gesagt so, hey, also bitte, wenn du mit mir sprichst, lass diese ganzen Emotionen weg den Buddle Points, to the
13:28 points, so wie es GPT5 auch macht. Nein, das geile war, habe ich diesen Sprachmodus genutzt, hat mir jedes Mal erzählt, okay, straight to the point. Und dann hat er irwas erzählt. Das war
13:38 jetzt so total straight to the point. Alter, erzähl mir nicht, dass es straight to the point. Lass das einfach weg. Hast du noch mal die Erklärung bekommen, dass das wirklich to the point ist. Na ja.
13:49 Ähm, du hattest angesprochen, es ist technischer, es ist es besser zum Coden. Ich habe auch gesehen, Lovable hat direkt umgesetzt, hat direkt auf Chat Coding Tool, für die es nicht kennen,
13:50 Vibe Coding mit ChatGPT-5?
13:59 auch eine Episode dazu gemacht. Also, wenn ich als nicht so auf Hitkler wie wir trotzdem kleine coole Apps bauen will, ist lavable ein cooles Tool und da ist natürlich hinten dran immer ein ein
14:08 LM sozusagen und da ist jetzt GB5 Standard stand jetzt noch aus wie lange und auf jeden Fall kann ich wohl auch jetzt mit Chat GPT direkt Wipe Coding anfangen. Ich habe es selber noch nicht
14:20 ausprobiert, weil meine ganzen Projekte jetzt auf Lobble waren. Hast du es schon mal ausprobiert? Ich hab's noch nicht ausprobiert, ich habe einige Sachen gesehen. Also schon crazy, was die Leute
14:28 teilweise mit einem Shot, also sogenannte One Shhot Prompting, ich einmal dem System sage, was ich gerne möchte und dann wirklich eine App mit Backend Lösung entwickelt wurde, die
14:41 über diese Standard Vibe Coding Sachen, ich habe irgendwie ein interessantes Frontend, aber irgendwie nichts hinten dran, was so der Status davor war, darüber hinausgeht. Also, was ich
14:52 gesehen habe, ist relativ beeindruckend. Ich habe es selbst noch nicht ähm gebaut, aber ähm ich werde es demnächst bauen, weil wir bald eine ja MVP bauen wollen für eine coole Interview Voice
15:06 Interview Lösung und da braucht man quasi ein Frontend und ein Backend, was analysiert und so weiter und da werden wir das auf jeden Fall mal ausprobieren. Cool. Ähm, ich habe auch gelesen, dass es
15:16 jetzt eine Personalisierung gibt, ähnlich wie bei Grock, dass du dann sagen kannst antworte wie ein Zyniker, wie jemand, der sehr einfüllsam ist etc. Habe ich noch nicht ausprobiert. Hast du
15:25 es ausprobiert? Ich auch nicht. Also, ich bin da nicht so ähm, dass mir das so wichtig ist. Also, ich weiß auch nicht, warum man der KI sagen sollte, dass sie wie ein
15:33 Anwendungsfälle: Wer braucht ChatGPT-5 wirklich?
15:36 Zyniker antworten soll. Also sei dann, man ist irgendwie selbst ein bisschen depressiv oder kommt mit der Welt nicht klar oder äh Zynismus hat vor und Nachteile, aber die
15:47 KI soll einfach für mich meine Probleme gut lösen und da ist mir der Deil jetzt nicht so super wichtig, aber klar, gerade für so Themen, wenn es wenn ich es wirklich als Lifebud nutze, als
15:58 Psychologe, als Coach, wie auch immer, da spielt sowas dann vielleicht eine Rolle, aber ich nutze es halt Arbeitstool und äh wenn die Arbeit fertig ist, kommuniziere ich lieber mit richtigen Menschen
16:10 ohne Bullet Points. Ohne Bullet Points, aber auch nicht so viel Schlaff. Das ist schon auch meine persönliche Präferenz. Ähm die Integration mit, also es gibt ja verschiedene Integrationen, unter
16:21 anderem in Google Mail, Google Calendar, Google Docs. Wahrscheinlich kommt noch mehr dazu. Lustig, dass Google integriert ist und Microsoft noch nicht Microsoft so eng mit ob verbandelt ist oder
16:33 vielleicht auch bald nicht mehr. Wer weiß, ich habe es mal integriert mit meinem Google Mail. Hab dann gesagt, ähm, was steht denn in mein Mails? Kn kann ich dir nicht sagen, da musst du sehr
16:41 spezifisch fragen. We ich so ein bisschen enttäuscht. Hast du es ausprobiert? Noch nicht. Ich nutze es mit Claud hin und wieder. Äh, ich wollte, aber ich habe tatsächlich ein Uscase, den ich
16:51 ausprobieren wollte. Und zwar ähm haben wir diese KI Führerscheine, diese 8 Wochen maßgeschneiderten Programme und ein riesen Pain ist immer mit den Unternehmenspartnern
17:03 die Termine festzulegen. Ich muss ja quasi vier x 2 Stunden Inhalt und viermal eine Stunde Consulting Session irgendwie mit den Planen und dann habe ich in der Regel ein Call
17:13 und schreib dann die ganzen Termine auf und dann muss ich quasi jeden einzelnen Termin benennen und an den Kunden schicken und an die relevanten Personen aus dem Team
17:23 schicken und habe dann immer manuell diese Kalendereinträge gemacht, die Leute reinkopiert und so weiter. In dem ersten Schritt, was ich letzte Woche hinbekommen habe, ist ich habe mir
17:31 daraus eine ICS eine Kalenderdatei automatisiert erstellt lassen und das hat eigentlich schon ganz gut funktioniert. Dann klickst du halt drauf und dann musst du dann noch hier ein
17:40 bisschen hier und da und und saven und so weiter in deinem Kalender. Du musst nicht mehr alles manuell machen. Aber was ich jetzt probieren möchte im nächsten Schritt ist eben mit dieser
17:47 Kalenderintegration einfach zu sagen, hier sind die Termine und äh irgendwie für die Termine irgendwie die Personen reinschreiben. In der Memory sind die Personen und die E-Mailadressen der
17:57 Leute. Erstell jetzt bitte in meinem KI Führerscheinkalender und schickt es an irgendwie die relevanten Leute. Das ist mein nächster großer Test. Dann berichte mal, wie es ist. Mache ich.
18:08 Die Integration in Google Drive hat bei mir dreimal nicht funktioniert. Ich weiß nicht, warum. Vielleicht zu viele Daten oder die neue KI Verordnung ist mehr als eine
18:15 Pflicht. Sie ist deine Chancen. Ja, die Kompetenzsstulung nach Artikel 4 ist wichtig für deine Rechtssicherheit bei der Nutzung von KI Tools im Job. Unsere von Rechtsanwälten mitentwickelte
18:25 Schulung auf snipkey.de zeigt dir aber auch, wie KI zu deiner Superpower wird. Erne die Grundlagen, agiere sicher und entdecke neue Möglichkeiten. Jetzt starten auf snipkey.de. Äh,
18:37 größeres Kontextfenster gibt's auch bei ChatPT5. Was heißt Kontextfenster? Spricht von Tokens. Und je mehr Tokens ich im Kontext Fenster habe, desto mehr Inhalt kann ich
18:50 da reinstopfen, den ich auf einmal analysieren kann. Also, wenn ich ein kleines Kontextfenster habe, dann kann ich mir vielleicht eine SMS merken. Wenn ich ein großes habe, kann ich ein ganzes
18:58 Buch rein reinspeichern, mit dem ich dann interagieren kann. Und Chat TPT unterscheidet hier in der Free Version, Pro Version, Plus Version. Free sind glaube ich 8000 TOG zurzeit, was gar nichts ist.
19:09 Plus sind 32, Pro sind 128 oder sowas. Ich glaub mittlerweile hast du glaube ich Z, ich weiß du in der Plus Version, du hast glaube ich maximal 256 mittlerweile,
19:20 was aber tatsächlich immer noch extrem klein ist, weil Gemini hat Gemini, hat Million, ne? hat eine Million und seit paar Tagen, also wenn der Podcast rauskommt, bisschen länger hin, hat äh
19:32 ein Tropic mit dem Sonnet Modell, zumindest mit dem kleinen auch eine Millionfenster. Ich meine, es ist das kleine Modell, was eine Million bekommen hat und damit 4x
19:41 gegenüber Open AI und das ist auch noch ein Grund, warum ich tatsächlich sehr häufig noch Gemini nutze. einfach, weil wir oft einfach nicht nur also sehr große Dinge irgendwie machen mit ganz
19:53 viel Kontext und Transcripts aus verschiedenen Calls und daraus was entstehen soll und da ist dann chatt relativ schnell an der Grenze, weil das Kontextfenster voll ist und ein paar mal
20:02 hin und her prompt ist und da ist für für mich und für uns immer noch Gemini eigentlich das Go LM gerade wenn wir diese diese Mikro so 20 Mikrofgaben, die wir erstellen, da ist ultra viel Kontext
20:15 drin über die Personen, das Unternehmen und und das so richtig richtig schön maßzuschneidern und wenn du da längere Chats hast, dann kommt dann und das hatten wir auch in unserem Test mit GPT5
20:25 kommst du relativ schnell an Halluzination, weil dann GPT5 die Sachen sich nicht mehr merkt, die am Anfang waren, weil das Kontext immer größer wird und das merkt man schon, also wenn
20:34 man sehr lange Sachen macht, dann ist es schon ein Problem, wo wir ähm wo es am Anfang sehr gut war. Wir haben die unsere Strategie für wir haben so ein drei Tage Strategie Workshop und hab
20:46 vorher genau definiert, was wollen wir machen so mit Vision Mission, was sind unsere Values, die Ziele, unsere verschiedenen Geschäftsbereiche und wo haben wir Gaps und so weiter und so.
20:57 Alle unsere Kernfragen haben wir runter geschrieben und noch so ein bisschen Kontext natürlich gegeben zu Snipkey. haben das in GBT5 reingegeben und haben dann den Workshop zu zweit gemacht und
21:07 haben Chat GPT mit GPT 5 als dritte Sparingringspartner Person quasi mit reingenommen und haben natürlich immer selbst vorher überlegt und das das Thinking gemacht, das wichtige hatten
21:19 wir in der Lernfolge nicht einfach die KI machen lassen und nicht selbst denken immer selbst die Antworten zu jeder Frage gegeben und haben dann zusätzlich von der KI von GPT5 eine Antwort
21:28 bekommen und haben dann insgesamt einfach sehr sehr gute Ergebnisse bekommen, aber irgend irgendwann so am zweiten Tag im gleichen Chat nur sehr sehr sehr viel da drin hast, dann haben
21:36 wir gemerkt, okay, jetzt wird das Ding verwirrt, jetzt ist einfach das Kontextfenster voll und jetzt können wir in dem Chatfenster nicht mehr weitermachen. Das war ganz interessant
21:43 zu sehen, also am Anfang Beispiel war beeindruckt wirklich an der Qualität, weil er wahrscheinlich auch immer die besseren Modelle für so schwierige Fragen verwendet hat, aber dann
21:46 Die Zukunft von KI & Energieverbrauch
21:51 irgendwann ja Kontextfenster Thema kann dir aber auch bei Gemini passieren. Ich hat das letztens, ich hab mir hast aber viel reingeschrieben, ja, relativ rumgescriptet in Google App
22:00 Script und dann hat er mir am Ende die die Scripte durcheinander geworfen und ist mir aufgefallen, was ist das denn? Mhm. Ähm, eine Sache hat der Guarding, glaube ich,
22:12 berichtet, ist mir aufgefallen. Die haben gesagt, dass Chat TPD5 bis zu 20% mehr Energie verbraucht. Nee, 20x mehr Energie als VO O, wenn es so viel ähm Thinking macht, also in den in den
22:25 Modellen, die einfach mehr Zeit brauchen, das ist schon krass. Ja, die Frage ist also a ich kenne den Artikel nicht. Ich frag mich, wie der Guardian es überhaupt wissen kann, weil
22:39 der Guardian ja in dem Sinn, also wahrscheinlich irgendwie über die Token oder so, die API ansteuert, schätze ich mal irgendwie viel Token dafür arbeitet werden hin so, also so wer es
22:48 wahrscheinlich gemacht haben, die haben geschaut, wie viel Token gehen da irgendwie rein und raus, weil du für die Token bezahlst und ich die gleiche Anfrage an das ein und das andere Modell
22:55 schicken, wie viel Token gehen da durcheinander gesagt. Okay, schätze ich mal 20 mal mehr Token oder zehn mal mehr Token, also ist auch zehn mal höherer Energieverbrauch. So irgendwie würde ich
23:05 annehmen, dass sie es gemacht haben, weil sonst können die nicht hinter die Kulissen bei HI schauen. Ähm das ist halt, ist es ein Unterschied zwischen GPT40 und GPT5 oder ist es ein
23:16 Unterschied zwischen einem Reasoning Modell und ein Nonreasoning Modell, ne? Und am Ende, wenn deine Antwort halt oder die Qualität der Antwort auch 20 oder 30x mal besser ist, weil wenn ich mir ein
23:27 Businessplan irgendwie entwickeln lasse oder ein Gerichtsverfahren vorbereite, ähm dann na ist es halt die Frage so ein bisschen, ja, dann muss es halt im Zweifel auch mehr gerechnet werden und
23:39 muss mehr nachdenken und dann kostet es halt einfach mehr. Ähm, wenn ich den Link noch finde, packen wir in den Showouts, könnt euch selber anschauen. Ist glaube ich auch eine
23:47 interessante Diskussion, die jetzt einfach aufkommen wird. Ja, wenn man sich anschaut, wie viel in Rechenzentren gerade investiert wird, was da auch aufgebaut wird, ja,
23:55 dann werden die einfach sehr viel Energie fressen. Dann ist die Frage, haben wir gerade so viel Energie oder steigen die Energiekosten aufgrund von AI? Die werden bestimmt steigen, glaube ich.
24:03 Ähm, die Frage ist ja so ein bisschen, ist es kann ja auch was Gutes sein, weil dadurch ja viel mehr Forschung und Entwicklung vielleicht in die erneuerbaren Energien geht. ähm jetzt
24:15 auf einmal Sachen ausgebaut werden, die vorher nicht ausgebaut wurden, weil eben der Bedarf halt da ist. Ähm und äh ja, also es ist ein sehr spannendes gesellschaftliches Thema. Ich glaube in
24:27 irgendwo in USA hat Google jetzt auch zugesagt, dass sie während der Hauptpakzeiten ähm weniger ähm Modelle trainiert oder quasi Modelle trainiert, weil das haben sie ja in der
24:40 Hand, wann sie die trainieren und sie die quasi eher in der Nacht trainieren, wenn eh der Piakbedarf nicht so hoch ist an der Energie und äh das ist spannend, was da passieren wird, ne? Wir haben
24:49 letztens schon mal drüber gesprochen, wie viel ähm zusätzliche Kernkraft und Solar und so weiter eigentlich alles gebaut wird durch diese ja Energie äh eine riesen Energiebedarf,
25:01 den eben die Modelle und eben die Anbieter damit haben. Also Fazit wahrscheinlich ist Chef Beat 5 eher wie so ein neues iPhone, was ein bisschen besser ist als die alte
25:10 Generation, aber halt nicht mehr der Riesensprung, weiß ich nicht, als man von seinem Nokia 3210 aufs iPhone 4 umgeswitcht ist. Genau. Ich glaub die einzelnen Modelle an sich sind natürlich
25:21 das beste Modell ist natürlich wieder ein Ticken besser in den Benchmarks als es davor. Keine Ahnung, welches davor das beste war. Ja, es ist kein Riesensprung.
25:30 Es ist immer noch kein AGI. Die Maschine ist immer noch nicht Stauer als wir und wird uns immer noch nicht in allen unseren Aufgaben ersetzen. Es ist in sehr sehr vielen Aufgaben ähm schon auf
25:41 so ähm Dror PhD Level. Das Problem ist, dass man halt nie so genau weiß, ob man gerade den Doktor oder den PhD bekommt oder halt den nicht so schlauen die nicht so schlaue Person, ne? Das ist so
25:54 ein bisschen das Problem da hinten dran. Daher für Businesses vielleicht noch ein bisschen schwierig aktuell in der Nutzung. Für Power User, die wirklich genau wissen, welches Modell wann wie wo
26:06 ausgewählt wird, ein bisschen schwierig. Ähm, aber für wahrscheinlich 90% der Hörer und Hörerin hier einfach die beste Wahl. einfach GBT5 zu nutzen, ähm das auf dem Standard äh quasi Modell zu
26:19 lassen, GBT5 entscheiden lassen, wann was gewählt wird und im Endeffekt ist, glaube ich, unser unser Feedback immer gleich. Es kostet mich ja nichts, die verschiedenen Modelle mal auszuprobieren
26:31 mit meiner gleichen Anfrage und dann muss ich einfach für mich am Ende entscheiden, ob ich mit der Antwort von GPT5 oder von 4 oder 41 oder 3 am meisten zufrieden bin. Und wenn es ein
26:42 Task ist, den ich regelmäßig mache, dann will ich in Zukunft einfach eben dieses Modell. Im Endeffekt ist es alles gut für uns alle, dass es eben die Option gibt und ich muss halt selbst
26:50 Europas Rolle im KI-Rennen & Ausblick
26:51 entscheiden, welchem Ergebnis ich am Ende zufrieden bin. Was wir aber wieder konzentieren müssen über alles, was wir gesprochen haben, sei es jetzt Anthropic, sei es
27:00 Perplexity, haben wir noch gar nicht besprochen, sei es CHGPT oder auch Grock, alles amerikanische Unternehmen, da ist kein europäisches dabei. Ich habe lange Zeit nichts mehr von Mistra gehört
27:10 und ich glaube, der Zug fährt auch so langsam ab, das noch aufzuholen. Tod gesagte le länger. Man weiß es nie. Ich meine, die Europäer haben ja zumindest ein hohes, ich sag mal, wirtschaftlich
27:20 strategisches Interesse daran auch irgendwie eine Eigenlösung zu haben, aber ja, stand jetzt sind die Amerikaner und teilweise die Chinesen, insbesondere Videothemen. Ja,
27:31 einfach ein ganzes Eck vorne und dran. Damit ihr vorne dran bleibt, bleibt uns treu, erzählt von uns euren Freunden, euren Kolleginnen und Kollegen, abonniert uns und lun richtig, lasst
27:46 gerne Kommentare da und gebt uns Inspiration, worüber worüber wir nachsprechen können und versprochen keine Fußball News mehr in den nächsten Folgen. Bis zum nächsten Mal. Bis dann. Ciao.
28:00 Cointtelligence ist eine Produktion von The Key Academy in Zusammenarbeit mit Snipkey. Produziert bei Studio Co in Berlin. Produktion und Regie: Christina Manuele, Fuat Sebadli und Elias Frobel.
28:13 Creative Director Lukas Schelter. Redaktion und Moderation Benjamin Wüstenhagen und Moritz Heininger. Abonniere uns auf Spotify, Apple Podcasts oder YouTube. Danke fürs Zuhören.