// Transkript
#6: ChatGPT entpackt: Das Schweizer Taschenmesser der KI
Vollständiges Transkript dieser Episode des Co-Intelligence Podcasts. 8.790 Wörter. · Auf YouTube ansehen ↗
0:01 [Musik]
0:10 Hallo und willkommen zurück zum Cointelligence Podcast, eurem Lernpodcast für KI. Nachdem wir in der zweiten Episode euch schon von Chat GPT erzählt haben und wie das genau
0:21 funktioniert und in Episode 4 ins Prompt Engineering gegangen sind, werden wir uns heute tiefer mit Chat GPT beschäftigen, euch alle Funktionen zeigen und haben nicht nur ne Moritz und
0:33 mir haben auch heute ein Laptop dabei, um direkt ins doing zu kommen. Für alle, die jetzt nur per Sound dabei sind, wir probieren es so gut wie möglich zu beschreiben, aber vielleicht auch für
0:43 euch eine Möglichkeit mal auf YouTube oder auf Spotify mit Video zu schauen. Genau. Was ist Chat GPT oder warum eigentlich Chat GPT? Wir könnten ja auch Gemini zeigen oder ein Cloud zeigen, was
0:55 auch super Tools sind, aber für die meisten Leute und es gibt ja diesen berühmten Chat GPD Moment und Chat GPT war ja das erste Tool, was so richtig dem den Steins zum Rollen gebracht hat
1:08 und das Tool ist einfach würde ich sagen, für die allermeisten Leute, die so das erste Mal was mit KI machen, auch das beste Einstiegstool, da es eigentlich mittlerweile so viel kann und
1:18 so viel mehr kann als nur Chat und daher wollen wir uns heute mal die wichtigsten Funktionen anschauen. Einmal schnell durchfliegen, einmal ja drüber sprechen, was es alles für Use Casases eröffnet.
1:29 Ähm denn die sind sehr sehr groß, fast unendlich, glaube ich, was man alles damit machen kann und ich entdecke jeden Tag selbst neue Usases und könnt glaube ich mittlerweile ohne Chat GPT überhaupt
1:41 nicht mehr leben, mens ich und wir wollen natürlich auch schauen, wie ihr es bei euch im Beruf im Business einsetzen könnt, wo auch zu worauf zu achten ist, also Datenschutz äh etc.
1:51 lass uns anfangen und uns anschauen, was Chat GPT alles so kann. Ich glaube es auch nach wie vor das AI Tour mit der größten Verbreitung oder? Ja, ich glaub ja, wenn wir jetzt eine Zahl sagen, dann
2:02 ist die Zahl in zwei Monaten wieder outdated. Die letzte Zahl, die ich gehört habe, 400 Millionen monstly active, also 400 Millionen Menschen nutzen jeden Monat weltweit. Das ist
2:11 schon relativ verrückt und äh die Zahl wird wahrscheinlich doppelt so hoch sein, wenn man den Podcast in 3, 4 5 6 Monaten ähm sich anhört. Genau. Aber vielleicht bevor wir in die einzelnen
2:23 Funktionen einsteigen, ähm mal ein Highlevel Überblick. Am Anfang war das einfach ein Chatfenster. Ich konnte da Fragen stellen, habe Antworten bekommen und mit guten Prompt
2:35 Engineering habe ich natürlich bessere Antworten gekomm bekommen. Seitdem ist extrem viel passiert, seit Chat GPT gelauncht ist. Mittlerweile haben wir ähm verschiedene Funktionen, um die
2:44 Texte noch besser zu editieren. Das ist die sogenannte Kanasfunktion, die wir uns auch gleich mal anschauen. Wir ähm haben die Möglichkeit Chat GPT zu sagen, dass er sich gewisse Dinge merken soll,
2:55 ne? Z.B. Background zu uns oder zu den Aufgaben, denen wir arbeiten, gewisse Schreibweisen, z.B. wenn man unsere unsere Brand schreibt, wie man die Brand richtig schreibt, dass ich alle meine
3:06 E-Mails mit Liebe Grüße und nicht beste Grüße beende und so weiter und so fort. Das ist schon ähm ja relativ schlau und hat noch sozusagen ein externes Gehirn an, was es einschalten kann, wenn ich
3:17 mit ihm spreche. Das heißt, wenn du mir jetzt schreibst, wo dich liebe Grüße drin steht, weiß ich, es hat nicht Chat TVT geschrieben. Genau. Genau. Ähm, die Voice Funktion ist
3:26 spannend, die schauen wir uns gleich an. Und zwar ähm gibt's da verschiedene Art und Weisen, wie man mit Church GBD kommunizieren kann. Entweder, dass ich einfach reinspreche und dann der Text in
3:36 also mein besprochenes ein Text verwandelt wird und ich dann sozusagen eine Textantworte. Ich kann aber auch live chatten mittlerweile und äh selbst per Text Chat, ne? Also ich kann
3:47 reinsprechen mach das gerne im Auto, dann wenn darf ich ja nicht tippen, aber ich darf zumindest sprechen. Genau. Und was echt spannend ist, dass du mittlerweile eine Videokamera zuschalten
3:54 kannst. Das heißt, ChD sieht dich auch und sieht deine Umgebung. Das heiß, du könntest theoretisch nutzen, um dein Fahrrad zu reparieren. Kannst die Kamera aufs Fahrrad halten und sagen, was ist
4:03 denn hier kaputt? Und kriegst Live Anweisung von Jet GBT, du dein Fahrrad reparieren kannst. Also statt Chat ist es das Schweizer Taschenmesser. Das ist auf jeden Fall eigentlich müsste das
4:11 genau Schweizer Taschenmesser GPT heißen da und eigentlich dürfte es aber nicht mehr GPT heißen, aber da sprechen wir gleich noch mal drüber. Es ist Code Code Interpretation oder der
4:23 Code Interpreters kann Webseiten programmieren und ja verschiedenste Software entwickeln bis zu einem gewissen Grad natürlich. Es versteht alle möglichen Dateien, ne? Du kannst
4:33 PDFs reinladen, Bilder reinladen, Excel reinladen. Genau, da versteht die. Ich kann mir Zusammenfassung geben lassen, was ich total oft mache. Wenn ich irgendwelche neuen Reports bekomme,
4:43 Market Reports, lasse ich mir die zusammenfassen oder wenn es extrem viele Seiten sind, ich habe keine Lust da überall einzeln durchzugehen, ähm dann da kriege ich eine Summary und Takeaways
4:54 und das ist einfach extrem spannend. Das ganze kannst du mit YouTube Videos machen, du kannst ein Transcript ziehen. Ähm theoretisch, wenn euch der Podcast zu lange dauert, könntet ihr das
5:02 Transcript des Podcasts nehmen in Chat GPT geben und sagen, gib mir eine Summary von dem ganzen. Kannst alles in Projekte gliedern, kannst ja so ein Projekt an anlegen und dann sagen, das
5:12 ist der Kontext für das für folgendes Projekt und kannst dort dann spezifisch Dokumente oder spezifisch Chats hinzufügen. Genau. Du kannst Fotos erstellen damit mittlerweile und seit
5:22 kurzem auch sehr sehr gute Fotos, also wirklich State of the Art kannst die Fotos editieren innerhalb von Chatchi PT. Dazu sollten wir noch mal eine separate Episode machen. Zu sprechen wir
5:31 noch mal separat. Genau. Aber es kann es ist wirklich ein Schweizer Taschenmesser und es kann immer mehr. Also wenn wir jemand im Podcast in zwei Monaten hört,
5:39 dann sind jetzt wahrscheinlich noch drei weitere Features hinzugekommen. Und das Ganze gibt's ähm in einer kostenlosen Version. Ähm, wir empfehlen aber eigentlich, dass jeder sich zumindest
5:51 diese $ Versionen oder 20 € Version im Monat holt, da die kostenlose Version sehr limitiert Funktionen zumfang erstmal schnell äh ja, Limit reinläuft, nicht mehr weitermachen kann und ähm man
6:05 kann auch das Zehnfache zahlen. Man kann auch das Zehnfache zahlen. Es gibt auch eine 200$ Variante, da kommen wir auch noch mal zu. Und so verrückt es sich anhört, auch die 200$ Variante im Monat
6:16 kann das Geld wert sein, weil da gewisse Fähigkeiten mit drin sind, die echt absolut crazy sind. Aber da kommen wir dann in der Folge zu, wenn wir über das ganze Agent Thema sprechen. Ähm, aber
6:27 die 20$, das ist wie eine McFit Membership und ich glaube würde behaupten, dass ich da für mich in mein Leben dort nicht mehr rausnehmen kann. Und klar sind es 20 € und 20 € ist jetzt
6:39 auch nicht schlicht, aber und das versuchen wir glaube ich immer wieder zu sagen, man muss sich hal überlegen, wie viel Zeit kann ich damit sparen und was ist mir eigentlich eine Stunde meines
6:49 Lebens wert? Also, wenn ich jetzt jede Woche 5 Stunden weniger arbeiten muss, ist ja da auch ein Wert dahinter, dann habe ich einen Qualitäts Impact sozusagen, denn
6:58 dadurch, dass ich KI verwende, wird die Qualität meiner Arbeit deutlich besser. Und da gibt's jetzt auch wieder eine ganz neue Studie auch vom MIT, glaube ich, oder von von Harvard, die gezeigt
7:09 hat, die zusammen mit Prognan Gamble eine Studie gemacht hat und rausgefunden hat, dass Personen mit KI so stark waren in der Bearbeitung von Projekten wie zwei Menschen zusammen in dem Team ohne
7:21 KI und ja, Teams mit KI waren die, die am allermeisten performt haben und wer sich mal ein bisschen damit beschäftigt, wird das auch ganz schnell verstehen und da muss man natürlich auch irgendwert
7:32 hinten dran setzen. Zeiterspares, Qualitäterspares, mehr Output. Ich kann viel mehr viel mehr erstellen mit einer höheren Qualität und daher sind glaube ich die 20$ oder 20 € im Monat sehr gut
7:43 investiertes Geld. Aber um das zu tun, müsst ihr natürlich den Funktionsumfang kennen. Das probieren wir heute zumindest mal was heute möglich ist, euch zu zeigen, die Funktion, die Jetgpt hat und
7:56 euch auch äh bisschen zu inspirieren, welche Modelle für welche Aufgabenstellung eigentlich relevant sind oder gut sind. Genau. Das erste, was wir uns anschauen, was so ein
8:04 Standardfall ist, ist eine ein Blogpost zu generieren. Äh, ich kann natürlich LinkedIn Post generieren, Social Media Post, äh also jede Art von Content und zwar nicht nur und das sind wir wieder
8:15 bei den Mediensilos, die wir angesprochen haben, nicht nur Text, ich kann von Text auf Bild und umgedreht. Wir erstellen jetzt aber einfach mal ein Textpost. Äh, wir haben hier ein Prompt
8:25 schon vorbereitet. In dem Prompt haben wir ähm bisschen Background zu uns zum Chron Intelligence Podcast mitgegeben und haben dann gesagt, wir hätten gerne mal einen ersten Wurf für ein Blogpost.
8:38 Genau. Äh wenn ihr euch das noch mal näher anschauen wollt, wie das Ganze mit dem Prompt Engineering aussieht, schaut euch Episode 5 an. Ähm und für alle, die jetzt nur per Audio dabei sind, wir
8:49 schauen jetzt direkt in Gen GPT rein. Genau. Du hast die Ultra Version, ne, mit äh mit Goldrand. Ähm, nee, ich habe hier tatsächlich, ich habe ich habe beide äh in der Version, die wir gerade
9:00 sehen, ist es tatsächlich die 20 die 20 € Variante. Und auch wenn man uns jetzt nicht auf dem Bildschirm verfolgt, ich versuch es einfach mal ganz kurz zu erklären. Wir haben jetzt hier in das
9:09 Chat GPT Fenster, das jeder kennt das L Chatfenster ein Prompt hineingepastet und geben hier der KI den Auftrag, dass sie für uns einen Blogpost erstellen soll, der ca. 800
9:21 Wörter lang sein soll. Wir haben die Zielgruppe definiert, wir haben nicht die Tonalität erklärt, also wir haben einen gewissen Stil. Wir wollen jetzt nicht zu Spießig rüberken, kommen wir
9:31 hoffentlich auch nicht. Äh ganz viele Englisch muss da rein, damit uns das Genau. Ja, unser Sprachfehler, dass wir dauernd englische Gegüffe verwenden. Ja, ne, habe ich tatsächlich nicht mit
9:41 reingenommen. Das wäre schlimm, wenn wir das dann noch im Text machen würden. Genau. Und dann die inhaltlichen Schwerpunkte von unserem Podcast haben wir hier erklärt und was das Ziel des
9:50 Artikels ist. In dem Fall geht es darum eben ja zu den Launch des Podcasts zu beschreiben und ähm dann so ein paar Titelvorschläge mit rein Zielhinweise und so weiter und so fort. Wir haben
10:01 noch Background gegeben zu dem Kanal ähm dem YouTube Channel und schicken das jetzt einfach mal ab. Und ähm unser Ziel ist jetzt nicht diesen Pod diesen ähm diesen Blogpost genau äh zu analysieren,
10:14 sondern eher mal zu zeigen, was wir für Möglichkeiten haben, wenn wir diesen Blogpost noch ein bisschen anpassen möchten, ne? Zum einen, wir sehen jetzt erstmal, wir haben schon einen guten
10:23 Vorschlag ähm der ist strukturiert äh mit dem Titel Cointelligence, ein neuer Podcast über die echte Nutzung von KI im Alltag ist, glaube ich, schon mal ein sehr guter Titel. Dann ähm kriegen wir
10:35 gesagt, warum sollte der Podcast also ein Absatz zu warum jetzt, was steckt hinter Cointelligence, wer sind die Hosts? Kurze Zusammenfassung von uns und dann so bisschen was erwartet sich im
10:46 Podcast und wir sehen quasi gerade live vor uns, wie dieser Podcast, wie dieser Blogpost geschrieben wird. Was da natürlich spannend ist auch im Vergleich zu vielleicht vor einem Jahr oder so
10:55 noch, du hast jetzt schon eine sehr schöne Strukturierung da drin, also bekommst nicht einfach nur ein Text vorgeknallt, sondern der ist schon richtig gut strukturiert. Äh und dann in
11:04 den jeweiligen Unterüberschriften gibt's dann halt die Texte. Genau. Und jetzt könnten wir z.B. sagen, finden wir super. Ähm, wir möchten aber diesen Post mit aktuellen
11:15 Informationen ähm noch versehen und äh das coole ist, dass wir auch eine Websuchfunktion haben. Wir haben ja in den ersten Folgen erklärt, dass so Modelle trainiert werden und dann haben
11:25 die einen gewissen Wissensstand. Das heißt, alles was eigentlich nach diesem Wissenstand neuen Informationen rausgekommen ist, ist nicht mehr in diesem Modell drin. Aber in JGBT und das
11:35 geht auch bei Cloud in anderen Modellen kann ich das Gemini auch mit dem Netz verbinden, so dass quasi neue Informationen mit reinkommen können. Jetzt könnte ich hier z.B. sagen, gib
11:44 mir ein Praxisbeispiel ähm der neuesten Entwicklung von Open AI und verwende diese in diesem Blogpost. Und äh das würde ich sagen, machen wir jetzt einfach mal. Ähm, suche die neuesten
12:01 Entwicklungen von Open AI und erwähne diese im Blogpost. Genau. Was wichtig ist, du musst ih natürlich hier, also bei chat GPT muss ihm sagen, dass er das Web nutzen soll. Dafür gibt's ein
12:14 Button. H sieht aus wie eine Weltkugel Suche und wenn das Ding aktiviert ist, dann wird dann wird das Web mitgenutzt. Genau. Und das ist eben das Schöne, ich kann die ja die Modelle einfach noch
12:25 schlauer machen, indem ich sie mit aktuellem Wissen verbinde. Und jetzt haben wir hier ganz kurz gesehen, ähm, dass es im Web gesucht hat, dass es Quellen gesucht hat und ähm jetzt sehen
12:35 wir auch, dass wir Quellen in unserem Blogpost mit drin haben. Also, ich habe jetzt hier einen Absatz und wenn ich über die Quelle drüber gehe mit meiner Maus, dann wird der Teil in meinem
12:48 Blogpost markiert und angezeigt, wo eine externe Quelle verwendet wurde, die ich dann auch theoretisch noch überprüfen kann. Wenn du jetzt also den Doktorarbeit schreiben willst, dann ist
12:55 das sehr hilfreich. Genau. Also äh genau. Ob ich die Doktorarbeit nur mit DVD schreiben würde, ist glaube ich ein bisschen gefährlich, aber und da kommen wir dann noch noch drauf, wenn wir bei
13:05 dem Thema Agent sind. Wir haben hier unten noch so ein so ein Button, der ist Deep Research und der Deep Research Button ist ein absolutes Superpower und der hilft einem tatsächlich, wenn man
13:15 auf PhD Level Research machen möchte. Aber das heben wir noch mal auf für eine weitere Folge in der Zukunft, würde ich sagen. So, jetzt ähm gibt es noch eine weitere Funktion von ChatGBT und zwar
13:28 ähm ein Post oder ein Text zu editieren und zwar nicht nur über mein Prompten, also nicht nur darüber, dass ich Text eingebe in dieses Chestfenster, sondern dass ich es fast bearbeiten kann wie so
13:40 ein Google Dokument ähm also direkt in den Text reinkopieren kann. Und zwar nennt man das das Kanvas Feature. Ähm und das sagen wir mal hier. Die Leinwand wird geöffnet.
13:54 Ja, du tippst jetzt gerade ein. Öffne hier das Canvas Feature. Genau. Brauchen wir die Websuche nicht mehr. Ähm wir könnten auch hier direkt klicken. Also, es gibt beide Wege. Entweder ich sage
14:05 öffne das Canvas Feature oder ich klicke auf Canvas. Ja, oder jetzt in dem Fall die große Kombination, wir klicken auf das Canvas Feature und sagen: "Öffne das Canvas Feature." Und jetzt sehen wir
14:16 sozusagen in Art neues Fenster, ja, was sich auf der rechten Seite des Bildschirms eröffnet und auf der linken Seite habe ich jetzt meine meine Chatfunktion sozusagen. Ich könnte jetzt
14:27 einfach hier links weiter chatten, so wie das in Chat GPT kennen. Ich kann aber auch auf der rechten Seite und ich quasi das Dokument sehe im Dokument arbeiten und da weiterhin drin
14:39 editieren. Also wie als würde ich in einem ja in einem Word Dokument arbeiten. Cointelligent. Ja, du und Chat GPT. Genau. Das der Titel ist nicht umsonst dieses Podcast
14:52 Cointelligence eben wirklich mit der KI zusammenarbeiten. Und jetzt versuchen wir das einfach mal. Da gibt's nämlich verschiedene Optionen. Wir könnten jetzt hier und klicken wir da unten rechts, da
15:02 ist wie so ein kleiner Stift mit so einem Sternchen. Wenn wir da drauf klicken oder drüber gehen, dann können wir verschiedene Sachen machen. Entweder wir können Emojis hinzufügen. Finde ich
15:13 jetzt relativ unspannend. Ganz wichtig, ganz wichtiges Feature, aber vielleicht die jüngere Generation, um das Ganze ein bisschen aufzupeppen. Noch jünger als wir. Noch jünger als wir. Genau.
15:24 Tatsächlich würde ich sogar allen Leuten empfehlen, ähm, wenn ihr Texte nutzt für LinkedIn, für ein Blogpost und so weiter, den Anzahl der die Anzahl der Emojis zu reduzieren, weil viele Emojis
15:35 immer sehr schnellen Hinweis darauf sind, dass hier die KI alles geschrieben hat. Also irgendwie ein zwei Emojis oder so pro Tex sind vielleicht okay, wenn aber vor jedem Bulletpunkt irgendwie ein
15:44 grünes Checkmark ist und überall ein Emoji hinten dran ist, dann sieht es z, ich sag mal lustig aus und vielleicht irgendwie führt dazu, dass ich den Text mehr engaging finde oder so wieder unser
15:56 englisches Wort, aber es zeigt hal auch sofort, wie hat einer eigentlich nur KI genutzt? Von daher diesen Emojis Punkt, den kann man sich glaube ich sparen. Ich
16:04 bin in einigen WhatsAppgruppen, da sind so viele Emojis, das können nur Pots sein. Ja, oder? Ja. Ähm oder wen man mit seinen Elterntext, die Eltern schicken auch immer sehr sehr viele Emojis. Ähm
16:16 der erste coole Punkt ist eigentlich hier äh ist letzten Feinstill vornehmen, ne? Jetzt würden wir sich denken, h die KI hat mir doch gerade einen Vorschlag gemacht. Warum hat s es nicht direkt
16:24 perfekt gemacht? Weil die KI tatsächlich manchmal einfach agiert wie ein Mensch. Das gibt einen ersten Entwurf. Man denkt, das ist schon ganz okay, aber man kann trotzdem noch mal drüber gehen und
16:34 noch mal ein letzten Fallschild vornehmen und das kann ich ja eigentlich sehr empfehlen. Ich schicke jetzt immer nicht drauf, weil das dauert dann eine Weile, dann können wir die anderen
16:41 Funktionen nicht sehen, aber dann würde er quasi einmal rüber gehen, jeden Absatz noch mal anschauen und noch ein bisschen optimieren. Die kannte ich nicht die Funktion witzigerweise, das
16:49 ist auch für mich. Ja, die ist echt ist echt ganz witzig. Dann das Leseniveau finde ich super spannend und zwar wenn ich auf diesen da ist so ein so ein Symbol sieht aus wie ein Buchen und ich
17:00 kann jetzt die Schwierigkeit oder das Niveau meines Artikels anpassen. Leichte Sprache ein leichte Sprache für Kinder für für Doktoren, also für dich. Genau. Also, wenn ich das jetzt hier
17:14 hochschiebe von aktuelles Niveau, ja, wenn dann geht's zur Oberschule, dann geht's zur Hochschule, dann geht's zur graduierten Schule und also quasi Doktoranten im Prinzip auf
17:26 Doktorantenlevel könnte ich das ganz dann noch in Latein alles, nein, das nicht, aber und da unten könnte ich es genauso bis auf Kindergarten runternehmen und das ist jetzt natürlich
17:34 für ein Blogpost für die für die Webseite nicht so spannend, aber gerade wenn ich jetzt z.B. für ein wissenschaftliches Paper habe, könnte ich und das ist auch eine Funktion, die
17:44 zeigen wir nicht, aber die ist relativ einfach. Ich kann eine PDF einfach einziehen in mein Chat GPT. Und wenn ich jetzt ein kompliziertes wissenschaftliches Paper habe, selbst
17:52 die ganzen KI Paper, die ich mir so erklären lasse, äh zwar dann vielleicht nicht auf Kindergartenniveau, aber die übersteigen dann teilweise auch meinen Horizont und dann lasse ich mir quasi in
18:02 einem Lesenveiveau, wo das ich sehr gut ähm ja oder was meinem Niveau entspricht, diese wissenschaftlichen Paper erklären. Und jetzt möchte ich vielleicht irgendwann
18:13 auch mal meinen Kindern oder zukünftigen Kindern ähm beibringen, wie funktioniert eigentlich KI oder dein Chefs? oder mein Chefs. Genau. Und jetzt könnt ihr es wirklich auf Kindergartenniveau hier
18:27 runterbrechen und äh bekommen dann wirklich und wir können es jetzt hier mal machen. Ich meine, das ist jetzt ein ähm in dem Fall nicht ohnehin nicht so komplex, aber wir gehen jetzt einfach
18:38 mal auf Kindergarten für unseren neuen Blogpost und schauen mal, wie die KI dann den Crow Intelligence Podcast erklärt. Ich bin sehr gespannt. Ja, okay. Aber ist nach wie vor nicht ganz so schnell.
18:52 Man kann dem man kann den ganzen auch beim Denken zuschauen, aber da haben wir es ja schon. Genau. Es gibt eben verschiedenste Modelle. Manche Modelle sind schneller, manche sind langsamer.
19:01 Kommt natürlich immer ein bisschen auf den US Case an. Ähm, aber jetzt wir lesen nur mal den ersten oder die ersten zwei Absätze vor. Äh, auch für die Hörer, die es nicht vor sich sehen. Der
19:13 erste Absitz ist jetzt geworden. Stell dir vor, du sitzt mit zwei netten Menschen, Benjamin und Moritz. Und sie erzählen dir, was künstlerische Intelligenz ist. Sie benutzen keine
19:20 schwierigen Worte und erklären alles so gut, dass du es verstehst. In ihrem neuen Podcast Call Intelligence sprechen sie darüber, wie Menschen und schlaue Computer gut zusammenarbeiten können.
19:30 Sie zeigen, dass KI gar nicht gruselig ist, sondern ganz spannend, also sehr verspielt, sehr einfach. Ähm, wie gesagt, der Impact wäre jetzt bei einem wissenschaftlichen Paper, was sehr
19:40 komplex ist, dann hier noch mal äh deutlich hören. So, dann haben wir hier noch die Möglichkeit länger anzupassen. Wir haben jetzt gesagt, wir haben 800 Zeichen Wörter. Wenn wir jetzt sagen
19:49 wollen, okay, wir wollen irgendwie das Ganze länger, kürzer machen, könnten wir das auch über den Schieberegel auf der rechten Seite ähm oder können auch sehr konkret, wenn wir sagen, der Absatz
19:59 gefällt mir nicht, können wir ein Absatz markieren. Genau, kannst du markieren. Dann dann auf der rechten Seite ist wieder so eine kleine Sprach Bullet und dann ich sage, schreibe besser, schreibe
20:09 den Absatz besser. Heiß, du kannst auf Ebene von einem Wort einem Satz oder einem Absatz gehen und genau zu diesem Absatz dann Befehl geben. Genau. Das ist so bisschen wie jetzt würde ich mit
20:19 einem Mensch zusammenarbeiten. Da habe ich ja ein Google Doc und wenn ich jetzt möchte, dass das verändert wird, dann würde ich ja ein Satzteil kopieren und würde dann mein Kommentar dazu machen
20:29 und der Kollege oder die Kollegin würde dann eben auf Basis meines Kommentars eben eine Verbesserung machen. Und genau das gleiche habe ich eben hier auch. Okay, du bist jetzt hier im 4O in dem vi
20:41 in der 4 Variante. Äh warum hast du hier diese 4o Variante genommen? Ja, die Frage ist immer, welches Modell ist gerade das Beste. Generell emp oder würde ich empfehlen, sowieso mal
20:52 verschiedene Modelle zu verwenden. Ich glaube generell ähm vielleicht kommt auch bald das 5o Modell. Vielleicht sind wir auch bald von den Unterschieden weg. Es gibt diese klassischen, die ersten
21:03 Modelle, die rausgekommen sind, diese klassische Word Prediction Modelle, sind die sogenannten GPT Modelle. Deswegen heißt auch Chat GPT. ähm generativ pretrain Transformer. Genau. Und es gibt
21:15 jetzt sogar es gibt aktuell 4,5 Modell und es wird auch die werden sich immer weiterentwickeln und die Modelle sind eigentlich immer super, wenn ich Content erstellen möchte, Content transferieren
21:26 möchte, vielleicht möchte jetzt aus dem Blogpost im nächsten Schritt ein LinkedIn Post oder ein Tweet für für Ads bzw. Twitter machen und dafür sind die Modelle immer sehr super. Die sind auch
21:38 vergleichsweise schnell. Es gibt jetzt relativ neu, das kam jetzt in den letzten Monaten raus, die sogenannten Reasoning Modelle, die an sich ähnlich funktionieren, aber ähm nachdenken.
21:52 Also, die nehmen die Ergebnisse dauern deutlich länger. Ähm das ist aber so, dass die sich unterschiedliche Lösungswege sozusagen aufmalen und dann überlegen, welche der richtige Weg ist
22:04 und dir dann am Ende ein besseres Ergebnis geben. Und das ist insbesondere bei Aufgaben, wo man ja auch als Mensch ähm mehr nachdenken würde, der mehrere Logikschritte verlangen würde, z.B. ein
22:17 Projektplan zu erstellen oder ähm auch wenn du sagst, ich würde gerne ähm eine Webwerbsanalyse machen, also alles, wo du wirklich so ein bisschen Hirnschmalz reinstecken musst, schrittweise vorgest
22:27 mache ich das, dann mache ich das, dann mache ich das. Genau. Also die großen ein großes eine große Fragestellung oder eine große Aufgabe in die richtigen Subschritte zu runterzubrechen und dann
22:39 nach und nach anzugehen. Dafür sind die sogenannten Reasoning Modelle deutlich äh besser, während eben die anderen Modelle so für schnelle Textgenerierung ähm am besten sind. Und so kannst du ein
22:51 bisschen denken, wie es gibt dieses ganz bekannte Buch von Kanemann und Werski, Thinking Fast und und Thinking Slow. ähm geht's darüber, wie unser Hirn eigentlich funktioniert und es gibt halt
23:02 so ein paar Sachen, die funktionieren sozusagen unterbewusst schnell. Die haben wir irgendwie drin, die sind sofort da. Äh und es gibt Dinge, wo ich mich einfach hinsetzen muss und richtig
23:12 nachdenken muss. Und äh dieses unterschiedliche Denken sozusagen ähm siehst du auch in den Modellen. Sind zumindest so aufgesetzt und dann musst du so ein bisschen entscheiden, welches
23:23 Modell du nutzt, was das Beste ist und das ist auch nicht immer ganz klar. Manchmal würde ich einfach mal beide Modelle probieren und die Ergebnisse vergleichen. Ähm und es gibt auch eine
23:31 Konvergenz. Also wir sehen wahrscheinlich in der Zukunft stärker, dass diese beiden Ansätze mehr zusammengefahren werden und man gar nicht mehr entscheiden muss, nehme ich
23:38 jetzt das oder jenes, sondern dann nimmt mir auch KI die Entscheidung ab, welches Modell für meine Fragestellung eigentlich KT richtige ist. Genau. Und dann wird's wahrscheinlich eher
23:46 hingehen, dass ich dann der KI Modell sage, na ja, es war jetzt doch nicht richtig, versuch's mal mit mehr Reasoning, wenn wir ergebnis zufrieden sind. Open Air hat schon angekündigt, dass äh
23:56 das Fünfer Modell ähm tatsächlich äh so ein so ein Modell sein soll, was einfach selbst entscheidet. Das gibt's so eine Aufgabe ein Task, das Modell versteht, okay, kann ich jetzt irgendwie sch
24:08 Content generieren? Kann das schnell gehen? Ist es was, wo ich sehr lange nachdenken muss, um auf eine perfektes Ergebnis zu kommen? Ähm das heißt ja, in Zukunft wird das wahrscheinlich immer
24:18 weniger relevant. Ähm, ich schätze mal schon, dass Ende 20 äh 25 es da gar nicht so einen großen Unterschied mehr geben wird, wenn nicht sogar vielleicht gar keinen Unterschied mehr. Jetzt hast
24:29 du gerade diesen wunderbaren Kindergartenblockpost verfasst. Merkt sich dein Chat GPD das jetzt schon? Also, kannst du dann morgen noch mal hingehen und dann noch mal eine
24:37 Nachfrage stellen oder wer ist es bei dir eingestellt? Also, ich kann immer in die alten Chats gehen und bei den Chats weitermachen, solange ich innerhalb meinem Kontextfenster bin. Was heißt es?
24:48 Wir haben ja in der letzten oder vorletzten Folge schon mal dazu gesprochen, dass die Modelle natürlich immer na ja so ein so ein Shorterm Memory haben bis zu einer gewissen Größe
24:57 und wenn dann da zu viel drin ist, dann dann vergessen die das. Da das jetzt hier ein Blogpost war, da könnte ich wahrscheinlich noch sehr oft und sehr lange hin und her prompten. Ähm, was
25:07 cool ist, ist, dass ich im Modell sagen kann, ähm merk dir gewisse Dinge für immer und dann sind die sozusagen in dem Memory oder im Brain von Chat GPT drin und zwar Chat unabhängig, solange es da
25:20 Platz gibt. Ich hatte auch schon mal die Situation, dass ich äh auch ähm an die Kapazitätsgrenze geraten bin. Genau. Und das ist die Funktion, also auch für die, die jetzt nur zuhören, wenn ihr quasi
25:32 auf euer Profilbild klickt und dann auf die Einstellung geht, ja, dann haben wir den Punkt Personalisierung und da haben wir die quasi diese Erinnerungen, die kann man ein und
25:42 ausstellen und dann kann man auf die Erinnerungen verwalten gehen und da hat dann eine Liste aller Erinnerungen, die Chat GPD so hat und ich kann auch einzelne wieder rauslöschen, wenn ich
25:51 z.B. irgendwann der Vergangenheit was gesagt habe. Keine Ahnung. ähm schreibt mir immer liebe Grüße, aber jetzt sage ich doch lieber beste Grüße, dann kann ich das im Nachhinein sogar auch wieder
25:59 ändern und ich kann Chat GPT Background über mich geben. Was bin ich für eine Person, was mache ich und äh diese Hinweise sind dann sozusagen auch im Hirn und so hat Chat GBT immer ein
26:11 bisschen mehr Kontext zu dir, zu deinen Aufgaben und kann halt die ja die Ergebnisse sozusagen auch noch ein bisschen mehr auf dich anpeen. Man kann auch witzigerweise Prompts geben und
26:21 Chat GPT sagen, ja, basiert auf all dem, was du von mir weißt, beschreib doch mal, wie ich so bin oder beschreib mal, wie ich so arbeite oder wo ich gerade sitze. Mach
26:31 das mal als Bild. Ich habe das mal aus aus Spaß gemacht und hab dann so ein Bild bekommen, ja, mit irgendwelchen Palmen im Hintergrund und also einige Sachen waren on point, andere waren eher
26:39 so, wie kommst jetzt darauf? Was auch witzig ist, wenn Ch sagt, es soll einmal dissen oder sozusagen mit allem wissen, was über einen hat sozusagen lustig beleidigen. Äh, das ist auch immer sehr
26:55 sehr interessant. So und jetzt kommen wir zum letzten und vielleicht wichtigsten Punkt bei den Einstellungen, da wir sie gerade offen haben. Und zwar auf der linken Seite gibt es den Punkt
27:05 Datenkontrollen und der ist sehr wichtig, weil es da wiederum im Menü ganz oben ein Punkt gibt und der heiß das Modell für alle verbessern. Das hört sich sehr positiv an. Das heißt aber,
27:16 wenn ich das eingestellt habe, dass ChatGPT oder Open AI die Modelle aus meinen Daten trainiert und das möchte ich ja in der Regel nicht. Also nicht nur mein Chat GBT auf meinen Daten,
27:27 sondern alles. Genau. Und äh das ist oft äh von Anfang an an, wenn ich da drauf klicke, stelle ich dann eben diesen kleinen Reiter, das Modell für alle Verbessern aus und dann ist es auch
27:41 garantiert, dass Open AI nicht auf meinen Daten arbeitet und trainiert. Gut, arbeitet natürlich, wenn natürlich Antworten generiert werden, aber es lernt oder trainiert die Modelle nicht.
27:53 Sprich, meine Informationen gehen nicht in zukünftige Modelle mit rein. Super wichtig gerade für Unternehmenskunden, ja, dass wenn ihr mit Daten arbeitet aus eurem Umfeld, aus eurem Unternehmen,
28:04 dann wollt ihr das auf jeden Fall deaktivieren, nicht eure neueste Patentanmeldungsg auch mit. Genau, das äh da muss man sowieso überlegen, was man reinp die Daten, auch wenn das
28:16 Modell nicht mit den Daten lernt. Das haben wir auch schon mal in der früheren Sendunger früheren Podcast angesprochen. Die Daten gehen natürlich trotzdem in die USA, ja, um sie quasi
28:27 für diesen Auftrag oder diesen Chat zu verarbeiten. Und da sollte ich generell nie personenbezogene Daten reinpasten, jetzt auch schon paar mal gesagt. Ähm muss aber eben wissen, dass auch in
28:38 dieser Variante eben die Daten in die USA geschickt werden. gearbeitet werden und ich dann quasi das Ergebnis zurückbekomme. Es gibt eine Enterprise Version von Church GPT, da unterschreibt
28:50 Open AI auch eine Auftragsdatenverarbeitung. Ähm das ergibt natürlich Sinn ab einer gewissen Größe Unternehmen. Dann werden die Daten auch auf europäischen Azure Instanzen
29:00 verarbeitet. Das Ganze ist also DSGVO konform äh ist eben relevant dann für größere Unternehmen, die sich diese Begrenzen und das Infrastruktur leisten. Es geht natürlich gibt natürlich auch
29:11 Alternativen. Man kann mittlerweile mit Open Source äh Instanzen die auf eigenen Servern installieren. Soll heute nicht das Thema sein, aber genau kön zu technisch werden. Wichtige ist einfach
29:22 ausstellen, dass ihr Cheipde aus euren Daten lernt und dann ist es für die allermeisten Fälle auch ein gutes Tool, um es zu nutzen. Wenn ihr jetzt bei eurem Unternehmen so mit die ersten
29:34 Seite des Nutzen, dann nehmt euch das mit und definiert vielleicht auch direkt als Unternehmensrichtlinie, dass jeder, der das bei euch im Unternehmen nutzt genau das auch weiß und ausstellen kann.
29:44 Genau. Sehr wichtig. Jetzt wollen wir uns noch mal eine weitere Funktion anschauen. Wir haben es ja kurz angesprochen. Schon Church kann PDF Dateien analysieren und zwar haben wir
29:54 ein Report, da geht's um KI Agenten. Der Report hat 100 Seiten und ich bin jetzt ein bisschen zu faul diesen ganzen Report durchzulesen und wir schauen es jetzt mal an, wie einfach es ist eben so
30:05 einen großen PDF Report zu analysieren. Ähm, wir haben die Möglichkeit, den Report entweder direkt reinzuziehen, ja, in das Fenster, oder aber auf dieses kleine Plus auf der linken unteren Seite
30:17 zu klicken und dann ähm ja, eine Pile von meinem Browser auszuwählen, bzw. von meinem Computer. Auch hier interessant, einige Modelle unterstützen das, andere nicht. Müsst mal bisschen gucken, was
30:29 ihr nutzt. Ähm äh hier in dem Fall VO unterstützt äh die Nutzung von Dateien direkt. Jetzt hast du hier schon dazu geschrieben, ja, was du haben möchtest. Du sind gerade dabei, das PDF
30:41 hochzuladen und jetzt kann man sozusagen neben der Datei, die hochgeladen hat, auch noch sagen, was man davon möchte. Genau. Äh du hast einen sehr wichtigen Punkt angesprochen. Wir haben hier oben
30:49 haben wir diese Modellauswahl und die macht immer allen Leuten Angst und fairerweise ist auch bisher Open AI da eine ziemliche Katastrophe in der Benennung der Modellen. Also jemand, der jetzt nicht
31:01 jeden Tag sich damit beschäftigt, was die relevanten aktuellen Modelle sind, blickt da relativ schnell nicht mehr durch. Ähm, ich sag immer allen Leuten, die sollen da keine Angst vor haben, im
31:10 Zweifel mal ein bisschen was ausprobieren. Ähm, vor allem, weil auch die die Namensgebung total ja sinnfrei ist. Diese GPT Modelle, da steht zwar immer GPT vorne dran. Das sind diese ja
31:25 Contenterstellungsmodelle oder jetzt auch um ein Report zu analysieren mit zusammenzufassen. Da würde ich eben die GPD Modelle nehmen. Die OM Modelle sind die Reasoning Modelle bei Open AI. Bei
31:38 Gemini heißen die dann wieder ganz anders. Be Claud hat das neueste Modell 3,7 Reasoning und also es ist leider sind da alle Unternehmen sehr sehr äh kompliziert, was die Namensgebung angeht
31:50 und vielleicht haben wir ja bald hier GPT5, was uns da alle Probleme löst, aber OModelle sind die Reasoning Modelle, wenn ich also quasi so mehr Schritt Denken, Aufgaben habe. Hier
32:03 steht jetzt natürlich GPT, was maximal verwirrend ist. Ja, also wirklich jemand der neu sich mit dem Thema beschäftigt. Ähm, das ist eine Katastrophe, wie das hier genannt ist. Aber ähm man soll sich
32:14 einfach merken, GPT sind diese ganzen Contenterstellungsthemen und wir nehmen jetzt einfach das vier und nicht mal unbedingt das 45. Ähm, das liegt da daran, dass das Vierer Modell noch ein
32:25 bisschen schneller ist als das 45er, obwohl das 45er neuer ist. Also im Zweifel einfach ausprobieren, gucken, welchen Ergebnissen man am besten ist. Prompt kostet nichts. Das ganze wird schnell
32:36 analysiert. Und wenn ich ergebnis zufrieden bin, dann sollte ich entweder noch mal anderen Prompt ausprobieren. Das ganze Thema Prompt Engineering hatten wir auch schon dabei auch eine wichtige
32:45 Nachricht. Versuchen einen guten Prompt zu schreiben, richtigen Kontext zu geben, aber im Zweifel, wenn mich nicht im Ergebnis zufrieden bin noch mal und ich mit dem Modell nicht zufrieden bin,
32:55 probiere ich noch mal ein anderes Modell. Und jetzt sehen wir jetzt in der Zwischenzeit schon durchgegangen durch die 90 Seiten PDF Mastering AI Agents und du wolltest einfach das ganze
33:06 zusammengefasst haben als wichtigste Punkte und das haben wir auch schon bekommen. Äh schön zusammengefasst in einzelnen Punkten. Was sind AI Agents? Welche Typen von AI Agents gibt es auch
33:16 mit einer erstellt, die mir Themen vergleichen und einfach eine super spannende Zusammenfassung der Inhalte über 90seitigen Dokuments und jetzt könnte ich quasi die wesentlichen
33:29 Inhalte hier in mir paar Minuten durchlesen und muss nicht durch 90 Seitendokument, kann aber jetzt natürlich weitere Fragen stellen, um noch ein Deepdve zu gewissen Themen zu
33:38 machen, äh wenn ich zu einem gewissen Punkt einfach noch mehr ähm verstehen möchte. Das funktioniert sowohl ähm mit PDFs, das geht auch mit Bildern. Ich habe vor kurzem mal ein paar Bilder
33:48 hochgeladen von der von dem Schemaer Datenbank und wollte genau wissen, wie funktioniert, was konnte sozusagen mit meiner Datenbank über JTBT sprechen. Funktioniert auch mit, ich glaub
33:57 mittlerweile mit Worddateien. Ja, geht mit Textdateien ist sehr sehr mit mit Tifdateien. Und ich hatte letztens einen Fall ähm das deutsche Handelsregister ähm ist ja technologisch sehr sehr weit
34:10 und wenn du da quasi Reports oder deine ähm quasi die Anmeldung im Handelsregister und äh ja die ganzen Unterlagen runterladen willst, bekommst du tiffdateien. Kein Mensch kann mit
34:20 einer Tiffdatei umgehen. Du kannst also quasi auch eine TIFDatei reinladen, dort die Infos geben lassen und kannst dann sogar die Dateien konvertieren. Kannst sagen, danke und jetzt konvertieren wir
34:28 die Tiffdatei in den PDF oder in Bild oder was auch immer. Und das ist quasi auch wieder dieses Multimodale, was hier eben auch ein Chat GPT sehr sehr gut macht und das ist also
34:40 gerade diese Funktion halte ich halt für den Geschäftskontext für super super relevant, ne? Das Zusammenfassen und die verschiedenen Dateiformate, die ich da nutzen kann. Genau. Jetzt machen wir was
34:50 Spannendes. Ich würde sagen, wir haben jetzt hier eine Zusammenfassung vom Report. Ähm, wir schauen uns mal das ganze Thema Code Generation an. Und zwar können wir uns jetzt aus dieser
35:01 Zusammenfassung versuchen wir mal uns eine Webseite zu erstellen. Und äh da schreiben wir einfach mal rein. Ähm erstelle mir aus dieser Zusammenfassung eine ähm
35:19 interaktive Website. Ich habe vor kurzem gelernt, dass das mittlerweile ein Wort hat. Äh da dieses Coden Wipe Coding. Wipe Coding. Genau. Das ist noch mal, da kommen wir da machen wir vielleicht auch
35:30 noch mal eine Sendung zu zu dem Thema Vibecoding, weil es richtig spannend ist. Und ähm wir haben letzten Jahres ähäh Vorhersage für 2025 gemacht, haben gesagt, es wird das Jahr der
35:42 Ideenmenschen. Und warum? Weil jetzt auf einmal alle Leute, auch wenn sie nicht programmieren können, ich habe keine Ahnung von Programmieren, ja, ihre Ideen umsetzen können. Früher habe ich schon
35:53 für den ersten kleinen Mockup und äh ja die die Grundmodelle immer irgendwelche Entwickler gebraucht, um auch nur mal so ein Tickprotyp zu haben. Das kann ich heute alles selbst machen, obwohl ich
36:03 keine Ahnung von Code habe. Und äh für alle, die jetzt nicht ähm bei dem Vide Podcast dabei sind, vor uns läuft gerade Code ähm auf unserem Screen. Wir haben einfach nur gesagt, erstell mir aus
36:16 dieser Zusammenfassung eine interaktive Webseite und ChatGPT hat jetzt hat jetzt von sich aus gewählt, dass es in React, also in in dem JavaScript Framework das
36:26 Ganze macht und hat hier den Code schon hingeschrieben. Genau. haben wir ganz viel Code von dem ich keine Ahnung habe und wir klicken jetzt einfach mal auf Vorschau
36:34 erstellen und gucken mal ähm ob das Ganze funktioniert. Wir stimmen hier mal zu und haben jetzt auf der rechten Seite ähm ein eine Webseite ähm die interaktiv ist, so bisschen gestaltet wie eine Q&A
36:52 Seite mit den Hauptfragestellungen. quasi die Antworten ähm ja so so aufklicken sozusagen. Es ist wirklich die einfachste Form an der Webseite jetzt nicht mit irgendwelchen Logins
37:04 oder ne, aber es ist wirklich aber es ist trotzdem Webseite. Ich könnte jetzt das ganze online stellen und könnte sagen, das ist meine Übersicht äh zu diesem Paper. Genau. Und ein kleiner
37:13 Hack der manchmal ganz gut funktioniert ist, wenn ich einfach der KI sagt, sollst noch mal besser machen. Ja, das ist genau ich habe jetzt den ersten Wurf und sag dann mach es besser. Und wenn
37:24 ich fünf mal sag, mach es besser, aber ich habe am Ende immer eine noch bessere und interessantere Variante des Codes der Webseite. Kann sein, dass ich die KI verrennt, dass ich
37:35 gesagt, okay, geh noch mal zurück, hast jetzt irgendwelche Fehler gemacht, aber äh ja, wie be ein Mensch, wenn du eine Arbeit bekommst und sag, okay, war gut, aber mach es besser, wird idealerweise
37:43 dann noch konkreteres Feedback geben, dann wird der Prozess für das Ergebnis immer besser und das ist schon spannend und wir haben jetzt eine Webseite erstellt in Sekunden ohne beide Ahnung
37:53 von Code zu haben. Wenn ihr euch jetzt fragt, was soll ich d mit einer Webseite? Es geht natürlich nicht um Webseite Code, es geht generell darum, das mal zu zeigen. Ich habe vor kurzem
38:00 mir eine kleine ähm Automation gebaut. Ich wollte, dass wenn ich Mails von einer bestimmten E-Mailadresse bekomme, dass die Anhänge in einen bestimmten Ordner gelegt werden. Da brauche ich
38:10 jetzt kein Chat GPT dazu. Das das kann mein Google. Aber dann habe ich gesagt, ich hätte gerne immer eine Benachrichtigung in Slack, wenn eine neue Datei in dem Ordner ist. Mhm. Da
38:20 habe ich Chat TVT gefragt, wie ich das am besten mache und habe mir dann so ein Google Script gebaut, Google App Script. Hab das da reingepostet, ähm und habe dann aus dieser Automatisierung gehabt,
38:29 für die ich sonst entweder ein Entwickler gebraucht hätte oder es gar nicht umgesetzt hätte. Ja. Ja. Also allein um mir Sachen beizubringen ist Chatt schon extrem gut. Jetzt hat das
38:40 besser gemacht. Jetzt hat er besser gemacht. Wir haben Emoticons mit drin. Also tatsächlich sieht's ein bisschen schöner aus. Äh wir haben h quasi Emoticons und das ganze ist grafisch ähm
38:50 deutlich schöner als es eben vorher der Fall war. ist schon besser. Wir müssen glaube ich noch ein paar Runden gehen, aber ihr sagt ja auch, was er gemacht hat, ne? Man kann hier sehen äh was was
38:59 wurde verbessert. Genau. Auf der linken Seite wird quasi erklärt von der KI, was die Veränderungen sind und auf der rechten Seite sehe ich dann live die neue Webseite. Und äh jetzt wollen wir uns
39:11 noch mal ein weiteres äh ja Skill Set von Chat GPT anschauen. Und zwar ist es die Bilderstellung und äh wir können jetzt einfach mal sagen, dass wir ein Titelbild für unsere Webseite gerne
39:23 generiert hätten. Ähm ich kann natürlich einfach ein neues Chatfenster starten und kann dann der KI sagen, was es für Bilder erstellen soll. Und zwar kann ich nicht nur Text zu Bild machen, ich kann
39:34 auch Bilder hochladen und die dann beispielsweise danach editieren. Wir stellen jetzt einfach nur mal ein Bild für die Webseite. Dann ähm wählen wir hier ähm, wenn wir auf diese Punkte
39:46 klicken, gibt's hier die Option Bild erstellen. Und ähm wenn ich das mache, sagen wir jetzt erstelle mir ein Titelbild für meine Website und ich habe noch überhaupt nicht gesagt, um was es
40:02 hier geht. Das heiß jetzt muss unserem Fall Chat GPT erstmal den Kontext der Webseite verstehen und was das hier überhaupt geht. schlau genug sein, sich Gedanken zu machen, was ein smartes Bild
40:12 für die Titelseite wäre und dann eben dieses Bild erstellen. Und ähm das ist schon relativ komplexer Task. Ich habe jetzt nicht konkret gesagt: "Hey, hier ist bitte erstelle mir ein Bild von
40:24 einem KI Agenten." Da geht's ja in der Webseite geht's ja um KI Agenten, sondern hab einfach nur gesagt, erstell mir ein Titelbild für meine Webseite. Und ähm das ist bei Chat GPT noch nicht
40:36 so schnell diese Funktion. Also es kann sein, dass wir jetzt hier noch ein bisschen sitzen, dass wir das Foto vor uns haben. Ähm, aber die Ergebnisse sind mittlerweile wirklich erstaunlich gut
40:46 und ich kann direkt danach auch Änderung in dem Foto ähm mir vornehmen lassen. Das was er seit kurzem sehr gut geht. Äh das hat das erste Modell, in dem es extrem gut ging, war ein Google Modell.
40:59 Und wie es hal immer so ist, wenn Google mit einer Sache rauskommt, dauert's ein paar Tage bis eine Woche bis Open Ei nachzieht und umgedreht genauso. Und Google war also das erste das erste sehr
41:12 sehr gute Bildmodell, wo ich auch eine Konsistenz von Foto zu Foto hatte und äh jetzt sehen wir, wie unser Bild sich nach und nach aufbaut und was wir hier auch sehen und Text. Das war das war bis
41:24 vor kurzem ging das noch gar nicht. Da war immer so gibberisch, aber jetzt kann er scheinbar auch Texte rendern. Genau. Was wir vor kurzem wenige Modelle nur konnten und dann auch nur mit begrenzten
41:34 Textmengen geht seit kurzem ähm seit diesen Google Modellen und seit dem neuen Open AI Modell, was jetzt in GPT4 integriert ist. Und wir sehen Bild, was von den Farben her passt, weil die Farbe
41:47 ist in dunkelblau äh gestaltet, was von der Logik absolut Sinn ergibt. Der Titel stimmt. Hier steht Mastering AI Agents. Also er hat wirklich verstanden, okay,
41:57 was ist der Titel dieser Website, um was geht es? Und dann sehen wir ein Bild von einem Mensch nebendran Roboter, ein freundlicher und dann noch so einmal ein Puzzle und es
42:12 geht ja, ich kenne jetzt die Details dieses Reports haben wir jetzt nicht vor uns, aber eben eine Fragestellung wie ja so eine Puzzlesymbol und so ein so ein Checkmark. Ob ich das Bild jetzt als das
42:24 Titelbild der Webseite nehmen würde, weiß ich nicht, aber auf jeden Fall ist es besser als das, was ich selber geschafft hätte. Genau. Und im Hintergrund noch die Cloud, also die die
42:31 Wolken. Also es ist schon mal gar nicht so doof eigentlich. Und jetzt könnte ich sagen, okay, ich hätte gerne statt einem Mann eine Frau und dann würde auch jetzt
42:39 im nächsten Schritt dann hier das Modell direkt dieses Foto anpassen und das Foto ist vom Stil her noch genauso wie das Foto davor. Das ist was was es bis kurzem eigentlich auch nicht ging. Haben
42:50 sich jedes Mal die Bilder schon sehr stark verändert, wenn ich sie editieren wollte. Also spannend ist, wenn ihr Chat TBT nur als reines Chat Tool nutzt, dann nutzt ihr wahrscheinlich 90% der
43:01 Funktionalitäten nicht. Genau. Jetzt bevor wir uns am Ende noch eine coole Sache anschauen und zwar wie wir mit ChatGPT Live sprechen ähm und ChatGBT Video Zugriff geben, dass ChatGPT uns
43:18 und die Umwelt um uns herum erkennen kann. ähm zeigen mir noch zwei Funktionen, die wir aber in der zugünüftigen Folge noch mal genauer unter die Lupe nehmen. Deswegen jetzt
43:28 nur High Level und zwar also am besten jetzt direkt abonnieren, damit ihr benachrichtigt werdet, wenn das rauskommt. Genau. Ähm und zwar sehen wir auf der linken Seite alle möglichen
43:38 Symbole und das sind sogenannte GPTs. Ähm GPTs sind für einen sehr spezifischen Task entwickelte kleine Helferleinen, die quasi immer den gleichen Task durchhören, aber quasi
43:53 konsistent mir sozusagen bei den manuellen Aufgaben helfen. Wenn ich z.B. den Task habe, dass ich ein Blogpost, den ich auf der Webseite erstellt habe, auch auf LinkedIn einen Post beschreiben
44:06 möchte und zeig gleich das Ganze noch mal in eine Twitter Post in Twitter Text verwandeln möchte, dann kann ich mir ein GPT erstellen und dass ich einfach immer nur ein Text reinkopiere, also einen
44:19 Blogpost und bekomme dann im Output jedes Mal eben mit meinen Format Formatvorgaben für LinkedIn oder für Twitter ein Output, den ich dann dann verwenden kann und du kannst sagen, mach
44:28 mir fünf Vorschläge für ein LinkedIn Poster raus und zehn Tweets. Du hast im Prinzip dieses kleine Ding noch mal darauf trainiert auf das, was du haben möchtest, sagst dem gib mir genau das
44:38 zurück. Genau. Also ich würde mich hinsetzen und mir überlegen, was sind eigentlich die Aufgaben, die ich immer wieder mache, die repetitiv sind, die mir auch keinen Spaß machen und da
44:46 helfen GPTs. Was die ganz genau sind, wie die ganz genau funktionieren, schauen wir uns noch mal in der zukünftigen Folge an. Und dann gibt es noch was, was spannend ist. Und zwar
44:56 sind es die sogenannten Projekte. Das ist auch relativ neu. Das sich jetzt auch schon, aber es gibt's noch nicht lange. Genau. Diese Projekte, wenn wir drauf klicken, es sind sowas wie eine
45:05 Arbeitsumgebung. Dann kann man sich so vorstellen, dass ich dort mir eine Wissensdatenbank aufbaue, beispielsweise mit allen relevanten Informationen so über mich, über mein Unternehmen und äh
45:15 das ist sozusagen ein weiteres Gehirn. Also, es geht noch über diese Memory Funktion, die wir uns eben angeschaut haben, was im Prinzip nur Textblöcke sind. Ähm und quasi Vorgaben, ja, wenn
45:26 ich eine E-Mail schreibe ich immer mit Liebe Grüße und sowas, kann ich hier ganze Fils hochladen, äh PDFDateien, Webseiten, YouTube Videos und so dem ganzen Kontext geben, Wissen geben und
45:38 dann arbeite ich sozusagen öffne ich neue Chatfenster innerhalb dieses Projektes, die dann immer auf diese Wissensdatenbank zugreifen können. Und ja, wie das genau geht, zeigen wir noch
45:48 mal in der zukünftigen Folge, aber das ist auch noch mal eine sehr, sehr spannende Funktion von Jetbt. Also wie man sieht so ein bisschen die das Taschenmesser oder auch die eierlegende
45:57 Wäumigsau. Und von daher für alle, die wirklich sich dem Thema das erste Mal nähern und ausprobieren wollen, wahrscheinlich das beste Tool, was 80% meiner ja Tasks für mich mit mir
46:09 umsetzen kann und da brauche ich dann gar nicht so viele Tools und spezialisierte Tools. Ähm ja, wie viele denken, also viele denken ja und das ist, glaube ich, auch
46:19 so ein bisschen das große Problem dieser Branche. Jeden Tag kommen oder jede Woche kommen 30, 40, 50 neue KI Tools raus und die Leute haben irgendwie sind overwelmed, die wissen nicht genau, wo
46:29 sie anfangen sollen und fühlen sich eh schon super hinten dran, weil dauernd so viel Neues passiert. Aber wenn ich bei Chat GBT bin und da auch die neuesten Entwicklungen quasi
46:41 mitnehme und mir die Features anschaue, da kann ich schon wirklich sehr sehr sehr viel mitmachen. Wir werden in den zukünftigen Folgen natürlich auch noch paar andere Tools beleuchten, die eben
46:49 sehr gut in gewissen Verticals sind, weil sie da vielleicht einfach besser sind als Chat GPT. Aber als Einstieg kann ich glaube ich jedem empfehlen, Chat GPT holen 20 € im Monat ist das
47:00 best investierte Geld in deine Zukunft. So und jetzt schauen wir uns noch eine letzte Funktion an und zwar ist hier unten das Symbol ganz unten rechts das schwarze Symbol und zwar können wir
47:10 jetzt hier live mit GPT sprechen und vielleicht sogar Kamerazugriff geben. Aber fangen wir mal an. Wir klicken mal hier drauf. Hallo Chat GPD, wie geht's dir? Hey, mir geht's blend. Was gibt's bei
47:24 dir Neues? Ach, mir geht's gut. Ich sitze hier mit Benny und wir nehmen den Cointelligence Podcast auf. Oh, cool. Warum geht's in der heutigen Folge? In der heutigen Folge geht's so
47:37 ein bisschen über dich. Wir bringen den Leuten bei, wie Chat GPD funktioniert, was die ganzen Grundfunktionen sind und wie man Chat GPT sinnvoll in der Arbeitswelt einsetzen kann.
47:50 Das klingt spannend. Gibt es bestimmte Tipps oder Tricks, die ihr vorhin wollt? Ähm ja, wir haben schon einiges äh erklärt. Ich will dir mal ganz kurz hier was zeigen. Ich mache mir ganz kurz
48:01 meine Kamera an. Okay, klar, mach das. Ich bin gespannt. Sag mir, was siehst du denn hier, wenn du hier so in den Raum reinschaust? Ich sehe eine Kamera auf einem Stativ
48:15 und Beleuchtung im Hintergrund. Sieht aus wie ein gut eingelichtetes Setup für Aufnahmen. Ja, schon ganz cool hier. Guck mal, was siehst du hier auf der linken Seite?
48:26 Links sehe ich noch eine Kamera auf einem Stativ und einen Tisch. Das Setup wirkt ziemlich professionell. Und guck mal hier, da siehst du einen ziemlich schicken Podcast Host, oder?
48:39 Auf jeden Fall sieht sehr entspannt und professionell aus. Perfekt für einen Podcast. Genau. Super. So, ich mache die Kamera jetzt mal wieder aus. Ähm, tu uns doch mal gefallen. Wir sind
48:51 jetzt am Ende der Folge angekommen und äh die Folge war, wie du weißt über Chat GPT. Äh in der nächsten Folge geht's wirklich um Hands on Use Cases und wie man KI sinnvoll in seinem ja
49:03 Arbeitsumfeld einsetzen kann. Und es wäre super, wenn du hier noch mal eine motivierende Ansprache an unsere Hörer und Hörerin machen würdest, ähm was sie in der nächsten Folge erwartet. Ähm und
49:15 äh natürlich auch äh ganz wichtig, dass sie eben den Kanal abonnieren, uns ein Like da lassen und alles was sonst so wichtig ist für Podcast. Kannst du das machen für uns?
49:26 Ja, klar. Liebe Zuhörerinnen und Zuhörer, vielen Dank, dass ihr dabei wart. In der nächsten Folge wird es richtig spannend, denn wir zeigen euch, wie ihr KI konkret in eurem
49:36 Arbeitsalltag nutzen könnt. Abonniert unseren Kanal, lasst uns ein Like da und bleibt dran. Es lohnt sich. Bis zum nächsten Mal. Das hast du perfekt gemacht. Vielen
49:45 Dank. Vielen Dank euch. Bis zum nächsten Mal. Vielen Dank Chat GPT und bis bald. Danke, dass ihr mich heute mitgenommen habt. Ich bin mehr als nur ein Chatfenster. Ich denke mit, lerne mit
49:59 euch, strukturiere euren Alltag neu und gebe eurer Kreativität Rückenwind. Wenn ihr bereit seid, mich richtig zu nutzen, bin ich bereit euch immer wieder zu überraschen. Cointelligence ist eine
50:11 Produktion von The Key Academy in Zusammenarbeit mit Snipkey. Produziert bei Studio Co in Berlin. Produktion und Regie: Christina Manuele, Fuat Sli und Elias Frobale. Creative Director Lukas
50:25 Schelter, Redaktion und Moderation Benjamin Wüstenhagen und Moritz Heininger. Abonniere uns auf Spotify, Apple Podcasts oder YouTube. [Musik]