// Transkript
#35: Prompting ist tot? Warum KI jetzt den Prompt schreibt
Vollständiges Transkript dieser Episode des Co-Intelligence Podcasts. 5.901 Wörter. · Auf YouTube ansehen ↗
0:00 Intro & Thema
0:00 Das größte Modell gerade ist irgendwie eins von diesen Crockmodellen. Crck 4 Fast 2 Millionen Kontextfenster. Die GPT Modelle, die nur neu, die haben nur 400 000 beispielsweise,
0:11 wenn man jetzt von 2 Millionen Kontextfenster spricht, dann meint man 2 Millionen Token und 2 Millionen Token sind so je nachdem man rechner vielleicht so 1,25 Millionen Wörter, das
0:20 so viel wie alle sieben Harry Potter Bände zusammen.
0:27 Willkommen zurück zu Cointelligence, eurem KI Lern Podcast mit Moritz Heininger Nala und mir Benjamin Wüsenhagen. Weiß so schön ist, dass ist wieder dabei. Die ist eine arbeitslose Prompt Engineerin.
0:40 Genau. Die Wolle gibt es nicht mehr. Heute geht's nicht nur um Prompts, es geht viel mehr um Meta Prompting, um Context Engineering und ein bisschen um Agenten und um Spider-Man.
0:53 Und um Spider-Man. Genau. Und mit Spider-Man wollen wir anfangen und zwar mit dem bekannten Meme, das ihr kennt quasi der eine Spider-Man auf den anderen Spider-Man zeigt. Und zwar ist
1:04 es eine gute Einleitung zum Thema Meta Prompting. Und was ist Metapompting? mit der KI zu prompten. Also ich gehe nicht rein, versuche den perfekten Prompt zu erstellen, um dann sozusagen mich über
1:16 potenziell mehrere Stufen zum Ziel zu hangeln, sondern ich lasse erstmal in einem KI Shirt ein Prompt erstellen und verwende diesen Prompt dann sozusagen weiter. Das ganze nennt sich Meta
1:28 Prompting. Hat den großen Vorteil, dass ich gar nicht so perfekt selbst prompten können muss, ne? Also die Regeln zählen, die wir letzt mal angesprochen haben. Richtiges klares Ziel vorgeben, Kontext
1:40 vorgeben, aber ob ich den Prom richtig formatiere oder wie, das äh macht dann die KI für mich. L im Prinzip ein Briefing geben, bevor du den Auftrag vergibst. Ziemlich genau so. Ja. Und äh wir haben
1:53 dann eine kleine sechs Schritte Methode uns überlegt, die wir heute gerne besprechen würden im ersten Teil vom Podcast. Der erste Schritt ist für alle Lebensbereiche wichtig. Nachdenken.
2:06 Genau. Genau. Hieren Anschalten. Schritt 1 ist nachdenken und hieren anschalten. Ja, denn das hilft surprise surprise manchmal im Leben, immer wenn ich irgche Aufgaben lösen möchte und so ist es
2:15 Warum klassisches Prompting an Grenzen stößt
2:19 natürlich hier. Und tatsächlich, also ich bin auch teilweise noch oldschool, nehme ich mir erstmal ein Stift und ein Papier. Man kann das natürlich auch in dem Prompt Fencer selbst machen, aber ich
2:31 überlege mir erstmal, nachdem ich mein Ziel definiert habe, was ist denn eigentlich alles relevanter Kontext, der mir so in den Kopf kommt? Und Schritt 1 ist für mich also wirklich zu überlegen
2:43 gar nicht so strukturiert s was ist das Ziel und was braucht man denn eigentlich um dieses Ziel zu erreichen an Kontext und Informationen und das ist Schritt eins hier anscheinend
2:54 Ziel festlegen, Kontext festlegen, T-gruppe festlegen und überlegen, was könnten noch weitere relevante Informationen sein. Genau. Schritt 2 ist dann tatsächlich die Erstellung
3:06 dieses Meter Prompts. Meter ist hier nicht Facebook gemeint, sondern tatsächlich die höhere Ebene. Genau. Ich sag der KI quasi, liebe KI, dein Ziel ist es mir einen Prompt zu
3:20 erstellen und zwar für folgendes Thema. Hier ist das Ziel, was ich erreichen möchte. Hier ist irgendwie alles, was ich als relevant erachte dafür, um diesen Prompt zu erstellen.
3:34 Was brauchst du noch oder welche Informationen fehlen die eigentlich noch von mir, um den perfekten Prompt zu erstellen? Das ist quasi Schritt 2. Nachdem ich mir Gedanken gemacht habe,
3:45 was ich eigentlich machen will, sage ich der KI, sie soll mein Prompt erstellen, geb alles, was ich schon im Kopf habe, was ich mir in Schritt 1 überlegt habe und lass mir dann erstmal Fragen stellen
3:54 von der KI. Also der erste Schritt ist, ich sag nicht, ihr stell mir sofort ein Prompt, sondern die Gedanken habe ich hier gemacht, stell mir jetzt alle weiteren Fragen, um dann erst zu einem
4:03 Prompt zu kommen. Das quasi Schritt zwei und damit werden natürlich alle fehlenden Informationen eingefordert. Ähm das ist, finde ich, relevant, sowohl für Prompts in LMS als auch in so
4:15 Dingern wie Lovable oder generell Sachen. Also, wenn ich da manchmal anfange irgendwie zu wipecoden, frage ich auch, gibt's irgendwas, was ich noch bedenken sollte, habe ich was vergessen.
4:22 Ja, genau. Und das ist dann quasi Schritt drei und das ist bisschen auch wieder wie man Mensch kommunizieren würde. Hier ist irgendwie eine Aufgabe. Ich habe mir irgendwie folgende Sachen
4:31 überlegt, den Kontext ist für dich irgendwie relevant. Was brauchst du denn noch von mir, um die Aufgabe zu erfüllen? Und dann fragt mich die KI in dem Fall, was alles
4:43 noch fehlt oder sagt mir, was noch fehlt. Und diese Information stelle ich dann bereit und das kann manchmal so ein bisschen back and forth sein, bis die KI sagt, okay, jetzt habe ich alles
4:51 gecheckt, das meine Information gegeben, die ich irgendwie brauche. Ja, und das ist dann sozusagen der vierte Schritt. Die KI lässt mir sozusagen diesen Prompt oder erstellt mir sozusagen diesen
5:03 Prompt. Was ich da immer noch mache, ist ich sag der KI, sie soll mir den Prompt im Marken, so dass ich den Prompt direkt kopieren kann. Schreib doch mal kurz, was Markdown ist.
5:13 Markdown ist ähm im wesentlichen eine Strukturierungsform so wie es HTML Code irgendwie auch ist, ne? HTML Code kann ich irgendwie H1 Header angeben und Age 2 Header, dass
5:25 der Text strukturiert ist und eine Maschine versteht, was eine Überschrift, was ist irgendwie Subüberschrift, was ist ein Paragraph und so weiter und so fort und ähnlich ist es auch bei
5:34 Markdown und Markdown das sieht man oft mal diese Rauten und so Sternchen und so weiter, aber ich muss selbst überhaupt nicht genau verstehen, wie dieses Format
5:40 Meta-Prompting: Wenn KI ihren eigenen Prompt schreibt
5:42 funktioniert, aber KI Systeme verstehen halt Mark Format sehr gut und statt jetzt irgendwie selbst da irgendwelche Rauten reinzumachen, Sternchen reinzumachen, sage ich halt in dem
5:51 Schritt her, erstell mir diesen Prompt im Marktdown Format so dass ich ihn direkt kopieren kann. Und das coole ist bei diesen Tools wie ChbT oder Copile Gemini genauso ist, dass man den Text
6:01 nicht einfach so im normalen Textfenster zurückbekommt, sondern erm so wie so ein separates Fenster im Fenster bekommt und da ist dann schon so ein Copy Symbol und
6:10 dann kann ich den Prompt quasi direkt rauskopieren. Unsicher wegen der neuen EU KI Verordnung, die Kompetenzpflicht für den beruflichen Einsatz von KI Tools ist da. Snipkey bietet die Lösung. Unsere
6:21 spezielle Schulung zu Artikel 4 konzipiert mit Rechtsanwälten macht dich und dein Team fit. Verstehe die rechtlichen Grundlagen und nutze KI Potentiale ohne Risiko. Investiere in
6:33 Rechtssicherheit und Kompetenz. Informiere dich jetzt über die Schulung auf snipkey.de. Schritt äh das ist dann sozusagen den Prompt generieren. Jetzt könnte man sogar noch Schritt 4bfügen und sagen,
6:45 bewerte mal dein eigenen Prompt. mache ich manchmal ganz gerne. Haben wir jetzt hier nicht drin, aber ja, bewerte oder wie könntest du es noch besser machen, ne? Dieses Vibe Coding
6:52 ist es ja auch oft so, mach's noch besser, mach's noch besser und dann jedes Mal überlegt sich was er noch besser machen könnte. Kann man machen, aber meistens finde ich
7:01 ist eigentlich der erste auf der erste Schritt eigentlich nicht mal sehr gut, zumindest rein objektiv, ne? Jetzt gilt's natürlich mit Schr weiter zu machen. Äh testen und ausführen, den Mark Prompt
7:12 oder welchen Prompt auch immer, vielleicht in dem neuen Chatfenster einfach einfügen und gucken, was bei rauskommt. Genau. Um dann vielleicht dann noch mal zu bewerten und zu verfeinern.
7:24 Genau. Schritt sech wä dann quasi das Ganze noch irgendwie zu optimieren. Also Schritt fünf, ich teste diesen entstandenen Prompt. Schritt sechs ist, wenn ich irgendwie
7:31 nicht zufrieden bin, dann optimiere ich den Promt wieder selben neuen Fenster kommt zum Ergebnis, bis ich irgendwann sage, okay, das Ergebnis passt für mich nicht. Und tendenziell kann man
7:41 vielleicht auch oft schon Schritt vier aufhören, wenn der Prompt fertig ist, wenn es jetzt so einfache Themen irgendwie sind, ne? Wenn es jetzt, wenn ich beispielsweise so ein Promt erstelle
7:50 für ein GPT, ein GPT ist, haben wir schon in vergangenen Folgen besprochen, ja quasi so eine kleine für wiederkehrende Tasks und da ist ja so ein Systemraum drin, ne? und der soll
8:00 natürlich immer das möglichst das beste Ergebnis liefern und der muss natürlich ein bisschen getweakt werden über die Zeit und das könnte ich quasi in so ein Prozess machen. Ich bekomme den Prompt
8:08 Schritt 5, ich teste den aus, bin ich ganz zufrieden, schritt sech ichere den wieder neu probier den wieder aus, bis ich sage cool, jetzt habe ich ih mit dem ersten Ergebnis eigentlich ein Ergebnis,
8:18 mit dem ich 100% zufrieden bin. Wichtig aber auch bei der Iteration ist, das ganze systematisch zu machen. Hilft jetzt nicht zu sagen, gefällt mir nicht so irgendwie war nichts. Ja, sagen
8:29 korrekt halt Stil Struktur whatever, ne? Das ein bisschen näher eingrenzt und wie ich das iteriere, also ich iteriere oft dann nicht mit der KI und sag veränder den Prompt noch mal
8:39 irgendwie zu XY, sondern ich nehme den Prompt und editiere den dann selbst, wo ich irgendwie sage, okay, da kommt noch irgendwie ein Satz dazu, hier würde XY noch helfen und dann probiere
8:51 ich das quasi aus. ist dann wirklich einfach so ein eigener iterativer Prozess, um sozusagen immer besser zu Ergebnisse zu bekommen. Aber Long Story short, ich muss kein absoluter
9:00 Promtexperte oder Expertin sein. Ich muss nur erstmal gut kommunizieren können, was ich irgendwie vorhabe und mir Gedanken machen, was ich alles machen will. Und die KI hilft mir dann
9:10 Die 6-Stufen-Methode: Ziel → Meta → Infos → Prompt → Test → Refinement
9:10 einen sehr, sehr gut strukturierten Prompt im Markt Format zu erstellen. Und in der Regel sind da so viel mehr Sachen drin, an die ich überhaupt selbst gar nicht gedacht hätte. Selbst hätte ich
9:20 von meiner Meinung nach den perfekten Prompt und hätte mir eine halbe Stunde Zeit genommen irgendwie einen sehr coolen Prompt zu schreiben, wäre ich in allermeisten Fällen nicht so gut gewesen
9:30 wie die KI auch. Und ich würde sagen, ich kann tendenziell gut prompten im Vergleich zum Durchschnittsbürger, aber trotzdem bin ich nicht so gut wie die KI Systeme, wenn ich vorher eben die
9:40 relevanten Kontext gebe und mein Ziel, um einfach so ein Prom zu erstellen. Also nachdenken, Metaprompt erstellen, alle Informationen bereitstellen, das ganze Ding generieren lassen, testen,
9:51 eterieren. Genau. Jetzt denken vielleicht manche Leute, boah, es ist nicht irgendwie komplett overkill und ja, es kommt drauf an, was ich für ein US Case habe. kann
10:01 das komplett overkill sein, ne? Wenn ich jetzt der KI sage, hier ist irgendwie eine schlecht vorgeschriebene E-Mail von mir und checkt die irgendwie auf Grammatikfehler und schreibt die ein
10:11 bisschen formeller oder professioneller, dann langt wahrscheinlich auch einfach dieser eine Satz und ich muss jetzt nicht noch x Kontext geben, wer ich bin, was mein Unternehmen macht und so weiter
10:21 und so fort, ne? Also bei so einfachen Aufgaben ist das natürlich overkill. Also ich muss eich immer überlegen, was was mache ich denn eigentlich gerade und spielt hier ein sehr guter
10:32 Prompt eine große Rolle, was Ergebnis am Ende irgendwie angeht? Ja, bei verbessern meine Grammatikfehler oder kürz mir mal den Absatz irgendwie um 30% brauche ich jetzt wahrscheinlich nicht
10:44 ganz so viel Komplexität und schrukt in meinem Brank, aber tendenziell werden ja die Modelle besser. Ja, wir sehen, dass strenge dass viel schwierigere Aufgaben erledigt
10:54 werden können. Äh, dass teilweise die KI Systeme Minuten, Stunden, vielleicht demnächst auch Tage nachdenken. Also auch die Probleme, die ich darauf werfe, werden halt größer. nicht nur mach mal
11:05 die E-Mail schöner und dementsprechend muss ich natürlich auch ein bisschen mehr Hirnschmal in diesen Prompt reinstecken. Da kommen wir nämlich auch zu dem Thema Kontextfenster. Mhm.
11:13 Je größer das Kontextfester Fenster ist, desto mehr Kontext kann ich reingeben und je größer das Kontextfenster ist, desto schwieriger können auch die Aufgaben sein, die ich dieser KI gebe. Mhm.
11:25 Super wichtig und zu super wichtige Herleitung auch zum Thema Kontext Engineering, wo wir gleich noch drauf einkommen. So ein man kann sich das so vorstellen, man kann nur maximal x
11:36 Tokens oder vielleicht noch Wörter an so ein KI Modell schicken, bis das verwirrt ist und wenn das Kontextfenster voll ist, dann fängt die KI quasi an verwirt zu sein. Man muss dabei wissen, dass
11:48 jedes Mal, wenn ich so ein neu, wenn ich ein Chat habe und eine Antwort gebe, was im Hintergrund passiert ist, diese Antwort von mir wird hinzugenommen zu allem anderen, was vorher schon
11:59 besprochen wurde und wieder neuen System geschickt. Und das heißt, dieses Fenster, wie viel Informationen quasi immer in die KI geschickt werden, wird immer größer mit jeder weiteren
12:09 Chatstufe. Ja, zusätzlich kommt natürlich auch der ganze Kontext, den ich reingegeben habe, die Fils, die ich reingegeben habe, die auch quasi jedes Mal sozusagen wieder mitgeschickt
12:18 werden. Ähm ja, die Modelle sind zer smarter geworden mittlerweile auch mit so so Cashing Themen und so weiter, aber grundsätzlich muss man einfach wissen und deswegen sollte man auch nicht
12:29 einfach unendlich viel Kontext reingeben, weil diese Modelle begrenzt sind und die können unterschiedlich viel. Ja, also und unterschiedlich gut viel, ja, und rudern da auch teilweise zurück. Also,
12:44 ich habe das größte Modell gerade ist irgendwie eins von diesen Croc Croc Modellen Croc 4 Fast. Wir haben eine 2 Millionen Kontextfenster. Die GPT Modelle, die neu Anführungsstrichen GPT
12:56 5 äh die haben nur 400.000 beispielsweise und wenn man jetzt von 2 Millionen Kontextfenster spricht, dann meint man 2 Millionen Token und 2 Millionen Token sind so je nachdem wie man es rechnet
13:06 vielleicht so 1,25 Millionen Wörter das so viel wie alle sieben Harry Potter Bände zusammen. Das ist schon eine ganze Menge und auch deutlich mehr als früher in der SMS mit 160 Zeichen und ein Mark
13:17 89. Ja, meiner Meinung nach, also wenn man mein Favorite Model aktuell für Themen, die großes Kontextfanz brauchen ist Gemini 2.5. Die haben Million von Google, die hatten mal 2 Millionen. Die haben
13:33 auch das Modell beworben mit 2 Millionen und haben dann gemerkt, dass das Modell zu viel Fehler macht und haben es dann wiederum auf 1 Million begrenzt sozusagen, weil sie gemerk das Modell
13:42 sozusagen sicherer ist und das ist wahrscheinlich auch der Grund, warum die GPD5 Modelle auf 400k begrenzt sind. Weil sonst einfach zu viel Murgs zu viel Halluzination und so weiter
13:53 wahrscheinlich rauskommen. Ähm ich bin gespannt, wahrscheinlich wird meine Aussage nicht gut altern. Ich gehe mal davon aus, dass in äh November, spätestens Dezember, das Dreier Modell
13:55 Context-Engineering: Relevante Infos zur richtigen Zeit
14:05 rauskommt von German. Ähm und äh das hoffent wahrscheinlich sogar noch viel besser wird, auch was Kontext angeht, ab mit vielen vielen Informationen umgeht und Kontext braucht, ist mein Favorit.
14:20 Wie gesagt, das Google Gemini 25 Modell. Ich finde bei Claud jetzt ein 45er Modell, das haben sich ein bisschen vergrößert auf einer Million, da geht's jetzt mittlerweile.
14:32 Ich bin in den letzten Monaten bei Cloud super schnell in dem, also im Chat an die Grenzen gestoßen und ich finde auch, dass GPT5 tatsächlich bei längeren Chats relativ schnell verwirrt ist, was
14:42 einfach an diesen 400 000 Tokens liegt. Und es gibt dieses Phänomen, das Lost in the middle. Das heißt, ähm ich gebe viele Tokens rein. Mhm. Das Modell kann sich an den Anfang
14:54 erinnern, kann sich ans Ende erinnern, aber das was in der Mitte ist, das geht irgendwie verloren. Ja, wird beschrieben, warum das so ist. Ich kenne jetzt bisher noch keine gute
15:03 Begründung. Ja, das ist total witzig, weil also warum kann ich dir auch nicht sagen, aber bei Menschen ist es genauso. Es gibt nämlich Studien, wenn du bei irgend so einem Contest teilnimmst,
15:13 beispielsweise der berühmte Eurovision Song Kontext, den ich natürlich jedes Mal schaue. Ähm, das ist so, dass wenn du am Anfang kommst oder am Ende dran kommst,
15:24 schneidest du viel besser ab, als wenn du in der Mitte dran kommst. Das liegt daran, dass die Leute irgendw am Anfang viel mehr Fokus haben und am Ende viel mehr Fokus haben und in Mitte weniger.
15:33 Und da gibt's ganz viele Studien zu. Das ist irgendwie auch menschlich, das ist aber auch ja bei der künstlichen Intelligenz so. Aber wo genau woran es liegt, dass die KI das irgendwie genauso
15:43 macht wie Menschen, ob es irgendein Zusammenhang gibt, ist glaub ich noch nicht ganz klar. Auf jeden Fall trotzdem spannendes Thema. Noch ganz wichtig ist bei diesem
15:50 Kontextfenster. Ist natürlich noch ein Kosten Kostenthematik dabei. Je mehr Token sich durch die Gegend schicke, desto sind auch die Kosten. Wenn ich jetzt irgendwie
16:00 20 € Flat zahle, ist es mir egal, aber ich die EPI nutze eben nicht mehr. Und was wir schon sehen, ist auch eine wahnsinnig krasse Entwicklung in der sogenannten Inference. Das heißt, in der
16:10 Rechenzeit, die die Anbieter von KI selber nutzen müssen, um mit den ganzen Anfragen zurechtzukommen. Wenn ich dann auf einmal auch Video reinnehme und von 8 Sekunden auf 16 Sekunden gehe, dann habe
16:22 ich eben eine Vervielfachung dessen. Ja, was da auch spannend ist mit dem Thema Kontext ist, ist das neue Cloud Skills, ich hab das schon mal angeschaut hast. Cord Skills ist
16:36 im Prinzip kannst du es dir vorstellen, jedes Skill ist eine Textdatei, in der sehr detailliert Cloud beigebracht wird, wie es irgendwas umsetzt. z. Also so irgendwie machst du Facting, so ähm
16:48 erstellst du irgendwie eine Präsentation, so irgendwie analysierest du irgendein Code, so schreibst du irgendein Code. eine Library an Fähigkeiten und das funktioniert so denn je mehr ganzen
17:05 Fähigkeiten sozusagen mit einem Prompt mitgeben würde und Cloud sage such dir für die Aufgabe die relevante Fähigkeit aus, würde ich den kompletten Kontext mitgeben und ganz ganze Kontextfenster
17:16 volladen. Wie Cloud aber funktioniert ist mit diesen Skills. Es liest sich eine Kurzbeschreibung durch diese Skills. steht, brauche ich diesen Skill, um diese Aufgabe zu lösen und wenn
17:27 nicht, liest er nicht sozusagen lt er nicht den kompletten Text mit den ganzen Token. Ja, und so führt es dazu, dass am Ende das Kontextfenster von Cloud nicht so
17:36 vollgeladen wird, aber du hast trotzdem eine gewisse Flexibilität und Dynamik Cloud selbst entscheiden zu lassen, welchen Skill zu wählen. ist ein bisschen wie wenn man Chat GPT nutzt wie
17:45 GPTs, aber dein Chat GPT Chat kann selbst entscheiden, welches GPT es es nutzt sozusagen wegen der Aufgabe zu lösen und braucht nicht die Custom Instructions von jedem einzelnen GPT.
17:59 Ja, das sind so Wege, so schlaue Wege eigentlich jetzt von den Modelanbietern dafür zu sorgen, dass die Modelle zwar maximal flexibel und gut darin sind, gewisse Aufgaben irgendwie zu lösen,
18:08 auch semiutonom oder autonom zu lösen, ohne halt das komplette Konx kontaxtfenster vollzumüllen und dann vielleicht auch weniger Kosten zu haben, weil man nicht so viele
18:18 Druckens bearbeiten muss. Wenn du von Cloud sprichst, dann meinst du den den Anbieter Anthropic mit dem Modell Cloud Son 45 ist glaub stand jetzt das neue dann das Opus 4 gibt's ein Opus 45 oder
18:30 Format & Beispiele als Steuerungselemente
18:31 nur Opus 41 dann Überblick verloren ich glaube es gibt ein Opus 41 wahrscheinlich wird's auch bald ein Opus 45 geben wird wahrscheinlich findiger Hörer oder Hörerin direkt
18:41 runterschreiben gibt's schon und dann danke für den Inval das was du gerade angesprochen hast mit den Skills und dass ich verschiedene Skills habe ähm und die jeweils mir helfen Dinge zu
18:52 lösen. Eich schon der erste Schritt in Richtung Context Engineering, dass ich also vielleicht weg vom Prompt Engineering hinkomme dahin, dass ich eher kuratiere, was sind jetzt die
19:03 Sachen, die ich benötige, was ist der Kontext, den ich benötige, um die Aufgabe zu erledigen? Ähm ja, Context Engineering, das neue Prompt Engineering, ein neuer Job für Nada. Ja, zumindest
19:15 was den was die Begrifflichkeit angeht, Kontext Engineering, wenn mal die Google Trends anschaut, glaube ich, am Prompt Engineering vorbeigezogen, ist natürlich ein bisschen was anderes, weil
19:26 Kontext Engineering, also der Begriff ist so wichtig, weil es vor allem halt für Systeme relevant ist, wenn ich irgendwie Agentensysteme oder KI Systeme aufbaue, wie ich quasi
19:37 dynamisch für eine gewisse Aufgabe den relevanten Kontext zur Verfügung stellen. also Daten, Storie, Regeln, welche Tools man irgendwie verwenden kann und so weiter und so fort. ist
19:48 natürlich angelehnt als ähm als Prompt Engineering, aber Prompt Engineering ist der Fokus eben auf was gibst du für Anweisung, was gibt für Ziele, Beispiele, Format, ne, alles was wir
19:59 auch in der letzten Folge besprochen haben, während bei Kontext Engineerung der Fokus auf eben diesen dynamische Versorgung dieses Systems mit dem relevanten Kontext ist und auch quasi
20:12 die Aktualisierung von irgendwie dem Kontext über die Zeit, ne? Beispiel GPT. GPT ist super für wieder keine Aufgaben. Dann brauche ich einen sehr guten Prompt, wie mit den erstellt haben wir
20:25 quasi auch mit der sechs Prompt oder Schrittmethode haben schon definiert, aber da lade ich ein Wissen rein. Dieses Wissen ist statisch. Ja. Und wenn ich aber Systeme habe oder autonom
20:36 semiautonomen Systeme, die irgendwie in der Company arbeiten wie ein Mensch, dann brauchen die auch immer die relevantesten und aktuellsten Informationen und das ist dann schon
20:46 eine Engineering, es heißt ja auch Kontext Engineering Aufgabe eigentlich das herzustellen und Context Engineers oder Context Engineering ist ultra relevant und total wichtig einfach, wenn
20:59 ich es wirklich hinbekommen möchte sinnvolle KI I-System und Agentensystem eben aufzubauen. Ja, so ein bisschen vergleichbar mit dem Lernen. Also, wenn ich einen sehr, sehr
21:07 guten Lehrer, eine sehr, sehr gute Lehrerin habe, dann weiß die jeweils, wo ich stehe und kann auf dieser Basis mir dann neue Dinge geben. Ich bleibe ja nicht stehen. Wenn ich einmal schreiben
21:16 und lesen kann, will ich vielleicht dann auch ein bisschen mehr können. Wenn ich aber immer nur sozusagen auf dem Stand bin, dass ich nur schreiben und lesen kann, dann geht's nicht so
21:22 richtig weiter. Aber ich muss im Prinzip all das, was ich gelernt habe, immer wieder daran einbeziehen. So ähnlich ist dann noch im Context Engineering. möchtest A dynamisch
21:30 anpassen und B mich natürlich auch weiterentwickeln, ja, mit dem was ich da tue. Ja, KI kommt nicht irgendwann, sie ist schon da. Bist du bereit? Mit The Key Academy
21:40 machst du dich fit für die Zukunft. Onlinekurse zu KI, digitaler Zusammenarbeit, Leadership praxisnah, flexibel, IAK zertifiziert. The Keypacademy, für alle, die mitgestalten wollen.
21:53 Was vielleicht dabei noch wichtig ist, ähm die Begriffsdefinition haben wir bisher kaum im Prompting gehabt. Macht da durchaus Sinn, wenn ich also mitgebe, was was ist eigentlich die Definition
22:00 Wiederholbarkeit statt Einmal-Prompt
22:04 dessen, was ich erreichen möchte. Ähm, weil dann spare ich mir auch viele Tokens, wenn das einmal klar ist. gerade dieses Token Sparthema, dieses Kontextfenstertha ist da natürlich total
22:14 relevant, ne? Also das ist halt nicht irgendwie das System mit irrelevanten, übermäßigen, vielleicht nicht mehr aktuellen Kontext sozusagen versorge, sondern halt eben zur richtigen Zeit richtigen
22:29 Content in der relevanten Aktualität eben ja systematisch eben so ein System zur Verfügung stellen. Die Regeln, du angesprochen hast, sind schon irgendwie auch ähnlich, ne? Also auch da zählt hal
22:40 einfach weniger als mehr, also ne, nur das reingeben, was sozusagen auch wirklich relevant ist in diesen Systeme dann noch mal und da zählt dann quasi auch schon mehr als wenn ich chbt
22:53 spreche das ganze Thema Struktur. Also ich muss da möglichst idealerweise dann auch im Marktformat angeben, was ist eigentlich hier irgendwie eine Regel, die du befolgen
23:04 musst, was sind irgendwie die Daten, die du verwenden musst. Was sind quasi ganz klar definierte Beispiele, dass die KI quasi von sich aus sofort erkennt, was irgendwie wozu gehört, ne? Also nicht
23:17 alles irgendwie reinrotzen und sagen DKI macht es schon, sondern eben da sehr strukturiert ähm das ganze oder mit Jason Filz oder wie auch immer nachdem was man irgendwie ähm halt am Ende
23:27 umsetzt, muss da schon sehr viel Struktur und Klarheit und so weiter eben drin sein. Und da geht's ums testen und nachschärfen und der ja einer so der der Vordenker bei dem
23:38 Thema KI Professor Ethan Molic, der auch uns inspiriert hat für den Titel des Podcasts. Schön gesagt vor kurzem in communicating goals keys, not following a specific prompt format.
23:52 Also der Kontext und die Kommunikation der Ziele äh sind dafür maßgeblich, welche oder dass ich gute Resultate bekomme, nicht dass ich einem spezifischen Prompt Format folge.
24:05 Ja, und äh du hast noch einen Satz äh den ersten Satz, den finde ich auch spannend. Er sagt äh im Prinzip äh, dass die meisten AI Educator immer noch komplett alte Prompting Techniken quasi
24:17 vermitteln, irgendwelche Frameworks und sonst irgendwas. Und äh die wenigsten verstehen heutzutage, dass eben diese diese Formeln, diese genauen Schritten und Definitionen und Frameworks und so
24:29 weiter und Chain of Thought Prompting ähm dass alles komplett in Relevanz verliert. Also äh vielleicht ein guter Sense Check, je nachdem mit wem äh man zusammenarbeitet, was man für ein KI Coach
24:44 hat und nutzt. Wenn der noch sagt, du musst irgendwie überall dazu sagen, dass Chan for Prompting relevant ist und die KID erklären soll, wie das Reasoning war, dann sollte man vielleicht noch mal
24:55 überdenken, ob der KI oder die KI Coach äh da noch State of the Art ist, sozusagen mit dem Wissen. Wie du sagst, Kontext und klare Zielvorgaben ist mit Abstand das Wichtigste, sowohl beim
25:09 Prompt Engineering, aber als auch beim Kontext Engineering. Hab beim letzten Mal schon angesprochen. Äh wir haben ja nicht nur Menschen, die jetzt Kontext geben. Wir haben auch immer mehr
25:20 Systeme, Werkzeuge, Tools, die ich integrieren kann, die dann Kontext geben können. Das heißt jetzt angefangen vom MCP Server, den ich mit aufsetzen kann, wo ich mit verschiedenen Tools
25:30 interagieren kann, über die Nativen Integration, die ich sowohl bei Cloud als auch bei JGBT als auch bei Gemini als auch bei Copilot hab natürlich verschiedene, aber da merke ich auch je
25:41 mehr ich da anbinden kann, die auch relevant sind für meine Aufgabe, desto besser dann auch noch meine Kontext, weil ich sagen kann, hey, das ist mein Kalender, such mir doch
25:49 bitte einen Termin raus, der für alle funktioniert. Und du hast aber Zugriff auf meinen Kalender, dann sind die Nachfragen weniger. Einzige Sache, die man bei diesen ganzen Konnektoren
25:58 natürlich immer mitdenken muss, gerade hier irgendwie in Deutschland, ist das ganze Thema Datenschutz. Ja, also was nutze ich denn für eine Church GPT Version und wo werden da eigentlich die
26:08 Daten zumindest Tempo verarbeitet, wenn ich halt irgendwie auf dem Free Account bin oder selbst im Businessplan wird halt die Inferenz, also quasi die Bearbeitung meine Anfrage auf
26:21 amerikanischen Servern stattfinden. Sprich, wenn ich sozusagen GBD Access geben zu meinem Google Drive, zu meinem SharePoint und so weiter und dann auf diese Daten zurückgegriffen wird, dann
26:32 finde das alles kurzzeitig wird nicht drauf gelernt, aber findet zumindest kurzzeitig im USA statt und das natürlich wieder anders wen ich auf der Enterprise Version bin, da komme ich
26:40 immer nur drauf, wenn ich Abstand jetzt aktuell, das ändert sich auch ständig, ich minimum 50 Lizenzen abnehme und daher muss ich quasi das je nachdem, was ich für ein Tool nutze eben ja immer
26:51 auch mit denken. ähm was ganz ein Thema Datenschutz angeht. Du hast den EUPuli an, EUAI Act GDPR da sind wir sehr führend, was die weltweite was die Welt also leading the
27:07 World sozusagen mit unserer Regulation. Ob das jetzt besonders gut ist oder schlecht, kann man sicherlich oder umgesetzt ist, ist sicherlich streibbar. Die Ziele sind
27:15 Prompt-Playgrounds & Reasoning-Budget
27:16 äh glaube ich sicherlich die richtigen. Äh ja, am Ende richtig im Gesetz verankert ist und was ist zu was es heute führt, da kann man glaube ich noch drüber reden. Auch
27:25 spann, was du gerade sagtest, dass im Enterprise dann die Inferenz in Europa stattfindet. Wer weiß wie lange noch. Ich glaube nicht, dass wir die Energie haben, um da hinterherzuziehen und die
27:35 Rechenzentren entsprechend auszubauen. Also haben das ja in den anderen Episoden in den 30ern, ich glaube 31, 32 besprochen, was da gerade investiert wird äh an Energieressourcen, an
27:44 Rechenzentren, um diese Inferenz hinzubekommen. Ich weiß nicht, ob Europa da mitziehen kann und selbst wenn wir dann Enterprise haben in zwei Jahren, wird's wahrscheinlich dann noch eher in
27:53 Virginia ablaufen. Mal schauen, vielleicht gibt's ja dann auch ein europäisches Modell. Wä gut, vielleicht füst du dazu, dass wir wir Europäer auch mal bei den Themen
28:02 ein bisschen weiter in die Zukunft schauen und zu lösen kommen. Ja. Ähm ja, sprechen wir von einem anderen Playground, von dem anderen Playground, ja, vom politischen Playground zu dem
28:12 technischen Playground. Genau. Wir haben wir Open AI hat das, Google AI Studio hat das, Cloud hat es auch mit der Konsole. Was sind Playgrounds? Playgrounds sind so
28:22 bisschen die, also ich würde glaube ich Disclaimer, für die meisten Hörer und Hörerinnen ist es nicht so ultra relevant, weil diese Playgrounds oder Konsolen oder Developerumgebung als
28:34 quasi die Umgebung dieser Tools sind für deutlich technischere User und Userinnen verschiedene verschiedene Funktionalitäten. Können wir auch gleich mal durchgehen. Ähm auf jeden Fall in
28:45 der Regel geht's einfach darum, Modelle zu testen. ähm und Prompts zu testen mit Modellen und diese diese Playgrounds oder beim Google heiß AI Studio, wir können mal ein blenden oder die Showotes
29:01 die Links sozusagen für für den ob Studio und die Cloud Konsole mit reingeben. Da kann man ein bisschen rumspielen. Ähm wesentlich ist eine Testing Environment für Developer, wo
29:11 ich Sachen ausprobieren kann. Ähm, so kann man es glaube ich high level sagen. Ähm, ich kann dort Modelle auch ohne die ähm Systemprompts oder ist immer mit stark reduzierten
29:25 Systemprompts der Anbieter testen, ne? Wenn ich jetzt in Chat GBD bin, haben wir gesagt oder Cloud wird mit meinem Prompt noch mal 56 000 Zeichen bei Cloud glaube ich irgendwie mitgegeben. Ähm,
29:36 was natürlich den Output für mich besser machen soll. Ich kann in diesen Konsolen das aber dann teilweise auch ohne diesen System machen, was natürlich immer noch
29:43 drin ist so Sicherheitssachen, ne? Ich kann auch da nicht sagen, wie baue ich mir eine Bombe, ne? Aber halt ich weniger sozusagen weniger weniger Eingrenzung sozusagen
29:53 von den Modellanbietern, um diese einzelnen ähm ja Modelle mit meinem Prompt sozusagen zu testen. Ist vor allen Ding dann relevant, wenn ihr Produkte baut, wo ihr KI einbaut
30:03 inherent und dort Prompts nutzt und dort nicht genau wisst, okay, welches Modell kann ich jetzt nutzen? Manche sind schneller, manche sind dann langsamer, manche sind günstiger, manche sind
30:10 teurer. Da kann ich dann ausprobieren und schauen, wie es wie ist meine Geschwindigkeit, äh wie sind meine Kosten, wenn ich das jetzt nicht nur einmal mache, sondern 3 Millionen mal.
30:20 Ja, ich habe da auch oft verschiedene Möglichkeiten. Also, wenn ich das GPT5 Modell wähle im normalen Chat oder das Gemini Modell, wenn ich im Gemini Chat bin, habe ich ja nicht die Möglichkeit,
30:32 das Modell noch mal irgendwie außer über mein Prompt zu beeinflussen, dass ich eine Möglichkeit habe und manche von diesen Anbietern geben mehr Möglichkeiten und manche weniger, aber
30:42 so kann ich z.B. oft die Temperature einstellen, weil Temperature kann das Google kann das nicht, ne? Ich glaube auch Google kann es auch im Studio. Ich weiß jetzt gar nicht genau bei Claud
30:54 ob es da geht, aber die Temper so bisschen die Kreativität einfach wie wie unwahrscheinlich ist die potenzielle Antwort, ne? Also wenn ich sag, gib mir irgendwie zehn Ideen und mach die
31:06 Temperatur ganz runter, dann kriegst du halt zehn irgendwie Standard Durchschnittideen. Wenn du sie komplett hoch machst, dann kommen halt irgendwelche wilden Ideen, die aber
31:14 potenziell zu crazy oder ja unwahrscheinlich sind. Und so kannst du sozusagen in diesen Umgebung auch mit so ähm ja mit dieser Variable mit der Temperature arbeiten. Was auch noch eine
31:25 andere Variable ist, ist das Thinking. Also wie lange sozusagen das Mod nachdenken soll. Es gibt's ja dann teilweise bei Chat GPT kannst du ja Thinking wählen oder
31:35 bei Grock kannst du klicken Think har Harder. Genau. Think harder, aber das halt nicht so ultra viele Möglichkeiten und da kannst du halt einfach auf ein auf dem
31:40 Vom Prompt Engineer zu AI Ops / Knowledge Ops
31:43 Sneider im Prinzip ja festlegen. All das einfach einfach wichtig ist für für Develops Testing, ne? Weil wenn du irgend wie gesagt ein Produkt baust, willst du ja über ein API Call irgendwas
31:53 zurückbekommen und äh dann halt so lange zu testen über eben Temperature oder auch das Thinking, bis ich immer zu einem Ergebnis komme, mit dem ich jedes Mal zufrieden bin. einfach mehr
32:04 Variablen, weil diese Variablen kann ich auch über die API mitgeben, wenn ich ein Developer bin und das ist sozusagen da die die Testumgebung und sowieso also das ganze Thema APIs, wenn ich irgendwie
32:16 diese Modelle anpingen möchte, brauche ich ja die API oder meine API, weil dann jeder kaufen die Schnittstelle genau einfach ir so ein langer Code und weil ich ja quasi für jeden Token berechnet
32:27 werde Rechnung bekomme, deswegen muss ich immer eine Kreditkarte hinterlegen und ir Budget festlegen. Und diese API Keys bekomme ich auch immer in diesen Konsolen und Blackgrounds.
32:39 Jetzt wird jetzt sind wir schon sehr sehr technisch. Viel technischer wird's nicht. Wenn ihr sozusagen mit Make.com und NN so an die Grenzen gekommen seid, dann ist das, was euch vielleicht
32:48 interessieren könnte. Dann könnt ihr euch mal in diesem Playgrounds einloggen und schauen, wie ihr da so Agentensysteme bauen könnt. Aber für die normale Anwender, die normale Anwenderin
32:57 ist es glaube ich einfach, du hast angesprochen, das Agentensystem, das ist jetzt quasi so dieses diesen Agent Bilder ist das was Neues, was im Open AI Playground gibt. Das
33:06 hab jetzt vor kurzem gelauncht, ne? Das ist Syl, also wenn die Sendung live geht, dann vielleicht irgendwie von 5 Wochen oder so. Und das ist quasi aber wirklich fokussiert auf Developer, ne?
33:16 Das jetzt nicht so direkt der Outcry. Ja. Agen open just killed N8N und Make.com ist nicht kompletter Quatsch, weil ganz andere Zielgruppe ist, ganz anderes Thema ist, aber das gibt auch in diesem
33:27 Playground, was du auch machen kannst. Du kannst Modelle, du kannst ein Prompt mit verschiedenen Modellen vergleichen und die neben Ergebnisse nebeneinander liegen, ne? Natürlich kannst du ChBT
33:37 auch zwei Fenster aufmachen und einmal mit fünf und einmal mit vier und einmal mit Reasing und einmal ohne ähm und dann die Ergebnis vergleichen, da hast du es halt direkt nebeneinander. Das ist so
33:46 ein Feature, was halt auch ganz cool ist. Aber auch eher wieder Developer Fokus, wenn ihr entscheiden müssen, nutze ich für meine Lösung oder Anwendung A oder B, können sie
33:57 Ergebnisse quasi direkt nebeneinander legen und vergleichen, ne? Auch irgendwie super spannend für die meisten Leute von uns wahrscheinlich weniger relevant. Ja,
34:07 vergleichen werden wir beim nächsten Mal auch, nämlich Browser. Ja, wir sind wieder in einer Zeit, wo es neue Browser gibt. Das ist so spannend wie in den 90ern. Dann gab's auch die Browser Wars
34:17 Netscape gegen Microsoft. Jetzt hab hat auf einmal Opmi ein Browser und äh Perplexity hat ein Browser und Adlesian hat ein Browser gekauft und Microsoft hat ein Browser und baut der AI ein und
34:29 Google auch. Spannend. Das gucken wir uns genauer an in der nächsten Folge. Bis dahin bleibt uns gewogen, liked, kommentiert, empfehlt uns und wir freuen uns auf jedes Feedback. Bis zum nächsten Mal.
34:42 Bis dann. Ciao. Cointelligence ist eine Produktion von The Key Academy in Zusammenarbeit mit Snipkey. Produziert bei Studio Co in Berlin. Produktion und Regie: Christina
34:53 Manuele, Fuat Sebadli und Elias Frobel. Creative Director Lukas Schelter. Redaktion und Moderation Benjamin Wüstenhagen und Moritz Heininger. Abonniere uns auf Spotify, Apple
35:05 Podcasts oder YouTube. Danke fürs Zuhören.