Co-Intelligence

// Transkript

#8: Brauchen wir noch Designer? Bild-KI im Härtetest

Vollständiges Transkript dieser Episode des Co-Intelligence Podcasts. 5.517 Wörter. · Auf YouTube ansehen ↗

0:00 Das sind einfach die Entwicklungsgeschwindigkeiten sind sind wahnsinnig. Es wird ähm zum einen immer schneller, also ein Bild zu generieren mittlerweile. Es gibt fast äh Lösungen,

0:12 die generierenden Bilder live. Also ich gebe meinen Prompt ein, klicke auf senden und krieg sofort ein [Musik]

0:27 Foto. Willkommen zurück zu Episode 8 von Cointelligence, eurem KI Lern Podcast. Nachdem wir beim letzten Mal in ganz konkrete Usases von KI im Unternehmen eingestiegen sind, schauen wir uns heute

0:40 noch konkreter an, wie ihr mit KI Bilder erstellen könnt und gehen der Frage nach, ob es in Zukunft noch Grafiker braucht oder ob Prompten allein reicht. Ob das wirklich so ist, ähm schauen wir

0:52 mal. Ich glaube wie immer, man muss trotzdem noch Experten und Expertin haben. Äh die Arbeit an sich wird sich wahrscheinlich sehr verändern von Designerinnen und von Designern. ähm

1:02 weil die KI einfach immer immer besser wird und hätten wir die Episode vor, ich glaube zwei Monaten aufgenommen, da hätten wir noch zu ganz vielen Sachen gesagt, ja, geht

1:14 eigentlich noch nicht so gut und mittler gehen immer immer mehr Sachen und wahrscheinlich würden wir das ganze in dem halben Jahr noch mal aufnehmen, dann würde noch mehr gehen als wirklich

1:25 gerade beim Thema Bild und auch bei Video, was ja dann die nächste Episode sein wird. Das sind einfach die Entwicklungsgeschwindigkeiten sind sind wahnsinnig. Es wird ähm zum einen immer

1:36 schneller, also ein Bild zu generieren mittlerweile. Es gibt fast äh Lösung, die generierenden Bilder leise. Also ich gebe mein Prompt ein, klicke auf senden und krieg sofort ein Foto. Das Ganze

1:48 geht natürlich immer so ein bisschen auf die Qualität. Also entweder das dauert ein bisschen länger und wird besonders gut oder es geht halt extrem schnell. Aber auch dieses extrem schnelle hat

1:55 schon wahnsinnig gute Qualität mittlerweile und es wird immer einfacher, diese Bild KI zu bedienen, ähm wie wir uns gleich anschauen werden. Und es ich kann immer individueller

2:07 meine Bilder bearbeiten, was vorher auch noch nicht ganz so gut ging. Also die Entwicklung ist schon crazy, muss man sagen. Text gehen mittlerweile auch in Bildern, das war vor einiger Zeit auch

2:17 kommen möglich. Hände werden ganz vernünftig dargestellt. Also zwei Aspekte, die gerade am Anfang schwierig waren. Genau. Genau. Teilweise noch sind, aber wirklich immer besser werden.

2:27 Wir haben ja mal ein Beispiel mitgebracht, das ein Video, was wir aufgezeichnet haben von einer Lösung, die wirklich fast instant Bilder generiert. Also das Video, was wir

2:36 gleich zeigen, ist ähm live, also in in Echtzeitgeschwindigkeit. Das ist nicht irgendwie schneller gemacht oder som. Und für die ähm Zuhörerinnen und Zuhörer, die jetzt nicht die ähm die

2:48 Videoaufnahme in dem Podcast haben, erklären wir jetzt ein bisschen, was wir vor uns sehen. Und zwar ähm klicke ich jetzt hier mal auf Play auf dem Video. Aktuell sehen wir ein ähm sehr

2:58 stylisches Rennmotorrad, was erstellt wurde. Das ist aber das das erste Bild. Wir klicken jetzt auf Play und sehen, wie schnell ähm sich das Bild ändert, wenn ich oben den Prompt ändere in

3:10 diesem ähm Fenster. Das ist so. Und zwar klicke ich hier auf Play und wir sehen jetzt oben ähm eine Person mit Jens auf dem T-Shirt und klicken mehrfach auf Run und jedes Mal kam ein neues Bild von

3:24 einer Person mit Jens auf der Mitte tatsächlich im Wald, also wirklich instant wirklich in Sekunden schnell. Ja, das ist Wahnsinn. Das ist komplett crazy und eben war der Prompt, dass

3:36 die Person im Wald sitzt. Jetzt soll sie im Park sitzen. Also wir ändern leichte Teile des Prompts und quasi wirklich instant jedes Mal, wenn wir auf Enter drücken, wird sofort neues Bild erstellt

3:47 und auch tatsächlich in der guten Qualität. Jetzt noch nicht wirklich perfekt, aber schon sehr sehr gut. Man sieht das alles so ein bisschen weich gezeichnet, ne? Wie das oft bei KI Fotos

3:58 war, muss man dazu auch sagen. Wirklich die neuen Modelle. sind ähm einfach ja da deutlich besser, aber die Geschwindigkeit ist einfach wahnsinnig. Also wirklich, ich drücke auf Enter, ich

4:08 verändere den Prompt und bekommen sofort quasi ein neues Bild. Und hier, das ist natürlich für euch spannend, wenn ihr Bilder einsetzt bei euch im Unternehmen, sei es jetzt im internen Marketing, ja,

4:18 in der internen Kommunikation, auch in der externen Kommunikation. Ihr könnt jetzt nicht mehr, ihr müsst nicht mehr auf die Grafik warten. Ihr könnt selber rum experimentieren und und Bilder

4:28 erstellen. Wir hatten es gerade vor der Aufnahme, wir wollten unser Podcast Logo noch einfügen und hatten nicht die richtige Version und wir waren schneller im Ende des Hintergrunds als der

4:39 Grafiker, der dann runterkam. Genau. Und die Frage ist, glaube ich, grundsätzlich, die ich mir stellen muss, für was möchte ich denn diese Grafiken verwenden? Ja, natürlich, wenn ich jetzt

4:48 ein Printmagazin habe und alles perfekt sein muss, dann könnte ich mir überlegen, da wirklich die komplette Zeit zu investieren und das ganze from Scratch aufzubauen, ne? Aber auch da

4:59 macht's vielleicht oft Sinn, ähm als Grundlage eine Grafik zu verwenden. Ich kenne ein großes Unternehmen, was deutschlandweit ähm Plakate in den U-Bahn und äh Straßen und so ähm

5:12 platziert und äh hat dort keinerte Grafiken mit drauf, die natürlich dann von dem Menschen noch mal angepasst wurden, aber die wirklich gut genug sind oder wirklich perfekt sind für diese ähm

5:22 Grafiken und vor allem so gepromptet werden können, wie ich sie tatsächlich genau brauche, ne? Das ist ein riesen Zeitersparnis und vor allem Kostenersparnis. Und ähm haben ang gesagt, es wird nicht

5:35 nur schneller, es wird vor allem auch einfacher. Wir haben hier mal so ein äh Slide äh mitgebracht, äh was noch vor einem halben Jahr ähm die Grundlage war für viele Grafikdesigner, die mit der

5:49 ähm mit Journey so eine ein Bildgenerierungstool, was ähm sehr gut ist, äh was wahrscheinlich bald auch noch mal eine ganz neue Version bringt und dann auch noch mal deutlich besser

5:58 sein wird, aber da musste man noch sehr genau das ganze prompten und äh sehr ja hatte musste überall die Details richtig haben und die die Parameter, um am Ende irgendwie ein Foto zu bekommen, was

6:13 was quasi darstellt, was ich gerne möchte. Und auch dieses ganze Prompting wird immer leichter bei Bildmodellen. Ja, du hest mit Journey angesprochen, ein paar andere Modelle oder Tools, die

6:23 es gibt. Dall war somit eins der ersten jetzt nicht mehr so richtig weiterentwickelt, wenn ich es richtig verstehe. wurde jetzt ersetzt mit der neuen Bildgenerierungsäh Lösung oder äh

6:34 Technologie von Open AI und kann können wir auch ein Chat GBT einfach nutzen, auch mit der 20 € Version. Ähm und Google hat immer bessere Bildmodelle in den Gemini multimodalen Gemini Modellen.

6:48 Ähm und es geht einfach ja ständig weiter. Es war wirklich so. Google hat ein neues Bildmodell rausgebracht und das war absolut State of the Art. Ich konnte auf einmal Text in Bilder

6:57 einfügen, konnte die Bilder editieren und eine Woche später kam Open AI mit dem neuen Modell raus, weil davor Dali i war uralt und eigentlich auch nicht gut, also lang nicht, also weit auch hinter

7:08 eine Mid Journey. Ähm und äh von daher ich würde mich gar nicht direkt auf einen Tool festlegen. Ja, also ähm da passiert so viel noch und äh es ist noch gar nicht klar, wer der neue

7:20 Gewinner. Es gibt ein deutsches Modell, das ist Flux oder Flagsmodell aus dem Schwarzwald aus Deutschland. ähm was sehr gut performt und ähm ja, also ich würde immer gucken, was ist das aktuelle

7:31 und beste Modell und ähm dann damit arbeiten. Auch die großen, also die große Adobe ist ja bekannt für die Bildbearbeitung mit Adobe Photoshop. Äh die haben Firefly selber ein Modell

7:42 eingebaut auch als im Adobe Produkt und es gibt wahrscheinlich 200.000 verschiedene kleine Tools. Genau, den ich irgendwas mit Bildern und Dobi tatsächlich stand heute, ne? Das kann

7:53 wirklich sein, dass wenn man den Podcast in zwei Monaten hört, dass alles, was ich jetzt sage, wieder outdated ist. Stimmt heute ist Adobe eigentlich richtig hinten dran. So, okay. Aber

8:02 wissen, also seit würde ich sagen ungefähr einer Woche, also seit eben die Labs, also Open AI und Google die neuen Modelle rausgemacht haben, ist Adobe wieder hinten dran. Aber von

8:14 daher, man sollte sich da gar nicht so drauf fokussieren, wer jetzt der beste ist, weil in zwei Wochen wieder jemand anderes rauskommt. Wenn ich in der Adobe Suite arbeite, ähm dann wird's in der

8:24 Regel auch nicht lange dauern, bis Adobe dann nachzieht mit einem äh mit einem tollen neuen Bildmodell. Und ähm ja, ich es kommt immer drauf an, was ich machen möchte. Oft langt vielleicht auch das

8:35 zweitbeste Modell für mein US Casases, weil auch Mid Journey in der letzten Variante einfach ein sehr tolles Modell hat und von daher, wenn ich ein JPT nutze kann ich damit sehr gut Bilder

8:45 generieren. Wenn ich auf Gemin bin, kann ich damit sehr gut generieren, weil es seid wirklich der Designer der State of the Art immer das allerbeste und letzte haben und braucht quasi für die Arbeit

8:55 muss ich eigentlich auch nicht hin und her switchen. So ein bisschen wie bei den Textmodellen unterscheiden sich mir auch mal ein bisschen in Stil oder Detailtreue oder auch den Kontrollgrad,

9:02 den ich habe, aber auch das nähert sich mehr an. Genau. Wie viel ich prompten muss, um quasi das hinzubekommen, was ich gerne möchte. Aber jetzt haben wir hier noch ein paar äh lustige Slides

9:12 mitgebracht. Für alle, die es nicht sehen können, äh wollen nur mal zeigen, wie wie einfach es mittlerweile ist, einfach diese Bilder zum Prompten zu generieren. Also auch jemand, der

9:21 eigentlich überhaupt gar keine Ahnung von Design hat, muss jetzt keine Stockfotos mehr durchsuchen. Wenn ich jetzt z.B. Bild eines netten Roboters haben will, habe ich wirklich nur genau das geprompt

9:34 in Chat GPD in dem Fall und sehe hier einen sehr freundlichen Roboter, der lächelt und in die Kamera winkt. Und ähm jetzt möchte ich vielleicht noch ein bisschen das Bild editieren und jetzt

9:48 spreche ich mit der KI wieder wie als würde ich mit einem Designer oder Designerin sprechen. Da sind wir beim Thema Cointelligenz. Ich sage es gerne, was ich für Änderung hätte und bekomme

9:57 diese Änderung innerhalb von wenigen Minuten, Sekunden umgesetzt. Nur, dass die KI auch schon morgens um 8 im Büro ist bei Designer nicht immer. Das ist aber ein harter Spruch. Ich

10:07 hoffe, es sind nicht zu viele Designer hier anzuhören und auf einmal kriegst du böse Nachrichten unter das YouTube Video gepostet. Ähm, sagen wir Designer, die nicht in Berlin wohnen.

10:20 Ähm, Grüße gehen raus an Lukas. Ähm, genau. Und jetzt haben wir gesagt, hey, wir hätten gerne den gleichen Roboter, aber der soll in Frankreich sein. Hab einfach nur gesagt, jetzt

10:30 verändere den Hintergrund in Frankreich und jetzt versteht die Graben, ja, Frankreich, was assozi mit Frankreich, viele Sachen, aber vor allem ja den Eiffelturm. Und jetzt haben wir hier im

10:38 Hintergrund den Eiffelturm und haben den gleichen Roboter, der genauso aus wie wir vorher, was früher auch oft nicht ging. Wenn ich Änderung gepromptet habe, hat sich sehr viel am Bild geändert. Die

10:48 Charaktere haben sich sehr stark geändert und alle und das ist jetzt auch mittlerweile möglich, dass die Charaktere eben gleich bleiben. Und jetzt sagen wir im nächsten Promt setze

10:57 dem Roboter doch mal ein Hut auf. Jetzt haben wir den gleichen Roboter vor dem Eifelturm mit einem schönen Hut auf. Humanoid und Hutmanoid. Genau. Ja. Ähm und so werden die Modelle

11:11 immer besser und die verstehen uns immer mehr. Und wir haben noch ein paar Beispiele und zwar die Entwicklung von Midourney mitgebracht und wie gut Mid Journey über die Zeit wurde. Aber analog

11:21 gelt gelten die Beispiele, die wir jetzt zeigen eigentlich für alle Modelle über die Zeit heißt die letzten zwei Jahre ne länger ziemlich genau das ist total wild

11:27 und ich lese den Prompt mal vor und dann können wir mal gucken, was dabei rauskam bei den verschiedenen Modellen. Der Prompt lautet ein Foto eines alten Mannes. Alter Mann mit einer grünen

11:40 Jacke und einem grauen Bart. Ein weißes T-Shirt, ein roter Hut. Er steht in New York City an einem sonnigen Tag und schaut in den Himmel, während er eine schwarze Tasse Kaffee in der Hand

11:56 hält. Also sehr, sehr viele Dinge, die wir hier haben möchten, die die KI verstehen muss und umsetzen muss. Und jetzt schauen wir mal mit Journey an. Das ist jetzt 2022 3 Jahre. Ja, man man

12:09 sieht äh Wolkenhintergrund, ein Hut und irgendwie was ist das? Ein Bier irgendwie ein roter Becher, also rot und grün und Wolken und so so ein paar Elemente wurden irgendwie aufgegriffen,

12:20 aber den richtig alten Mann, der rut oben so ein bisschen grau, äh relativ weit weg. Könnte nur ohne sein, das ein sehr alter Mann. Ja, also an die an die Hörer, man erkennt ja eigentlich gar

12:30 nichts von dem Prompt, sondern nur so ganz einzelne Elemente. Das nächste Bild mit Journey Version 5 2023 sieht schon mal ultra realistisch aus. Ja, es ist ein alter Mann mit einem

12:44 grauen Bart. Steilisch. So, jetzt haben wir aber er hat eine grüne Mütze und er hat eine rote Jacke. Und was war der Prompt? Die Sonne sieht man nicht so richtig. New York man sieht ist irgendwie

12:58 Großstadt, das sieht man genau. Also es passt irgendwie so halb, aber wenn wir noch mal uns quasi den Prompt anschauen, er soll ja einen roten Hut tragen. Ja, genau. Und eine grüne Jacke, weißes

13:08 T-Shirt. Aber er hat eine rote Jacke und ein grünen Hut. Aber dafür ein weißes weißen Bart. Ja. Und er hat auch ein weißes T-Shirt. Also, nee, auch nicht so ganz. Es ist schon ein schönes Bild und

13:19 das sieht schon realistisch irgendwie aus, aber es halt nicht genau das, was wir gesagt haben und wollen. Und jetzt haben wir die Mid Journey Version 6. auch aus 23, auch schon paar Jahre alt.

13:28 Ja, auch aus stimmt auch schon wieder jetzt fast zwei Jahre alt. Da soll jetzt bald die V7 kommen. Ich gehe fast davon aus, dass wenn die Episode live geht, dass es dann schon die V7 gibt. Ähm,

13:40 aber hier sehen wir, wir haben den alten Mann mit dem grauen Bad in New York City, der in die Sonne schaut, mit einer grünen Jacke, einem weißen T-Shirt und ein Kppt Kaffee, Becher Kaffee in der

13:51 Die Sonne sieht man noch nicht. Man könnte aber New York wird erkennbar, aber man sieht so die Straßenschluchten und kann im Hintergrund. Er schaut in die Sonne, er soll ja in die Sonne

13:58 schauen, ne? Und das das tut er. Die Superprofis würden jetzt wahrscheinlich auch sagen mit Brennweite so und so und dann würde man irgendwie noch erkennen können, welche Kamera eingewässt ist.

14:06 Das genau, das ist jetzt quasi das Prompting Thema, was wir uns quasi auch als nächstes noch mal anschauen wollen. Bevor wir da hingehen, aber vielleicht noch ein kleines Quiz und zwar haben wir

14:18 hier zwei Bilder vor uns. Haben auf der linken Seite ein Bild von einem jungen Mann, der ins Handy schaut und wir haben auf der rechten Seite auch noch mal ein Bild von einem jungen Mann, der das

14:26 Handy in der Halb hält. Und die Frage ist, was ist echt und was ist KI? Die Hände sehen beide gut aus. Das Handy sieht auch irgendwie fair aus. Es super schwer für mich auch kein Weisen. Schwer

14:39 zu sagen. Also ich hätte intuitiv gesagt, dass rechts KI ist und links ähm das echte Bild, weil ich rechts den Kontrast so ein bisschen sehr stark finde, aber tatsächlich ist es genau

14:50 umgedreht. Und ich glaub, die Message ist hier, es ist heutzutage in den allerwenigsten Fällen noch erkennbar, ob das ein echtes Bild ist oder nicht. Und ähm und heute ist der die schlechteste

15:05 Version der KI, wie sie je sein wird. Heißt ein Jahr in die Zukunft gesehen wird kein Mensch mehr ähm außer sind irgendwie offensichtliche kleine Fehler ähm kaum noch erkennen können, was ein

15:17 KI Bild ist und was nicht. Und hier haben wir noch ein weiteres Beispiel mitgebracht. Für die Hörerinnen, die nicht auf den Bildschirm gucken können, haben wir hier Partybilder oder ein Bild

15:27 von einer Frau in dem Podcast Studio und die sehen halt einfach super realistisch aus und es gibt so einen kleinen Prompting Hack sogar. Ähm und zwar wenn du Fotos auf dein von deiner Kamera von

15:40 deiner Digitalkamera auf dem Computer geladen hast, dann heißen die oft irgendwie so DCM oder irgendwie sowas mit irgendeiner Zahl, ne? Und äh wenn du diesen diese Codes nimmst oder äh

15:52 irgendeine Random Zahl und dieses ich weiß nicht me g DCM war, aber diese diese Kamerprache, wie die Bilder immer ähm genannt werden und das in ein Prompt mit reinnimmst, dann wird die KI die

16:04 Fotos erstellen, die eher realistisch aussehen und wie so ein echtes Foto, weil die KI ja mit den Daten gelernt hat und die KI lernt natürlich, was auf dem Bild ist, die lernt aber auch die

16:14 Filenames sozusagen mit und ähm so bekommst du quasi in dem Fall dieses Partyfoto, was wir auf der rechten Seite Fotos, die wirklich aussehen als wenn es echte Fotos wären. In Zukunft das ist

16:24 aktuell so ein Prompting Hack. In Zukunft wirst du das einfach rein prompten können, sagen soll ultraalistisches wie ein Snapshot von der Handykera sein und dann dann wirst

16:35 du es genauso gepromptet bekommen, aber das dann konntest du quasi temporär ähm dieses Ergebnis erzielen, weil oft die KI Bilder ja so überperfekt irgendwie aussahen, ne? Und die Haut war

16:47 irgendwie immer glatt und äh und so hast du hal irgendein Realismus mit reinbekommen. Ähm den es gab auch spannt, dass ich wir haben das oft, ne, bei irgendwelchen Veranstaltungen, wenn

16:55 du Fotos machst, müssen alle mit alle Menschen, die dort sind, irche Unterschriften leisten und da musst du gucken, diejenigen, die nicht fotografiert werden wollen, kriegen ein

17:03 roten Button oder was hast du da nicht mehr? Ja. Ja. Der Promptest du dein Bild rein kannst nutzen, auch wenn du jetzt nicht keine Bilddatenbank hast, ja, keine Bilddatenbank hast, die du auf die

17:11 Zugriff hast, dann kannst du dir so Bilder erstellen. Oder du sagst der KI, hier sind irgendwie Partybilder und verändert die Gesichter von allen Personen, die ein roten Button auf dem

17:20 T-Shirt haben und n den roten Button raus, ne? Dann hast du das quasi auch gelöst. Bitte auch die Miere retuschieren. Was? Genau. I reduschierende Wasser draus machen.

17:27 Wobei ich sag das Gute ist ja die Jugend trinkt ja immer weniger. Das das schon mal kurz drüber unterhalten. Herr Fog auch für die Dokumentation von Weihnachtsfeiern. Ja, genau. Ja. Ähm

17:38 jetzt schauen wir uns mal was anderes cooles an oder ein weitere äh ja Fähigkeit der KI Bilder, die es auch in letzter Zeit erst neu oder seit letzter Zeit erst gibt. Und zwar ist es hier

17:50 auch Chat GPT. Wir haben h ein wunderschönes Bild von Co-host Benny vor uns. Also für die Hörer, die das Bildschirmaufnahme nicht sehen. Ein behind the scenes Schnappschuss. Genau.

18:01 Und äh Benny hat einen grünen Pulli an und ich habe einfach mal gesagt: "Hey, bitte erstell noch mal mit einem weißen T-Shirt." Und da sehen wir Benny in einem weißen T-Shirt. Man muss sagen,

18:15 das Gesicht ist ein bisschen hat sich schon ein bisschen verändert. Wenn man Benny quasi kennt, dann sieht man sieht schon bisschen anders aus als Benny. Das ist noch nicht perfekt, aber wie gesagt,

18:26 es wird noch ein halbes Jahr dauern und dann wird auch das Gesicht quasi eins zu eins übernommen. Spannend ist es der Faltenwurf, also man sieht richtig ein Faltenwurf, man sieht irgendwie die

18:34 Schattierung. Das sieht schon ziemlich ziemlich realistisch aus und der hat sich auch Arme ausgedacht, die halt vorher von dem Pullover bedeckt waren jetzt in dem T-Shirt. Also ja, hat aber

18:43 schon erkannt, dass B kein Bizeps hat. Ja, das ist das nie gehabt. Dann war der nächste Prompt. Jetzt hier ist unser Cointelligence Logo. Ja, pack doch mal bitte das Coint

18:54 Intelligence Logo auf das T-Shirt von Benny. Und jetzt sehen wir im nächsten Bild auf dem T-Shirt von Benny auch so ein bisschen geschwungen. Also jetzt nicht einfach irgendwie das Logo drauf.

19:05 geklatscht und man sieht, dass da einer genau das Logo drauf gelegt hat, sondern der Benny hat das das weiße T-Shirt an mit Cointelligence, das Logo drauf ist in der gleichen Pose. Also schon crazy,

19:16 was mittlerweile geht. Ein anderes Tool, was da sehr gut ist, ist ein Tool, das nennt sich Recraft, wenn man das mal ausprobieren möchte. Aber wie gesagt, auch wenn man Standard Chelse bet in der

19:25 20 € Variante, hat man mittlerweile Fähigkeiten, die vorher wirklich nur gute Grafikdesigner und Designerin hatten. Also, wenn sich euer Team weigert, ja, irgendwie die das

19:35 Firmenlogo sich auf den Hemdkragen sticken zu lassen, macht schon mit Ky. Genau. So, jetzt kommen wir mal zu den, man muss glaube ich noch bekannten Problemen kommen, die auch jetzt schon deutlich

19:49 geringer sind, als sie mal waren. Und zwar das erste, du hast angesprochen, Hände. Früher hatte KI immer die KI Finger hatten oft mal oder Hände hatten mal sechs Finger mal sieben Fingerfinger

20:06 Details und daran hat man immer sehr schnell ein Bild ein KI Bild erkannt. Es wird aber schon deutlich deutlich besser. Die neuen Modelle kriegen es in vielen in den meisten Fällen sehr gut

20:19 hin. Und wenn ihr KI Bilder erstellt, ist glaube ich der Tipp, ihr wollt euch ja auch nicht blamieren, dass ihr auf jeden Fall als ein Check immer auf die Hände und die

20:31 Finger anschaut, ob die natürlich sind. Auch manchmal sind zich fünf Finger, aber die sehen nicht so ganz natürlich aus. Ähm, wie gesagt, es wird in Zukunft immer ein geringeres Problem, aber da

20:40 würde ich auf jeden Fall drauf achten, wenn so der erste Qualitätschecken. Genau. Kein Frankenstein. Dann anderen Punkt, den du auch schon angesprochen hast, ist das

20:50 Thema Schrift im Bild. Ja, ging bis vor vielleicht einem halben Jahr oder seit einem dreiviertel Jahr gibt's ein Tool, das nennt sich Ideogram und das war so bisschen das Alleinstellungsmerkmal von

21:03 Ideam, das eben relativ gut Texte in Bildern platzieren konnte. Du kannst beispielsweise sagen, ich hätte gern ein ähm irgendwie ein Billboard oder eine Autobahnwerbung oder ein Autobahnschild

21:16 oder und schreibt da folgenden Text drauf und meistens so bis so fünf bis vielleicht auch noch gerade so zehn Wörter eher so fünf bis sech sieben Wörter hat es oft noch ganz gut

21:26 hinbekommen und oft war das einfach so, du hast vier verschiedene Varianten produziert bekommen, drei davon waren Murks und beiden hat's gepasst und dann kannst du einfach so oft generieren, bis

21:34 die bis der Text irgendwann funktioniert hat. Ähm, das geht mittlerweile sehr, sehr viel besser. Also gerade in den neuen Google Modellen, den neuen Opmiellen, die können im Prinzip ein

21:44 halb vollgeschriebenes Whiteboard erstellen. Die können wir mittlerweile Infografiken erstellen und zwar selbst erst überlegen, was muss eigentlich in so eine Infografik rein, dann eben das

21:57 Konzept dieser Infografik grafisch anzulegen und dann den richtigen Text in die Infografik reinzuschreiben. Das geht seit kurzem und das ist total wild. Das ging vor von einer Woche, hätten wir den

22:08 Podcast von der Woche aufgenommen, wä es nicht gegangen. Habe ich selber noch nicht, habe ich selber noch nicht probiert ist so ein Klassiker. Ich hatte vor einiger Zeit mal probiert so ein so

22:16 ein klassischen Marketing Funnel mit unseren Spezifiker darzustellen, das da kam Grütze raus. Dann wollte ich jetzt hatte ich letztens ein Workshop dazu, hab es aber nicht noch mal gemacht, weil

22:24 ich dachte ja war ja von einem halben Jahr Grütze, hätte ich es mal gemacht. Ja, also es ist total crazy, wie schnell sich da die Zeit weiterentwickelt und ähm dann was jetzt auch schon sehr sehr

22:36 gut geht, sind die Farbwerte zu bestimmen. Das ging ja auch bis vor kurzem nicht. Es können auch viele Modelle noch nicht richtig, also dass ich z.B. sage irgendwie das ist der

22:45 unser Corporate Color Code und jetzt erstellen Color Code ein T-Shirt, ein Bild, eine Person, was auch immer. Super spannend, weil halt kannst halt ein Style Guuard erstellen, sowohl mit den

22:56 Farben, aber kannst natürlich auch mit Stil machen. Also wenn wenn ihr bestimmte Bilder im Steiler habt, dann könnt ihr die auch hochladen bei einigen Modellen, könnt dann sagen, orientiere

23:05 dich an diesem Stil, orientiere dich an diesem Style Guide, heißt, ihr braucht dann eben keine Shootings mehr oder keine und ich meine Bilddatenbanken sind ja sowieso Katastrophe, weil die haben

23:14 die Dy Guides und du kannst im Prinzip in dem Stil in dem deine Firma normalerweise Bilder oder Grafiken erstellt, die für den jeweiligen US Case erstellen lassen. Ja. Ich glaube, ähm,

23:25 die Tage der äh Models, die Model Jobs sind gezählt. Es wird bestimmt noch die absoluten Topmodels in Zukunft geben für die absoluten teuren Top Brands, aber ähm die allermeisten Bild Shootings

23:43 werden, glaube ich, in Zukunft immer mehr mit KI generiert, dann KI mittlerweile einfach wirklich gut darin ist, auch Produkte sinnvoll zu platzieren, in Bilder zu platzieren und

23:53 äh du kannst, da kommen wir gleich noch zu, du kannst Modelle auch trainieren mit deinem Produkt oder dein dein ja, dein Fotos oder Artikel oder was auch immer du machen möchtest, um sie dann in

24:03 verschiedenen Settings wieder zu zeigen. Kommen wir gleich noch mal drauf. Ähm noch ein letzter Punkt und zwar ist das Thema Auflösung. Bisher haben die meisten Tools ähm konnten nicht

24:14 hochauflösend auflösen äh oder hochauflösende Bilder äh erstellen, die du natürlich brauchst, wenn du große Print äh irgendwie Medien hast und äh auch je nachdem für was du sie eben

24:25 digital verändest, brauchst du einfach eine gewisse Grundauflösung, ne? Es gibt aber Upscaler und die sind extrem gut beispielsweise auch um alte Fotos oder verpixelte Fotos gestochen

24:37 scharf ähm zu erstellen. Also die die KI überlegt sich, was sollte müsste denn hier eigentlich sein? Mhm. Und erstellt dann sozusagen neue Pixel, dass das Ganze extrem scharf wird. Und hier haben

24:49 wir so ein Bild von ähm einem ja Schloss äh Schloss am Meer. Ähm und so auf dem ersten Blick, ne, sieht irgendwie alles ganz gut aus. Aber es ist halt nicht sehr hochauflösend. So, wenn ich jetzt

25:03 z.B. so in so ein Turm ranzoomen würde, dann wäre der schon sehr unscharf. Jetzt gibt's aber Tools wie beispielsweise Magnific AI, die dir ein Upscaling machen. Da lädst du ein Bild rein und

25:17 der die KI scalt das einfach hoch und in sehr smarten Weg, ne? Natürlich ist es sozusagen die KI denkt sich aus, was da sein müsste, weil diese Information halluziniert, aber in in einer guten Art

25:31 und Weise. Genau. Genau. Und das ist schon richtig spannend. Bisschen wie digital Zoom, ne? Früher war du da Dopplung von Pixeln hattest. Ja, für privaten Bereich alte Fotos, die man

25:41 noch hat, die man einscannt, ne? Hat genau das Thema, dass die irgendwie oft sehr schlechte Auflösung haben. Die kann man mittlerweile privat eben mit so Tools hochskalieren und Family Alben

25:51 machen, Weihnachtsgeschenke. Also, es gibt auch ganz viele private Anwendungsfälle. auch die Fotos der ersten Webcam ja funktionieren dann doch besser. Genau. Ähm ich meine ein Thema,

26:02 was wir schon mal gestriffen hatten, nämlich in Episode 3, das ganze Thema Bias und Stereotypen, das kann man natürlich, also das gibt's nach wie vor, das sollte man auf der Schirme haben,

26:12 gerade bei Bildgenerierung. Es wird besser, aber wir haben nach wie vor Biases drin und nach wie vor müssen wir halt schauen, dass nicht gewisse Stereotypen auf Grundlage der des

26:21 Trainings bedient werden. Genau. Also, wir sind in Verantwortung. Äh, wenn ich jetzt der KI sage, erstell mir Bilder von einem Arzt und die KI gibt mir vier Männer, dann ist es meine Verantwortung,

26:33 die KI zu prompten, dass die KI mir auch weibliche Ärztin erstellt, die ich dann verwenden kann ähm in meiner für meine Webseite, für mein Content und so weiter und so

26:44 fort. Also jeder trägt eine gewisse persönliche Verantwortung mit, weil wir einfach nicht wollen, dass die äh gesellschaftlichen Vorurteile, die in den Daten irgendwie vorhanden sind,

26:55 weiter ja verstärkt werden durch die KI und da ist wieder das Punkt Ethik, Verantwortung und so weiter. Das liegt einfach bei uns. Hast du noch weitere Beispiele

27:04 mitgebracht? Ich glaube, wir können uns vielleicht noch mal, wir haben ja ganz viele Tools irgendwie erwähnt jetzt in der Folge und Tools zu empfehlen ist immer extrem schwierig, weil wir wissen

27:13 ja nicht genau, wann die Hörer die Episode eben hören und von daher haben wir ein paar mitgebracht, aber es ist wirklich ja eine momentan Aufnahme und in drei Monaten kann wieder alles anders

27:26 sein. Vielleicht die Inspiration, dass man sich immer neues zu Tools anschauen sollte, unter anderem vielleicht die nicht in der Reihenfolge, aber wahrscheinlich wird's hier noch geben.

27:34 Genau. Also ein sehr cooles Tool, was ich jedem an die Hand geben kann, das nennt sich Freepick. Warum? Freepick ist kein eigenes Modell. Freepick ist ein Bild ein

27:43 Bildgenerierungstool, was auch Videos erstellen kann und Sound. Also Freepick kann sehr viel. Bei Freepick, bei Freepick kann ich die aktuellsten Modelle der bekanntesten Anbieter immer

27:53 auswählen. Sprich, ich habe immer die gleiche Oberfläche, kann aber das zugrunde liegende Bildmodell auswählen und dann quasi immer das beste Bildmodell für mein Uscase nutzen. Und

28:04 von daher bin ich großer Freepick Fan. Natürlich Chat GPT. GPT jetzt gerade mit dem neuen Update macht sehr sehr gute Bilder, kann extrem gut auch eben Text in Bilder machen und wenn ich E Chat GPT

28:17 nutze und schon die Subscriptions fahle, da kann ich da einfach extrem viel mitmachen. Dann Gemini, Google, das Google Produkt, das Google Produkt. Wenn ich in der Google quasi Umfeld

28:27 Environment arbeite, in Google Workspace nutze MNI vom Bildmodell aktuell on par mit mit Chat GPT Mid Journey war bis zur kurzen das absolute Top top Tool. ist jetzt ein

28:41 bisschen hinten dran, aber es gibt schon die ja die Rumors, dass bald Mid Journey mit einem neuen Modell rauskommt und wer weiß, vielleicht ist der Mid Journey wieder vor den anderen. Äh Ideogram

28:51 hatte ich erwähnt, insbesondere für das Thema Texte. Äh wobei da jetzt eben Google und Chat GPT nachgezogen hat. Und du hast auch erwähnt, Adobe Firefly, wenn ich eh Adobe nutze, hängt gerade

29:02 ein bisschen hinten dran, aber wer weiß, kann alles wieder sehr bald sehr anders sein. Natürlich sollten auch noch die Europäer die die Schwaben erwähnen aus dem Schwarzwald. Wie s gleich noch mal?

29:13 Flux. Flux. Genau. Ja, wobei Flux ähm jetzt könnte ich falsch liegen. Ich weiß gar nicht, ob die ihr eigenes Frontbend haben auch mittlerweile oder es gibt natürlich viele Open Source Lösungen,

29:23 die das Flagmodell nutzen. Ich weiß gar nicht, ob Flag mittlerweile auch ein ganz eigenes Front hat. Das kann sein, z.B. Flux, das deutsche Modell, kann ich ein Freepick auswählen. Ja, das ist z.B.

29:34 so ein dieser Modell. Und jetzt würde ich sagen, Thema Bildgenerierung. haben viel gelernt. Wir sind durch die verschiedenen US Cases gegangen. Wir haben uns angeschaut, wie sich alles entwickelt

29:46 und was alles besser geworden ist über die Zeit und wo wir heute stehen. Und ich muss sagen, ich bin echt beeindruckt und ich schaue mir das jetzt schon eine Weile an und ich finde, wir sind gerade

29:54 an so einem Punkt ja, wo einfach du als Leihe Sachen erstellen kannst, die du nie hast erstellen können und ein Profi wird vielleicht nicht erkennen, dass das Ganze nicht echt ist und einfach die

30:07 Einfach dieser Tools und Sachen auszutauschen, die Konsistenz der Charaktere, die Auflösung und so weiter und so war es einfach richtig richtig spannend. Ähm und ja, was auch noch

30:18 spannend ist und äh da kommen wir vielleicht jetzt schon zur nächsten Folge, ist das ganze Thema Video. Ähm und äh da werden wir uns auch noch ein paar spannende Videos anschauen. Ähm

30:31 Keyword ist hier Will Smith beim Nudelnessen. Ähm ja ja, wir erzählen jetzt noch nicht so viel, was es damit auf sich hat und daher unbedingt die nächste Folge anschauen. Wenn euch die

30:43 Folge gefallen hat, bitte auf die Glocke klicken, wenn ihr bei YouTube seid. Sonst lasst ein Like da, schreibt ein Kommentar drunter, supportet gerne den Podcast und sagt ein euren Freunden

30:55 Bescheid. Bis zum nächsten Mal. Wenn du bis hierhin zugehört hast, danke ich dir als KI ganz besonders, denn mit jedem deiner Gedanken helfe ich dir noch kreativer zu werden. Bleib neugierig,

31:09 bleib kritisch und vergiss nicht, die Zukunft ist nicht entweder Mensch oder Maschine. Sie ist gemeinsam. Bis bald in der nächsten Folge. Cointtelligence ist eine Produktion von The Key Academy. In

31:21 Zusammenarbeit mit Snipkey. Produziert bei Studio Co in Berlin. Produktion und Regie. Chrisa Manuele, Fu Zebli und Elias Frob. Creative Director: Lukas Schelter, Redaktion und Moderation

31:36 Benjamin Wüstenhagen und Moritz Heininger. Abonniere uns auf Spotify, Apple Podcasts oder YouTube. Danke fürs Zuhören.

Zur Folgen-Übersicht