Co-Intelligence

// Transkript

#14: KI-Tool ersetzt den Datenanalysten?!

Vollständiges Transkript dieser Episode des Co-Intelligence Podcasts. 3.561 Wörter. · Auf YouTube ansehen ↗

0:00 Intro & Thema

0:00 Das ist ein klassisches Beispiel dafür, KI nicht alle Jobs wegnehmen wird. Ich kann fast schon Automatismus draus machen. Da finde ich dann solche Tools wie Julius oder auch wie Cola besser als

0:12 Chat GPT. Nichts ist kostenlos im Leben, dass Google ganz klar sagt, wir lernen auf diesen Daten. Das heiß, ich muss mir genau überlegen, welche Daten ich da reingebe und welche nicht. Find es wird

0:22 eben auch immer besser. Das heißt also es wieder die schlechteste Version dieses Tools je geben wird ab heute. Schon ein wildes wildes Tool. Wilde Brave New World würde ich sagen.

0:39 [Musik] Willkommen zu Episode 14 vom Cointelligence Podcast, eurem KI Lert Podcast mit Moritz Heiniger und mir Benjamin Wüstner. Und heute geht's um Data Analytics. Genau. Data Analytics mit KI ist

0:40 Keine Datenexperten? KI hilft!

0:59 wirklich eins meiner absoluten Lieblingsthemen, weil du auf einmal Sachen machen kannst, die du vorher nie machen konntest, Daten analysieren kannst, die du vorher nie analysieren

1:07 konntest und das ganze ist quasi wie so ein kleiner Data Analyst, Junior Data Analyst, den man seiner eigenen Tasche hat und was alles geht, ist schon echt cool. Gibt schon Menschen, die sowas

1:17 können, vielleicht nicht. Es gibt so ein paar paar schlaue Leute, die mit Python umgehen können, aus vielen Daten, unstrukturierten Daten coole Sachen machen können. Ja, wir sind leider dafür

1:29 nicht smart genug, aber egal, weil wir haben jetzt Waffengleichheit und die KI unterstützen uns dabei. Ja, ich hatte das erst vor wenigen Tagen. Unsere Daten Queen Katja beim Urlaub. Ich musste aber

1:42 Daten analysieren und konnte mich daran pschen. Erstmal konnte ich die Datenbank überhaupt verstehen. Wir nutzen so eine No SQL [ __ ] DB heißt das ganze. Ich finde es noch komplizierter als eine

1:55 normale Datenbank. Äh weil du nicht so schöne Tabellen hast, sondern alles liegt irgendwo wild rum. Da hat mir Chat GPT geholfen das zu verstehen und dann konnte ich mir die Rohodatenziehen

2:06 in CSV Format exportieren und dann auch mit KI analysieren. Ja, und selbst wenn sie da gewesen wäre, ist es ja irgendwie immer ein großes Thema. Also entweder ich arbeite im kleinen Unternehmen und

2:17 habe überhaupt keinen Dataanalyst, mit dem ich zusammenarbeiten kann oder ich arbeite in einem größeren Unternehmen und dann ist es natürlich eine sehr sehr knappe Ressource und viele Dinge, die

2:27 ich eigentlich analysieren könnte, werden nicht analysiert, weil einfach die Personen oder die Personen, die dafür zuständig sind, eben keine Kapazität haben. Und jetzt haben wir

2:30 Demo: KI analysiert YouTube-Daten

2:36 eben die Möglichkeit, zumindest bis zu einer gewissen Grenze auf einmal Daten zu analysieren und auch Ergebnisse daraus abzuleiten. Und da unterstützt uns die KI auch. Die kann nämlich nicht

2:45 nur die Daten verstehen und dann mit Python Code sozusagen verarbeiten, sondern die versteht auch, was bei rauskommt. Wenn man den richtigen Kontext gibt, dann gibt man die KI sogar

2:56 Handlungsempfehlung auf Basis der Analysen, die durchgeführt werden und das ist schon äh relativ cool. Was ich auch cool finde, ist, dass ich das Gefühl habe, ich kann mich mit meiner

3:04 Datenbank unterhalten. Es hört sich jetzt so ein bisschen schräg an. Ich kann natürlich mit normaler Sprache, die ich entweder tippe oder da reinspreche, sagen: "Hey, such mal das und das raus."

3:13 Und wenn dann irgendwas rauskam, kann ich mal nachfragen und sagen, hm, wie sieht's denn aus nur im Januar oder wie sieht's denn aus nur letztes Jahr oder nur für diese Kundengruppe oder nur für

3:22 dieses Segment? Das hat mir auch noch mal geholfen. Wenn ich das mit einem mit einem Mitarbeiter machen würde, Data Analytics oder Data Analyst, dann hätte ich halt immer diese ich bekomme eine

3:32 Analyse zurück, stell Nachfrage, dauert ein Tag, äh ne, ist es nicht ganz klar und ich habe einfach immer wieder Verzögerung drin und so bin ich viel schneller. Genau. Vielleicht wollen wir

3:42 uns das einmal anschauen, wie das ganze funktioniert inhand von einem Beispiel und einem Tool. Es gibt nlich ganz viele Beispiele und viele Tools. Ja, ich schlag vor, wir nehmen Google Colab. Das

3:54 ist so eine Art Python Umgebung kostenlos im Netz mit wo sozusagen Google Gemini integriert ist und ich habe einfach mal unsere Podcasten als CSV runtergeladen, die wir von YouTube

4:06 bekommen. Cool. Und da können wir jetzt ein paar Fragen stellen. Dann lass uns doch mal hier reinschauen. Dann lass uns doch mal auf Google Colab schauen, was wir so alles machen können. Google Colab

4:16 ist ein kostenloses Tool von Google. Prinzip eine Umgebung, in der ich Python laufen lassen kann und wo auch Gemini integriert ist. Vielleicht für alle, die nicht wissen, was Python ist, weil es

4:27 auch nicht jedem im Begriff ist. Python ist einfach eine Programmiersprache für Datenanalyse, kann man glaube ich so vereinfacht sagen. Also man muss man Python bedient bis vor kurzem Python

4:39 Code schreiben können. Äh ist auch nicht ultra komplex, kann man alles lernen, muss man aber heutzutage nicht mehr. Genau. Und ich kann hier hingehen, kann einfach meine Daten, ich habe mir hier

4:49 drei CSV Dateien schon runtergeladen von YouTube bei Gemini hochladen. Sind quasi Exports aus unserem YouTube Account. Anschau Statistiken und so weiter und so fort. Statistiken zu den einzelnen

5:01 Videos. Genau. Okay. Und jetzt einfach reingeladen. Lad einfach rein und mach nichts. Sag nur lad hoch, dann denk Gemini nach. Du hast ihm eigentlich nichts gesagt, außer die drei Dateien

5:11 gegeben. Nicht nicht mal irgendwie analysiere mal gar nichts. Cool. Was sagt er jetzt? Er sagt dann happy to help und hier sind verschiedene Task, die ausführen kann. Data Loading, Data

5:15 KI-Analyse: Ergebnisse & Wow-Effekt

5:21 Exploration, Data Analysis und Finish. Und dann sagen wir mal, mach das jetzt mal bitte. Also im Prinzip was ein Datenanalyse auch machen würde, der wird sich erstmal die Daten reinladen, dann

5:32 würde er sie anschauen und dann wird er irgendwie seinen Task durchführen. Und jetzt sehen wir auf der rechten Seite, er macht seinen Plan, also bereit jetzt erstmal vor und rüelt jetzt eine Weile

5:43 rum und dann lädt er die Daten, dann analysiert er sie oder Exploration und Analysis. Okay, Acoration ist glaube ich was man immer macht, wenn man die Daten erstmal anschaut, um sie zu verstehen,

5:53 ne? Was ist da überhaupt alles drin, wie viele Zeilen und so weiter und so fort, von wann und dann entscheidet er quasi, welche Analysen er fährt. Das haben wir ihm ja in dem Fall noch überhaupt gar

6:01 nicht gesagt und äh ja, macht am Ende wahrscheinlich eine Zusammenfassung. Also, wir sehen hier, hier passiert einiges und ich würde sagen, wir schauen jetzt einfach mal in Ruhe zu, was er

6:12 hier alles ohne unser Beisehen tut. sehen h irgendwie Standardabweichungen, Durchschnitte werden berechnet, einzigen Published Times und so weiter und so for ein sehr komplexer Datensatz und ja,

6:26 lassen wir ih einfach mal laufen und gucken mal, was er so macht und dann schauen wir uns gleich mal Ergebnis an, würde ich sagen. So, machen wir es. [Musik] schon crazy, ne? Was er da alles für für

6:54 Charts baut, für Kulationen ausrechnet und so weiter und so fort. Also auch ohne dass wir irgendwas gesagt haben, ne? werden wir einfach nur die Filingroppt noch nicht mehr mit genauen

7:03 Angaben, was wir natürlich, wenn wir jetzt in den nächsten Schritten weitergehen, machen würden, aber allein hier schon mal, wir haben Keyfindings, wir haben Insights und Next Steps, die

7:13 er uns erklärt, ähm was wir daraus ableiten könnten. Schon ein wildes wildes Tool, wilde Brave New World würde ich sagen. Brave New World, das war vielleicht von einem Jahr noch nicht

7:23 möglich, jetzt ist es möglich und es wird eben auch immer besser. Das heißt, also ist wieder die schlechteste Version dieses Tools, die es hier geben wird. je geben wird ab heute. Genau, ab heute.

7:33 Aber auch wenn das vielleicht alles jetzt ein bisschen komplex aussah und vielleicht so diese Colab Umgebung ein bisschen abschrecken kann, äh kann man selbst mit ChGBT oder beispielsweise

7:46 wenn man ein Cloud nutzt, die meisten nutzen ja Church GPT sehr gut Daten analysieren. Es gibt gewisse Grenzen bei Chpt, insbesondere was die Datenmenge angeht. Wenn ich ein riesengroßeset

7:57 habe, dann ist Chat GBT ja läuft in Probleme. Das merkt man aber auch sehr schnell. Aber für einfachere Datensätze, kleinere Datensätze ist Chat GPT auch super. Dann sieht man quasi auch wie der

8:09 Python Code sozusagen im Fenster äh läuft, wenn ich dieses kleine Hägchen anmache und es ist ja Denken anzuzeigen. Welches Häkchen? W wo findest? Das ist im Fenster, also wenn du einfach die

8:20 Daten rein reinpastest, dann hast du immer so ein kleines Dropdown Häkchen. Da steht dann auf Englisch steht da glaube ich Show thinking. Dann sehe ich einfach, welcher Code läuft und ja,

8:30 welchen Weg auch IKI geht, um um zum Ergebnis zu kommen auch in was für Fehler sie vielleicht reinläuft. Das haben wir ganz kurz eben auch bei Google Chr App gesehen, dass

8:41 die KI macht Fehler oder er kennt Fehler und merkt, h, hier komme ich nicht weiter, ich brauche ein anderen Ansatz. Jetzt gehe ich noch mal zurück und probier es noch mal mit dem neuen

8:48 Ansatz, bis sie irgendwie zum Ziel kommt und das ist auch schon relativ cool, würde ich sagen. Ich habe bei Chat BT die Erfahrung gemacht, dass es super ist, wenn ich meine erste kleine Analyse

8:50 KI-Tools: Colab vs. Julius

8:57 machen will. Mhm. Wenn ich das aber mehrmals machen möchte, was weiß ich, jede Woche, ähm dann ist es nicht so gut reproduzierbar. Da finde ich es dann besser, wenn ich sagen kann, ich habe

9:07 den Python Code bekommen und ich kann es immer wieder reproduzieren. Ich kann fast schon Automatismus draus machen. Da finde ich dann solche Tools wie Julius oder auch die Collab besser als Chat

9:16 GPT. Genau. Collab ist super, haben wir gerade angeschaut. Collab ist kostenlos. Collab hat so ein bisschen das Thema, zumindest jetzt noch und deswegen ist es

9:23 auch kostenlos, ne? Nichts ist kostenlos im Leben, dass Google ganz klar sagt, wir lernen auf diesen Daten. Das heißt, ich muss mir genau überlegen, welche Daten ich da reingebe und welche nicht.

9:34 Unsere YouTube Daten hat Google eh schon. Stimmt. A hat Google die eh schon und B wä es mir jetzt auch relativ egal, wenn Google unsere Viewing Data hätte. Auf der anderen Seite bei ChatGPT kann

9:46 ich sie ausschalten, dass auf die Daten lernt. Natürlich sind die auch kurz in den USA in der bezahlten Version. In der bezahlten Version. Genau. Also da muss ich halt auch überlegen, möchte ich das

9:54 ist okay, wenn die Daten kurz in den USA sind. Bei Julius AI ist es so, ich kann und eins meiner absoluten Lieblingstool kostet ca. 40 € im Monat, kann ich natürlich auch eben temporell nutzen.

10:07 Wenn ich jetzt weiß, ich habe in dem Monat ein riesen Datenanalysenthema und braucht der Support, dann sind die 40 € glaube ich gut investiertes Geld. Also ein echter Dataanalyst kostet deutlich

10:17 mehr und Julius ist halt eine die ganze Oberfläche ist sehr einfach gestaltet, aber mit einem absoluten Fokus auf Datenanalyse. Ich kann gewisse ja Workflows angeben, dass sie Schritte

10:29 nacheinander erstellt werden. Z.B. Wenn ich jede Woche die gleiche Analyse für irgendein Report mache, ir die Daten zusammenziehe, dann Analyse A, B, C, D mache, daraus Charts erstelle und die

10:39 Charts dann ein gewisses Design haben müssen und eine gewisse Einheitlichkeit, ist Julius eher ein Tool dafür, was einfach ja sehr cool ist. Was mir noch geholfen hat, also als ich

10:50 mich diesen Datentemen genährt habe, da hatte ich einfach diese Rohdaten noch nicht, sondern ich hatte eine [ __ ] Daten Datenbank, die heißt so. Äh, die ist nicht ganz so intuitiv sich

11:01 jetzt vorstellt. Ich habe also keine einzelne Tabelle, sondern im Prinzip ganz viele kleine Dokumente, die wiederum über sogenannte Kollektion miteinander verbunden sind. Ich habe das

11:09 den nicht verstanden. Was ich aber machen konnte, ich konnte mir die Schemata unterladen, habe die dann wiederum Chat GPT gegeben, habe Chat GPT gesagt, was ist denn das? Ja, und hab

11:21 dann so langsam verstanden, ah ja, das ist steht hier und das steht da. Und dann habe ich damit im Prinzip meine Queries gebaut und konnte mit diesen Queries zu den Rohdaten kommen, zu

11:31 solchen CSVs. Kann ich auch als Jason oder sonst irgendwas exportieren und konnte dann in Colab damit weiterarbeiten. Könnte ich wahrscheinlich genauso auch in in Julius

11:40 A machen. Ja, genau. Also muss ein bisschen überlegen, wie oft man Daten analysiert und wie groß die Datensätze sind, die man analysiert. Vielleicht langt schon ChatGBT in der Plusvion.

11:52 Vielleicht brauche ich eben ein Usiben Google Call App. Oder es gibt noch X andere Tools, aber das sind so jetzt die Tools, glaube ich, die wir auch am meisten nutzen, die am spannendsten

12:01 sind. Und ähm ja, generell muss ich mir glaube ich Gedanken machen, was habe ich eigentlich alles für Daten, ne? Ich habe glaube ich jedes Unternehmen hat so viel Daten, ja, auf die ich gar nicht

12:13 unbedingt komme, was die Analyse angeht. Und eigentlich muss ich mir nur mal überlegen, wo in welchen Systemen habe ich Daten, die ich über eine CSV Datei runterladen kann und mche drüber

12:24 nachdenke, das sind meinem Google Analytics, viine Google Ads, das sind meine Social Media Daten, vielleicht habe ich Link den Daten, die ich exportieren kann oder vielleicht habe

12:30 Datenanalyse für alle!

12:33 ich irgendeine Community, WhatsApp Kanäle, CMDen, CM Daten. Genau. Da muss ich dann natürlich wieder bisschen vorsichtig sein wegen wegen wegen Nutzerdaten und Personendaten, dass sie

12:42 quasi vorher gecleant werden. Aber ich habe eigentlich so viele Daten mittlerweile in so vielen verschiedenen Tools, die ich runterladen kann, die ich dann vielleicht noch ein bisschen

12:50 anonymisiere oder cleane, je nachdem was es für Daten sind und dann aus den Insides zu generieren, was ich eigentlich vorher alles ja gar nicht konnte und das ist schon ein kleiner

13:00 Gamechanger. Siehst du bei uns auch im Team? Ja, wir haben klar, was du von sagtest, auch die Abhängigkeit von den Data Analyst, wenn über uns jetzt Katja im Urlaub ist, hatten wir es gestern

13:10 witzigerweise. Äh, wir haben einmal die Woche Report Slack, ne, wie viel neue Kunden und so weiter. Und die Kollegin, die es normalerweise macht, ähm hat dann selber in der Datenbank geschaut. Das

13:21 war sousagen das erste Mal, dass wir das rausgefunden haben, dass sich selber rangetraut hat, selber die Query geschrieben hat mit Hilfe von AI und selber diese diesen kleinen das Datum

13:30 gefunden hat, wie viel neue Kunden wir gewonnen haben, was normalerweise über ein Dashboard von der Datenanalystin gekommen wäre. Also mm sieht da richtig den Impact und ich glaube viele viele

13:40 Menschen in vielen Positionen werden sich dem nähern und werden dann auch einfach besser werden in der Analyse und Katja muss nicht ganz so viele Überstunden machen ab sofort das auch

13:49 oder kann sich auf wirklich komplizierte Sachen konzentrieren. Ja. Ja, man kann halt einfach das ist ein klassisches Beispiel dafür, dass KI nicht alle Jobs wegnehmen wird, ne? Weil du kannst ja

14:01 theoretisch so viel mehr Sachen analysieren im Unternehmen, wenn du die Kapazität dazu hättest, aber kein Unternehmen hat unendlich viele Daten Analysen oder Analysten und kann jetzt

14:10 eben durch diese Möglichkeit, dass die Fähigkeit Data Analytics zu betreiben demokratisiert wird, in die Teams gegeben werden kann, zumindest für die einfachen Aufgaben ist natürlich

14:21 schon super stark und genau Katja kann sich ab sofort auf die richtig challenging Themen, die ganz besonders viel Spaß machen, konzentrieren und die einfachen Sachen können dann die Teams,

14:30 die Marketing Teams oder wer auch immer dann selbst umsetzen. So gut KI aber auch ist, auch da ist es wieder angezeigt, genauer hinzuschauen, aufzupassen, dass es keine

14:40 Halluzinationen gibt, aufzupassen, ja, dass einfach kein Quatsch ausgewertet wird. Ja, und am Ende gehe ich glaube ich auch hier wieder genauso vor, wie wenn ich mit einem echten

14:50 Junior Athlet Analyst arbeiten würde. Ich würde mir zuerst immer mal, wenn ich so ein CSV Datensatz runtergezogen habe, welchem System auch immer, die Daten anschauen, um Gefühl für die Daten zu

15:00 bekommen, dass ich erstmal selbst verstehe, was ist da eigentlich drin, was sind die verschiedenen Spalten, weil wenn ich die Daten kein Gefühl für die Daten habe, dann kann ich auch die

15:08 Ergebnisse nicht verstehen. Das ist Nummer eins. Nummer zwei, ich gucke, ob die Daten sauber sind oder ob ich vielleicht schon irgende Cleaning machen kann. Nummer 3 ist, ich gucke, ob die

15:10 KI-Analyse: Tipps & Risiken

15:17 Colums, also die einzelnen Spalten klar erklärt sind, weil wenn ich die dann einfach in die KI reingebe, muss die KI auch verstehen, was in jeder einzelnen Spalte drin ist. Und wenn das nicht der

15:27 Fall ist, muss ich entweder die Spalten umbenennen oder muss der KI gemeinsam mit dem Datensatz eine Erklärung geben, was ist eigentlich in jeder Spalte drin? Ja, ne? Und äh aber so so einfach ich es

15:39 machen kann, also je einfacher ich es machen kann für die KI, desto besser ist das Ergebnis. Genauso ist es wie wenn ich mit einem Mensch arbeiten würde. Je einfacher ich die Aufgabe vorbereiten

15:48 kann für die Person, desto weniger Fehler wird die Person machen und dass du besser ist am Ende mein Endergebnis. Ja, und auch ich als Anwender bekomme dann besseres Verständnis, was ich

16:00 eigentlich für Daten brauche, dass ich vielleicht Identifier benötige, die ich in verschiedenen Datensätzen habe, damit ich die Daten auch miteinander verbinden kann. Genau, weil was bringt es mir,

16:08 wenn ich beispielsweise Daten aus dem CM habe, Daten aus dem anderen System, aber es gibt keinerlei Verbindung zwischen den Daten, weil es einfach eine beispielsweise eine User ID nicht gibt,

16:17 die in beiden Systemen vorhanden wäre. Wie immer, wenn ich KI nutze, Hirn einschalten und nicht einfach alles an die KI abgeben und dann das Ergebnis blind verstehen, weil nur wenn ich die

16:27 Daten selbst verstehe, verstehe was es da für Outl, die ich eventuell rausnehmen muss. Ja, sowas muss ich ja alles wissen. Nur dann komme ich zu einem guten Ergebnis. Also äh nicht

16:37 einfach alles direkt blind annehmen, was man da bekommt, hinterfragen auch mal wirklich sagen, wenn Fehler und es kommt ein Fehler immer wieder vor zu sagen, liebe KI, das ist doch falsch, weil hast

16:49 du an XY gedacht und ganz oft versteht dann die KI stimmt, das habe ich falsch gemacht, ich mach's noch mal neu und lässt dann wieder den Python Code laufen und passt die Analyse noch mal an und

17:01 gibt dir dann das Ergebnis raus, was richtiges. Also diesen Austausch, diesen hin und zurück, bis man an dem richten Ergebnis ist, der ist einfach wichtig. Was ich da noch spannend finde, egal in

17:11 welchem Bay mit ich arbeite, ich kann auch dann die, wenn ich einen schönen Chart bekomme, das zurückspielen und sagen: "Hey, beschreib mir doch mal, was du da siehst, ja? Äh, was sind die

17:21 Implikationen? Was sind vielleicht empfohlene Handlungen? Und die kann ich wiederum nutzen, um das zurück ins zu kommunizieren. Und gerade bei dem Thema empfohlene Handlung, wenn

17:31 die KI je genauer die KI versteht, um was es für ein Datensatz geht und zusätzlich noch Kontext zu dir in deinem Unternehmen deine Aufgabe hat, desto besser sind am Ende die

17:44 Handlungsempfehlungen, die du bekommst. Ja, also in unserem Beispiel haben wir eigent haben wir keinen Kontext gegeben, nur weil wir kurz zeigen wollten, was es ist und Google ist schlau genug zu

17:54 verstehen, dass das YouTube Daten sind, ne? Ist ja ein Unternehmen. So aus dem Grund konnte Google daraus schon mal ableiten, was es fürhandlungserempfehlungen gibt. Was

18:03 sind Watchtimes, was sind Click Rates und so weiter. Genau. Wo Google keine Ahnung von hatte, ist was sind wir überhaupt für ein Podcast? den Daten steht nicht der Cointelligence Podcast,

18:11 was die Inhalte sind und so weiter. Das heißt, es könnte nur wiederum relativ generische Feedback geben. Hätten wir jetzt mitgegeben, hier sind die Daten, sind unsere YouTube Watch Daten, wir

18:21 sind der Coin Podcast. Unser Ziel ist es Leuten beizubringen, wie KI funktioniert und KI im Leben und im Alltag anzuwenden. Das sind die Views. So haben sich die Sachen entwickelt. Was hast du für

18:31 Handlungsempfehlung für uns? Dann könnte man quasi den Kontext oder würde die KI den Kontext über uns mit den Daten verbinden und viel bessere Empfehlungen geben am Ende. Das blöde ist mit den

18:42 Handlungsempfehlungen müssen wir noch was tun. Können wir leider der KI nicht überlassen. Ja, übernächste Folge kommen wir zum Thema KI Agenten und vielleicht können dann die eine oder andere

18:45 Ausblick: KI-Agenten & Automatisierung

18:51 Handlungsempfehlung auch von MKI Agenten umgesetzt werden. Ich muss gar nichts mehr machen. Sagt mir was ich was mein Agent machen soll. Genau. Aber ich glaube, bis wir zum Thema Agenten

19:00 kommen, haben wir nächste Woche noch eine spannende Folge Automation. Genau. Automation oder Automatisierung, was eigentlich das richtige deutsche Wort. Das ist das Problem. Wir reden die ganze

19:11 Zeit nur Englisch, wir verlernen das Deutsch. Automations. Schreibt schreibt gerne in die Kommentare runter, was das richtige deutsche Wort ist, Automations oder Automatisierung. Auf jeden Fall

19:22 wird das das Thema für die nächste Woche sein, weil zwischen Automatisierung und KI Agenten, die ja auch irgendwie autonom sind, gibt's doch noch mal einen großen Unterschied. Und nächste Woche

19:31 ist der Fokus auf den Automations und ähm ja, damit sind wir am Ende der heutigen Folge angekommen. Vielen Dank. Vielen Dank. Vergesst nicht zu kommentieren, gerne zu liken, sprecht

19:46 über uns, empfehlt uns weiter und bleibt dran. Bis bald. Ciao. [Musik]

Zur Folgen-Übersicht