Co-Intelligence

// Transkript

#7: KI im Alltag: So bringst du Superkräfte in deinen Job

Vollständiges Transkript dieser Episode des Co-Intelligence Podcasts. 6.497 Wörter. · Auf YouTube ansehen ↗

0:00 Ich glaube, die wichtige Message ist auch an unsere Hörerin Hörerinnen, ich muss nicht immer das absolute Topmodell haben. Ich sollte mit irgendwas anfangen. Die fast alle Probleme und Use

0:10 Cases, die wir heute besprochen haben, kann ich mit Cloud, mit Gemini und mit Chat GPT [Musik]

0:27 lösen. Willkommen zurück zu Cointelligence, eurem KI Lernpodcast. Heute in der Episode 7. Heute beschäftigen wir uns mit verschiedenen Use Casases für KI und wie

0:40 ihr KI bei euch im Unternehmen in eurem beruflichen Alltag ganz konkret einsetzen könnt. Genau. Und ich glaube ähm auch wenn wir heute ganz viele verschiedene Kategorien Einsatzbereichen

0:52 durchgehen und auch mal so bisschen überlegen, wo wir heute KI nutzen, das Beste ist eigentlich wirklich selbst zu überlegen, was habe ich denn jeden Tag für Aufgaben und wo kann ich hier KI am

1:04 besten einsetzen, weil es natürlich sehr sehr individuell ist. Jede Person ist anders, hat andere Aufgaben und äh von daher können wir hier wahrscheinlich gar nicht alle Usases benennen, die für dich

1:16 das Richtige sind. Das Wichtig ist aber und dafür ist der Podcast ja auch da, dass man erstmal weiß, was KI alles so kann, denn es gibt ja und jetzt müssen wir wieder kurz ins Englische schwenken,

1:26 den bestimmten, den bekannten Spruch "You don't know what you don't know." Wenn ich nicht weiß, was die KI alles kann, dann komme ich auch gar nicht auf die Ideen und auf die ganzen Usecases.

1:36 Und ähm wenn wir jetzt im Unternehmenskontext denken, sagen wir immer, das muss so von unten und von oben kommen. Von oben muss einfach die Ansage kommen, wir wollen KI auf die

1:46 Agenda packen. KI ist 2025 eins unserer richtigen Themen und wir als Leadership Team erlauben es unseren Kollegen und Kolleginnen auszuprobieren, Use Cases zu testen, auf Ideen zu kommen, Tools zu

2:01 probieren, natürlich unter gewissen Guidelines und Vorgaben ganitzustellen dafür. Budget. Genau. Aber wie gesagt, haben wir im letzten letzten Sendung gesagt 20 € oder Dollar

2:11 im Monat für Chat GPT Subscription. Wenn es daran schon scheitert, Unternehmen äh im Unternehmen, dann scheitert es glaube ich noch an ganz vielen anderen Sachen in dem Unternehmen. Wenn man den den

2:21 Business Case nicht machen kann, dass äh die 20 € gut investiertes Geld sind, dann musste ich glaube ich ganz generell mal über die Strategie und mein Unternehmen und das ganze digitale

2:31 Nachdenken, aber es ist einfach wichtig von oben eben, dass da das die Message gesendet wird. Wir wollen das, wir wollen experimentieren und ihr müsst auf die Ideen und auf die Use Casases kommen

2:44 und bildet euch weiter, versteht, was das kann und probiert aus. Aber ganz wichtig eben ethische Richtlinien, Datenschutz, alls ich eben meinen Kolleginnen und Kolleginnen mitteilen,

2:55 dass eben keine Fuckups passieren können, dass Leute jetzt auch einmal die Kundenaten da reinpasten oder was auch immer. Es gibt eich so drei Fragen, die man sich stellen kann. Also, wenn jetzt

3:05 von dem Weißenblatt Papier steht und sagt, wie kann den KI äh mir hilf hilf hilfreich sein, das ist das Wort. Ja, also erstens, welche Aufgaben bleiben eigentlich liegen von den Aufgaben, die

3:16 ich so täglich habe? Zweitens, welche Prozesse laufen immer gleich ab? Gibt ja wahrscheinlich in jedem Job gewisse Aufgaben, die einfach super repetitiv sind. Und drittens, welche Tools nutze

3:28 ich eigentlich schon, bei denen ich KI einsetzen kann oder mit denen ich KI verbessern kann und vielleicht viertens noch welche Aufgaben habe ich eigentlich gar keinen Bock. Okay, fair. Und

3:39 tatsächlich ist oft die ist oft die KI genau darin nämlich besonders gut, mir die Aufgaben abzunehmen, auf die ich gar keinen Bock habe. Und ähm jetzt fangen wir mal rein, springen wir doch mal rein

3:51 in die verschiedenen Kategorien. Mhm. Und ich habe so der erste große Blog, den man nennen kann, ist Content Recycling. Ähm, was heißt es eigentlich Content? Ähm, egal, ob ich eine B2C

4:02 Company oder eine B2B Company bin, ich erstelle ja verschiedene Marketing Assets, ob das Blogposts sind, ob das irgendwelche YouTube Videos sind, ob das Social Media Videos sind. Und

4:14 einmittenden Content kann ich jetzt eben mit KI sehr schnell und da sind wir auch wieder bei dem Thema Medien Silos für verschiedene Formate weiter verwenden. Wenn ich z.B. ein YouTube Video erstellt

4:25 habe, kann ich das Transcript runterladen und kann mir daraus den Blogpost erstellen. Den linkt den Beitrag Social Media Beitrag, die Seite für die FQ. Genau. Äh vielleicht auch

4:35 diese die kurzen Stichpunkte, um mein Saleste Team zu schulen. Genau. Oder wenn man bei unserem Podcast schaut, wir haben den Longform Podcast, also wenn man auf YouTube schaut oder eben in

4:47 Spotify, haben wir auch die ganzen Shorts. Die ganzen Shorts sind mit KI generiert. Wir nehmen das ganze Video, heißen es in Programm, in unserem Fall in Opus Pro und Opus erkennt die

4:57 relevanten Szenen, die für ein Short passend sind, holt diese, erstellt nur dieses Short und hinterlegt es quasi mit dem relevanten Text, mit dem Text, den wir sprechen. Und natürlich kann ich

5:08 noch ein bisschen und muss noch ein bisschen nacharbeiten, aber eben aus einem längeren Content Piece ganz viele kleine Content Pieces zu machen ist ein klassischer Fall von sehr gut

5:17 eingesetzter KI und ganz ehrlich macht das ist eine Aufgabe, die macht auch keinen Spaß, wenn ich jetzt das lange YouTube Video mir noch mal anschauen muss und dann drauf achten muss, was

5:27 jetzt hier relevant sein könnte für ein Short. Das macht die KI viel schneller, viel besser. Die macht mir Vorschläge, vielleicht macht sie mir 30 Vorschläge, davon sind 15 Quatsch und 15 finde ich

5:36 super. einfach eine massive Zeiterschwannung. Ja. Und neben diesem ja diesem Recycling von von Texten oder von Bildern oder von was auch immer und dem dann erstellen für andere

5:47 Medienformen, haben wir auch die Möglichkeit Texte zu optimieren und äh Schwachstellen bzw. auch fehlende Stellen zu finden. Also als Beispiel, wenn ich eine Landing Page habe und sag,

5:58 das ist mein Landing Page, das ist der Text da drauf und ich möchte das seomäßig optimieren, kann ich mit der KI schauen, was fehlt noch, um auf gewisse Keywords zu ranken und dann wiederum

6:09 diesen Text erstellen. Genau. zchecken, wenn ich eine Präsentation vorbereite, was ich oft mache, ich nehme die Präsentation und kopiere dann die Präsentation oder drop die in Chat GPT

6:21 Fenster und sagt hier gib mir Feedback zu meiner Storyline und den Taglines und wie ich die anpassen könnte, dann bekomme ich direkt Vorschläge von der KI Kundenemails ganz oft schreibe ich die

6:33 irgendwie relativ schnell und äh also ich habe alle richtigen Punkte drin, weiß aber genau, das könnte man noch besser machen. kopiere ich dann einfach den Text noch mal und gib's an Chat GBT

6:42 und sag: "Optimier bitte diese E-Mail für mich." Äh manchmal bin ich oder oft bin ich sogar so voll, dass ich gar nicht er selbst schreibe, sondern einfach nur kurz den Kontext in mein

6:51 Handy reinspreche über die Voice Funktion, die wir uns das letzte Mal in der letzten Folge angeschaut haben und bekommen dann eine perfekte E-Mail, perfekten Text erstellt. Also alles, was

7:01 mit Text zu tun hat, da ist die KI einfach sehr sehr gut. Und natürlich gibt's jetzt hier Leute, die sagen: "Je nein, es wird nie so gut sein wie ein Mensch und so weiter und so fort." Und

7:11 ähm also a glaube ich nicht und äh B äh ist das vielleicht heute noch der Fall für die Top 10 % der Texte. Ja, wahrscheinlich wird heute die KI erstmal noch nicht den nächsten Harry Potter

7:23 schreiben, aber wenn ich Business E-Mail schreibe, schreibe ich kein Harry Potter. Da will ich einfach eine professionelle E-Mail. Schon magisch, was du sch natürlich sehr oft magisch.

7:33 Genau. Ähm, aber die muss ja gar nicht die Top 1% sein. Muss man einfach sehr viel Arbeit abnehmen. Also alles Thema Textherstellung, Textoptimierung und so weiter. Ähm, da sind uns, glaube ich,

7:45 einig, da ist die KI heute sehr, sehr hilfreich. Geht natürlich darüber hinaus. Man kann auch Abläufe und Prozesse planen äh mit KI. Ich hatte jetzt die letzten beiden Tage haben wir

7:56 unser Team hier gehabt. Wir arbeiten remote, treffen uns aber alle paar Monate mal zusammen, um dann den Wor Workshops zu arbeiten. Und um die Workshop vorzubereiten, habe ich

8:06 sozusagen den Kontext an KI gegeben. Habe gesagt: "Hey, das und das und das wollen wir erreichen. Äh, wir sind alle zusammen, wir arbeiten einmal mit Miro, das ist so ein Kollaborationstool.

8:15 Ähm haben sozusagen hybride Arbeitsweise. Wie kann ich den Workshop aufsetzen? Woran sollte ich denken?" Das war da nicht eins zu eins, was ich gemacht habe, aber es war eine erste

8:24 Outline, die ich dann auch mit der Moderatorin durchgehen konnte und das hat mir total geholf hat mir wahnsinnig viel Zeit gespart. Ich glaube, das dieses das ein sehr cooler Punkt immer

8:32 diese erste Outline, man bekammt immer die erste 80% sehr sehr gut hin. Die letzten 20% Feinschliff, die kann man ja auch noch selber machen. Die sollte man auch noch

8:41 selber machen. Haben wir auch schon mal drüber gesprochen. Die Gefahr, da die Ergebnisse in der Regel so gut sind, einfach dann hier auszuschalten und das zu übernehmen ist natürlich hoch. Man

8:49 sollte aber immer dran denken, man ist selbstverantwortlich für das finale Ergebnis und die letzten 20% sind eben die, die zählen. Und äh du hast es mit dem Workshop erwähnt. Äh ich habe mir

8:59 ein ähm ein GPT gebaut. Was das genau ist, schauen wir uns doch mal in der zukünftigen Folge an, aber was mir dabei hilft Webinare zu strukturieren, weil wir haben alle zwei Wochen Live Webinar

9:11 mit dem externen Gast und sprechen zu irgendeinem neuen Thema und da gebe ich einfach ungefiltert natürlich halbwegs sauber geschrieben, aber jetzt ohne mir ganz groß viel Gedanken zu machen,

9:21 Background zu der Person rein und im Kontext des Webinars und lass mir dann eine Agenda erstellen und Vorschläge quasi für die Struktur dieses einstündigen Webinars und habe dann am

9:30 Ende eine Version, wo ich sage, okay, Das ist super, da kann ich drauf aufbauen und mach dann eben am Ende noch den Feindschrift, also so ein Planungskomponent ist natürlich sehr

9:39 auch sehr spannend. Also alles, was kleinere Prozesse sind, Abläufe von Onboarding von neuen Mitarbeitern, von irgendwelchen Events, von irgendwelchen Pitches, Sales, Präsentation, was auch

9:51 immer es sein mag, allig KI anzugehen und da auch Zeit zu sparen. Genau. Also alles, was Kommunikation, Planung und so weiter und so fort angeht. Ich glaube, was dann

10:04 auch noch sehr gut ist, ist die KI als Lehrer für neue Konzepte zu verwenden. Und zwar ähm gibt's ja verschiedene Studien, die zeigen, dass Kinder ich nehme auch Erwachsene sehr

10:18 viel besser lernen, wenn das Lerntempo wirklich zugeschnitten ist auf die jeweilige Person und ich meine Fragen stellen kann, ist das große Problem an unseren Schulen heutzutage, dass man

10:29 Kinder mit unterschiedlichen Wissensständnissen und Sprachkenntnissen hat und eben es gibt Kinder, die sind komplett überfordert und es gibt andere Kinder, die langweiligen sich

10:38 und die KI kann sich ja genau auf mich fokussieren und ich lasse mir ganz oft neue Konzepte beibringen. Ähm und äh gibt der KI vorher den Background, sage, okay, das ist irgendwie das bin ich, so

10:50 viel Background habe ich, erklär mir jetzt irgendwie für meinen aktuellen Wissenstand ähm wie ich ähm Social Media Ads idealerweise schalte, wie funktioniert ein die Meta Ad Library,

11:02 wie setze ich Google Ads auf am besten und wie gehe ich davor? ähm und kann mir so sehr schnell neue Konzepte beibringen lassen von der KI. Hilft natürlich auch,

11:13 um Kundenkommunikation in legliche Art und Weise zu verbessern. Immer dann, wenn ich mich in eine andere Person reinvorsetzen muss, vielleicht verschiedene Personas habe und sage:

11:20 "Hey, ich möchte dieses Produkt, dieser Kundenpersona aus diesem idealen Customer Profile äh näher bringen. Wie kann ich meine Kommunikation verbessern? kann dann sogar hingehen, die ganze

11:33 Skripte äh anzuschauen bzw. Mm. Ja, so verschiedene, also es geht in die Richtung dieses ganze unterschiedliche Perspektiven auf ein Thema zu simulieren oder auch ähm wir haben das mal gemacht

11:48 für für Vertriebler, wir haben verschiedene Bayerpersonen entwickelt und charakterisiert. Also einmal irgendwie der konservative CTO, der aggressive Einkäufer und so weiter und so fort. Und

12:02 ähm das ganze geht ja auch geht auch sogar über diesen Voice Live Voice Mode, den wir uns quasi das letzte Mal angeschaut haben und dann kann ich für einen Sales Mitarbeiter oder

12:12 Mitarbeiterin ein Gespräch simulieren mit einer fiktiven Person und so meine Mitarbeitenden trainieren auf verschiedene Perspektiven und Personen vorbereitet zu sein. oder aber ich habe

12:25 eben das hast du auch schon mal in ein ähnlichen Form erwähnt, ich habe ein Blogpost geschrieben und weiß nicht, ob der gut ankommt. Dann kann ich mir den Blogpost kritisieren lassen von Persona

12:35 A, Persona B, Persona C und bekommen so verschiedene Perspektiven auf meinem Blogpost. Wir haben es oft genutzt ähm in ähm in Kunde ähm um Board Meetings vorzubereiten und zwar gibt's der das

12:50 Board hatte die Aufgabe äh die Geschäftsführung sozusagen zu zu kontrollieren, zu bestellen und es gibt einfach verschiedene Personen als oft in dem Board, das gibt oft eben den

12:59 ultraaggressiven Investor, der sagt, wir müssen wachsen, wachsen, wachsen und dann hast du vielleicht noch irgendein Corporate Mensch mit drin, der extrem konservativ ist und die immer natürlich

13:06 andere Ansichten auf dein Business haben und wenn du so eine Bordpräsentation hast, musst du natürlich gut vorbereiten und vorher schon abstimmen und du willst natürlich, dass an dem Tag nicht

13:15 explodiert. Das heiß, du willst vorbereitet sein, auf was die Personen fragen können. Spricht, du kannst dein deine Präsentation nehmen und dir dann von verschiedenen Perspektiven

13:23 analysieren lassen, Feedback geben lassen. Also dieses Perspektivenerierung ist super spannend und ähm umgedreht auch, wenn man jetzt sagt und das ist so wieder bisschen so

13:35 bisschen Content Recycling, aber quasi Content an unterschiedliche Endkunden anzupassen. Und zwar hatten wir da ein Case mit einem großen Farmerunternehmen und äh die bringen regelmä neue klinische

13:49 Studien raus. Die muss sich anders kommunizieren an normale Privatpersonen als einen Arzt. Ja. Ja. Ja, und quasi diese Perspektiven oder die die verschiedene Content Messages zu

14:00 entwickeln ist auch was genauso irgendwie ich habe irgendwas, was ich Mitarbeitern zeigen will, ich will es den Betriebsrahmen zeigen, ich will es dem Investor zeigen, ich will es dem

14:06 Partner zeigen. Ja, ist auch spannend für Bewerbungsprozesse, also jetzt gar nicht mehr im Unternehmenskontext, im privaten Kontext, wenn ich mich irgendwo bewerben möchte, kann ich damit auch

14:14 sozusagen meine Bewerbungsgespräche simulieren und sagen Recruiter, Headhunter, was weiß ich, das fachliche Interview, die kulturelle Passung. Ja, also HR ist ein ist ein super spannendes

14:26 Thema. Gibt's verschiedene Use Cases. Ein ganz einfache USCAS ist die Erstellung von Jobbeschreibung. Und zwar kann ich mir auch wieder ein GBT bauen, was ihr mir auf dem Input, den ich

14:38 vielleicht bei Voice rangebe oder mit Stichpunkten, mir die perfekte Stellenbeschreibung ähm schreibt, die ich dann verwenden kann, um Leute zu suchen. Vielleicht sogar spezifisch auf

14:47 die Generation. Und das habe ich immer wieder gelernt. Das ist ein großer Unterschied, ob ich jetzt ein jemand aus der Gen attrahieren will oder noch jünger äh oder vielleicht jemanden

14:57 bekommen möchte, der sozusagen den letzten zehn Berufsjahren noch mal zu mir wechselt. Ja, sehr andere Perspektiven schon auf die Jobbeschreibung. Mhm. Absolut. Und ähm

15:07 dann was man auch sehr gut machen kann und viele Unternehmen sind extrem schlecht im Interviewprozess und äh das sagt ja auch schon mal so ein bisschen was über dein Unternehmen aus, wenn ein

15:17 Bewerber kommt oder Bewerberin und sich denkt, okay, oh Gott, was ist denn das für ein Prozess und vor allem was stellen die mir für Fragen? Und ähm ich kann mit der KI ich kann der KI contact

15:28 geben und über mein Unternehmen. Ich kann die Stellenbeschreibung reinpasten. Ähm kann ein bisschen Background keine persönlichen Daten zu dem Bewerber oder der Bewerberin reingeben und kann dann

15:39 sagen, stell mir jetzt bitte für ein einstündiges Interview ähm relevante Fragen, situationsbezogene Fragen, wie auch immer, die eben genau auf diese Stelle passen und eben die Skills

15:50 abfragen, die für diese Stelle notwendig sind. Das heißt, ich gehe nicht als Recruitment oder HR in jedes Interview mit immer meinen gleichen Fragen, sondern habt sehr auf die Rolle

16:00 spezifisch angepasste Fragen und noch ein Schritt weiter für Führungsposition musst du ja oft zu Hause Caseudies vorbereiten mal über irgendwie eine Woche, die du dann vorstellst und hast

16:09 irgendwie 4 f Stunden Zeit dafür und das sind halt oft irgendwelche generischen Casey aber ist doch viel cooler, wenn du sagen kannst hier guck mal, das ist diese Leadership Rolle ähm das ist

16:18 unsere Company. ähm auch die Herausforderungen, die wir angehen müssen. Genau. Und jetzt wirf mir bitte ein eine Case Study genau zugeschnitten eben auf diese Stelle, die

16:31 vier Stunden in der Vorbereitung ungefähr dauert mit irgendwie quantitativen qualitativen Aufgabenstellung und dass man das von der KI erstellen und ähm ist einfach

16:42 extrem einfach und hat Möglichkeiten, die ich in der Vergangenheit eigentlich gar nicht wirklich hat. Also ihr merkt, die die Anwendungen sind super individuell, super verschieden.

16:51 Das heißt, es gibt jetzt keine Liste, wo wir sagen, das sind die zehn Usecases, die das Unternehmen machen sollte, sondern es gibt unendlich viele. Genau. Angepasst auf die jeweiligen

16:59 Unternehmen. Wichtig ist nur, dass hier es angeht. Ja, macht euch die Gedanken. Ähm überlegt, was ist in eurer Abteilung wichtig? Wir haben jetzt heute viel über Marketingt gesprochen, wir haben viel

17:10 über HR gesprochen. Data Analytics ist ein Thema, da sprechen wir noch eine ganze Serie zu, glaube ich. ähm ein Wissensmanagement im Unternehmen zu etablieren, das ist was super spannend

17:20 ist im Vertrieb, im Messaging, ähm finden von Lied, also ich kann wirklich sehr sehr sehr viel machen. Äh ich glaube von Entwicklern brauchen wir gar nicht zu sprechen. Ähm ist ich find

17:32 immer wieder spannend, wie wenig Entwickler laut Umfragen KI nutzen, wobei ich da auch mit die größten Produktivitätsgewinne eigentlich sehe bei die wir so sehen, mit dem wir

17:43 zusammenarbeiten. Es ist sehr die Partment spezifisch und ähm einfach ausprobieren, äh keine Angst haben, Fragen stellen, sich mit anderen Leuten austauschen, äh die vielleicht eine

17:54 ähnliche Reise gerade gehen und keine Angst davor haben. Ähm, man kann eigentlich, wenn man nicht falsche Daten eingibt, äh eigentlich nicht so wie kaputt machen. Manchmal auch ein

18:03 bisschen um die Ecke denken. Ja, selbst wenn ich jetzt meine Prozesse schon alle optimiert habe, manchmal ist der Prozess davor, wie die Dinge zu mir kommen, mal anders. Ein Freund von mir hat mir

18:11 letztens berichtet, äh seine Kunden sind Schreiner. Mm. Ja, die bauen Fenster und die Schreiner müssen halt auf der Baustelle mal irgendwie ausmessen, wie groß die Fenster sehen, müssen das

18:21 notieren, schicken das dann an den Vertrieb, der Vertrieb nimmt irgendwie auf, schickt Fragen zurück, also ein langer Prozess und überlegt ja, wie ist dann eigentlich, wie wär es dann ideal

18:30 haben dann festgestellt, na ja, schrein haben alle WhatsApp und ähnlich wie du reden die gar mit dir mit ihrem Handy reden die Sachen da rein. Es haben sie so optimiert, dass Prinzip die Schreiner

18:39 per WhatsApp eine Sprachnachricht reinsprechen. Mhm. Das ganze über KI erkannt wird. Mhm. und dann automatisiert schon ein Angebot erstellt werden kann oder auch schon gesagt

18:49 werden kann, pass auf, wir brauchen noch die und die und die Angabe, um ein Angebot zu erstellen. Das Angebot am Ende muss natürlich von dem Vertrieb noch mal gecheckt werden, aber der ganze

18:57 Rattenspanz dahin ist schon über KI ob perfektioniert nicht, aber auf jeden Fall deutlich verbessert. Ein sehr ähnliche Uscase von Handwerker, den wir gesehen haben, ist Rechnungsstellung.

19:10 Aha. Rechnungsstellung ist meistens ein riesen Pain für Handwerker und wie oft, also wie viel Umsatz bleibt da liegen, weil nicht genug Rechnung gestellt werden, weil meine Rechnung vergessen

19:19 wird. Und der Case ist auch einfach. Du sprichst eine Voice Message in das System, sagst was alles gemacht wurde ähm und versuchst dann durch möglichst strukturiert es zu erklären. Das System

19:31 liest deine Sprachnachricht aus, versteht es, versteht welche Punkte das quasi in deinem Leistungskatalog sind. und nimmt diese Punkte dann automatisch in die Rechnung auf, so dass der

19:43 Handwerker, wenn er nach Hause kommt oder zurück ins Büro kommt, ein Draft der Rechnung schon sieht und dann nur noch kleine Änderung machen muss, dann die Rechnung rausschicken kann, was das

19:51 für ein riesen Zeitersparnis ist. Vertriebler ähm weil wir jetzt quasi Rechnungsthema sind. Wenn ich ein Demo Call mache, wenn ich ein Software im Software Vertrieb bin und dann eben so

20:03 ein Notaker mit drin habe, oft habe ich als Vertriebler gewisse Notaker ist so im Prinzip so ein Teilnehmer mit in dem Gespräch. Genau. Eigentlich ein AI Agent, der dann da ist. Seht ihr

20:15 vielleicht manchmal, wenn ihr irgendwie auf Zoom oder auf Teams oder so seid und dann sind da noch extra extra Personas mit dabei, wo dann steht so und so Notaker. Genau. Mittlerweile ist es Gang

20:24 und Gebel. Mittlerweile ist es meistens, also ich hatte seltenen Fall, ich spreche natürlich immer vorher an, sag hier der Nordgest mit drin, der dabei irgendwie die Zusammenfassung zu

20:32 schreiben und du bekommst auch automatisch eine Zusammenfassung geschickt danach und die allermeisten Leute sind auch äh fein damit auch in den ganzen Verkaufs und Vertriebsgesprächen. Meisten Leute

20:41 finden es sogar spannend. Ähm und äh die sind mittlerweile sogar soweit, die wenn du ein Vertriebler bist und du hast für den ersten ähm äh Discovery Call, wie man den oft nennt, eine gewisse Fragen,

20:53 die du stellen musst oder so Qualifizierungskriterien, dann sind die Systeme mittlerweile schlau genug zu erkennen, ob du das gefragt hast und was die Antworten waren und aktualisieren

21:04 dann dein CM-System, also z.B. für ein Hubspot oder dann dein Selbstforsystem sass ich als Vertriebler keine Zusammenfassung mehr schreiben muss. Ich muss die Felder im im CM-System nicht

21:13 mehr aktualisieren und ich kennen alle Vertriebler. Das größte Problem bei Vertrieblern ist, dass eben nicht das CN System verlegen und die Sachen richtig eintragen und das wird auch weggenommen

21:23 mit der KI und dadurch gewinnt Vertriebler zwei Stunden Arbeit am Tag zurück, die sie dann wiederum in weitere Salcours investieren können. Ich nutze das auch bei internen Calls. Ich habe

21:32 auch so ein Notaker, der nimmt dann für interne Calls. Wir haben immer so ein Sprint Meeting, nimmt das mit auf und trägt dann so am Ende zusammen, wer macht jetzt was, was sind auch offene

21:40 Fragen. Ja, und teilt das dann dem ganzen Team in einem extra Slack Kanal, wo du dann sehen kannst, so und so hat das und das gesagt zu dem Thema und dann ist direkt der Link zum Video. Das

21:51 heißt, ich kann dann reinspringen und mir dieses Video anschauen. Äh und spar mir halt früher hätte dann irgendwer noch die Notizen machen müssen und das teilen müssen. Jetzt ist es damit drin.

22:00 Ja, das ist so ein typischer Job. Es hat noch niemand in der Geschichte der Menschheit Spaß gemacht, in dem Meeting zu sitzen und mitzuschreiben. Ja, also die Person möchte ich gerne

22:10 kennenlernen. Das ist so ein klassischer Tast macht KI einfach besser, schneller, einfacher, günstiger und äh diese diese menschliche Zeit, diese Person, die sonst die Zusammenfassung geschrieben

22:22 hätte, kann viel besser verwendet werden. und zu was es aufführt und jetzt schließen wir das Thema ab, weil ich glaube wir könnten h noch zwei Stunden über CAS sprechen.

22:33 Es hilft mir dabei auch viel präsenter in dem Meeting zu sein. Vorher habe ich halt irgendwie nebenbei die Notes gemacht irgendwo in Dokumenten hab gesprochen und hab Notes gemacht, damit

22:42 ich eben nicht die wichtigsten Punkte vergesse. Das führt halt, also ich glaube, ich bin keine Ausnahme darin, der Mensch ist einfach schlecht Multitasking. Du kannst nicht voll

22:51 präsent sein in dem Gespräch und parallel irgendwie richtig mitschreiben. Manche können das besser, manche schlechter, aber es führt auch dazu, dass ich viel präsenter in den Meetings

22:59 bin und nicht mehr irgendwie parallel noch tippen muss, was auch schon mal ein großer Vorteil ist und einfach ein ja ein Zeichen von Respekt, wenn du dem anderen permanent zuhörst, den anschaust

23:08 und engaged bist und nicht irgendwie so Entschuldigung, ich muss ja noch kurz mitschreiben. Ähm das ist ja ist ja Quatsch. Bei all dem wichtig, der Mensch, ja, Human in the Loop hatten wir schon mal

23:19 erwähnt. Der Mensch bleibt nach wie vor in der Verantwortung für den Kontext, für die Ethik und für die Entscheidung. Es kann einem KI nicht abnehmen. Genau. Aber natürlich auf dem Weg dahin kann es

23:29 sehr viel abnehmen. Genau. Und zum Thema abnehmen, vielleicht machen wir noch mal einen kleinen Bogen äh zum Ende der Sendung. Und zwar haben wir in der letzten Sendung sehr, sehr, sehr

23:39 ausführlich über Chat GPD gesprochen. Ähm, wir wollen jetzt nicht im Detail noch in andere Tools einsteigen, obwohl andere Tools auch schon sehr sehr gut sind. Wir haben das Ganze mit Chat GPT

23:52 gemacht, weil es einfach die meisten Leute kennen und auch die meisten Leute nutzen. Es gibt aber auch beispielsweise, wenn man in der Google Umgebung arbeitet, Gemini, was ähnlich

24:01 gut ist und ähnlich ähm ja gute gute Modelle hat. äh ähnliche Features hat, ähm gefühlt immer so ein bisschen Chat hinter Chat GPT ist. Wenn ihr jetzt aber vom Arbeitgeber aus in der Google

24:15 Oberfläche arbeitet, dann ist auch Gemini mittlerweile sehr sehr gut und man muss nicht unbedingt Chat GPT haben. Sowohl was die Fotos angeht als was die Modellqualität angeht, ist Gemini sehr

24:26 sehr gut. genauso von Anstropic Cloud. Das ist so der der dritte ganz große Spieler. Ähm auch extrem gute Qualität, hat auch fast alle Features, die eigentlich in Chest GPT hat, außer die

24:38 Bilderstellung. Wobei heute nehmen wir den Podcast auf, wer weiß, in zwei Wochen kommt vielleicht auch Claud mit der Bildstellung, dann ist es schon wieder outdated. So ein bisschen so

24:47 Geschmackssache. Einige Entwickler, die ich kenne, die arbeiten lieber mit Clud. Ähm, wir haben dann, ne, neben Gemini und neben Cloud von Anthropic, ein weiterer US-amerikanischer Hersteller,

24:58 gibt's noch die europäischen Platz aus Frankreich. Mix, ja, die auch gar nicht so schlecht sind. Mistral in den Mixralmodellen und L Chat L Chat sehr französischer, aber auch witziger Name.

25:10 Das ist von Chatchi PT. Ja, ist auch ein sehr gutes Produkt. Da weiß ich auf jeden Fall, dass meine Daten in Europa verarbeitet werden, ne, was für viele ja auch ein sehr relevanter Punkt ist. Das

25:19 heißt, auch damit äh kann ich sehr sehr gut anfangen. Unser Podcast richtet sich ja nicht an die absoluten Experten, ne? Natürlich hat jedes Modell ir seine Stärken und du hast eben ein RBCK

25:30 angesprochen, ähm die mit den Cloud Modellen einfach fürs Coding aktuell noch stand heute kann morgen wieder alles anders sein. State of the Art sind. Aber ich glaube, die wichtige Message

25:44 ist auch an unsere Hörerin Hörerinnen, ich muss nicht immer das absolute Topmodell haben. Ich sollte mit irgendwas anfangen. Die fast alle Probleme und Use Cases, die wir heute

25:54 besprochen haben, kann ich mit Cloud, mit Gemini und mit Chat GPT lösen und ganz viele unserer Hörerin werden in der Microsoft Umgebung arbeiten und vor einem halben Jahr war der CPT noch eine

26:09 absolute Katastrophe. Ähm und ich sollte mich davon aber nicht beeinflussen lassen, weil ich höre es super oft, wenn ich mit Unternehmen spreche, die sagen, ja, haben den Copil

26:18 probiert, war Schrott. Der Copolit war auch Schrott und der Copolit ist immer stand heute noch nicht so gut wie das ein Open AI ist oder die anderen Modelle, aber der Copilot wird immer

26:30 besser und äh wenn ich nur einen Zugang zum Copilot habe, dann kann ich auch fast alle der Dinge, die wir heute besprochen haben, mit dem Copilot machen. Ganz genau. Und von daher,

26:40 welches Modell ihr nutzt, welchen Anbieter ihr nutzt, ist ähm gar nicht so wichtig. Wichtig ist, dass ihr ausprobiert, experimentiert und äh ja einfach seht, was was kann die KI, wo

26:52 macht die noch Fehler, wie kann ich besser prompten und einfach die Erfahrung sammelt, wie man damit am besten umgeht. Welches Modell ist da eher nebensächlich? Ich persönlich nutze

27:02 gerne versuchen Perplexity. Ja, versuchen, das ist so so ein bisschen mein Google Ersatz. Ja, da kann ich einfach sagen, keine Ahnung, wenn ich gibt es oder welches welches

27:12 Waschmittel kann ich nutzen für Babykleidung aus Wolle und Seide? Ja, eine typische Mannsfrage bum und dann sagt mir Perplexity das und das und das richtig. Nee, Perplexity noch mal ein

27:23 ganz anderes für das ganze Thema Research und Suche und so. Ähm, da machen wir glaube ich noch mal ein Deep Dive in der anderen Sendung. Auch eins meiner Lieblingstools. Hat bei mir für

27:32 fast alles Google ersetzt. Ähm, aber das sprechen wir, glaube ich, in Zukunft noch mal zu. Wir sollten noch kurz erwähnen, dass es auch Open Source Modelle gibt. Äh, es gibt zum einen

27:43 Treib Meta das voran, also die Mutterfirma von Instagram, von WhatsApp, von Facebook, Meta, ja, die haben Lama mit Doppel Lama äh haben so ein eigenes Modell mit nenn

27:55 sich, glaube ich, Meta Meta AI oder Meta irgendwas, äh, aber auch Lama als Open Source Modell. Es gibt sehr gute chinesische Modelle, die es auch als Open Source gibt. Ähm Deeps, ne? Deeps

28:07 z.B. Ich kann zwar die Deeps App nutzen, dann gehe ich aber durch das chinesische Frontend, was wiederum dann chinesisch zensiert ist. Ja, ich kann aber theoretisch auch dieses Open Source Modell

28:20 runterladen. Allerdings ist es dann schon, da brauche ich die relevante Maschine. Das kann ich in der Regel nur die kleineren Modelle kann ich überhaupt auf meinem Laptop laufen lassen. Und äh

28:30 ja, Open Source ist glaube ich das ist wichtig, dass es gibt, weil ist nicht anwenderfreundlich. Das ist ähm genau, man braucht schon ein gewisses ja weiteres technisches Verständnis, um

28:41 quasi eigene Open Source Modelle laufen zu lassen. Im Zweifel irgendwie auf den eigenen Cloud Servern oder Premise Servern zum Tementieren. Also es geht dann glaube ich schon über den Horizont

28:50 der meisten Personen hinaus und das sind dann vor allem halt Themen, wenn es um ja, wenn ich Use Casases habe und wirklich haltbezogene Daten verarbeiten möchte oder meine Geschäftsgeheimnisse

29:00 und so weiter und 100% sicher gehen will, dass die Modelle bei mir laufen, dass die dann die Daten so rausgehen können, dann brauche ich Open Source Modelle oder Chpt Enterprise, wenn ich

29:10 äh meine Company of Azure, also auf den Cloudice Microsoft läuft. Ähm, das sind glaube ich so die Sachen. Wenn ich schon so weit bin, mir darüber Gedanken zu machen, da bin ich schon relativ weit an

29:21 meiner KI Reise. Ähm, genau. Die meisten Leute sollten einfach bei einem der Hauptanbieter ausprobieren. Es gibt noch ein Croc von X, aber guter Punkt. XI von Elonus auch eine sehr gute KI. Da muss

29:36 man natürlich überlegen, wo man sein Geld am besten ausgibt. Aber wir sind ja kein Politik Podcast. Ich warte immer noch auf die Apple Intelligence. Die steht zwar schon in meinem Telefon

29:46 besim, aber irgendwie weiß ich was Apple. Apple ist, ich glaube, das kann man einfach mittlerweile sagen, einfach so hart auf die Nase gefallen und so weit hinten dran hinter den ganzen

29:58 anderen großen Techfilmen, dass das schon richtig peinlich ist. Siri wurde KI Siri wurde auf jetzt 2026 verschoben. Ja. Ähm 2024 wurde ja schon wie in deinem Handy Apple Intelligence äh quasi

30:14 ähm ja groß vermarktet und äh Apple wird auch mit Klagen überzogen, weil alle Features, die letztes Jahr mit Apple Intelligence angekündigt wurden, immer noch nicht da sind und Leute sich

30:24 natürlich die Handys gekauft haben für Apple Intelligence. Apple hat gerade den KI Chef rausgeschmissen und ähm ich glaube, da ist Alarmstufe rot. Ähm, das ist ja ähm ist noch mal ein ganz anderes

30:38 Thema. Äh, aber schon irgendwie erschreckend und aber irgendwie auch verständlich, ne? Weil Apple ist ja immer die Kampagt, die sind die brauchen meistens ein bisschen und machen dann halt wollen

30:51 halt alles perfekt machen, die perfekte User Experience. Das ist nicht so 802 und das macht manchmal einen Fehler, sondern die wollen dann wirklich das in der Perfektion. Genau. Und das geht in

30:59 der Welt der KI nicht. Das geht mit der Entwicklungsgeschwindigkeit der KI geht es einfach nicht und entweder bleibt Apple halt jetzt immer hinten dran oder die müssen halt glaube ich ihre ganze

31:09 Kultur anpassen auf dieses neue ähm ja auf diese neue Welt auf diese neue Welt der KI, weil du willst die Company sein, der am Rand des Möglichen arbeitet, ne? Wir haben schon, ich habe in einer der

31:22 ersten Folgen gesagt, d es gibt Dinge, die kann die KI, es gibt Dinge, die kann die KI nicht und diese Grenze verschiebt sich immer weiter und die Innovatoren arbeiten an dieser Grenze und es kann

31:34 sich Apple eigentlich nicht leisten, weil dann rennt Apple für immer hinterher und äh ja, aber das ist noch mal ein ganz anderes Thema. Was ich noch spannend finde, neben diesen ganzen

31:42 Modellen, die alle so stand alone sind, gibt's natürlich auch mittlerweile viel Software, die im Hintergrund auf diese Modelle setzt oder eigene Modelle hat und wo im Prinzip KI jetzt schon

31:52 eingebacken ist, ne? Also, ich habe das in in vielen Lösungen mittlerweile so extra so kleine KI Buttons gibt. Ich habe das in Miro letztens gesehen, da kannst du dann gibt so ein Button und

32:03 kann dann KI hilft dir dann in der Strukturierung deines deines Boards. In Notion ist das eingebaut. Äh, Sales Force hat es jetzt stärker mit drin. Ich bin gespannt, wann das bei Slack kommt.

32:13 Das also auch spannend, dass immer mehr Softwareanbieter das in die Tools integrieren, ohne dass ich se separat irgendwo antrigern muss. M genau. Und die Frage ist, wo sich das alles dann

32:23 noch ein bisschen hin entwickelt, denn die Hypothese ist ja, dass wenn die KN KI Agenten irgendwann so gut sind, dass sie wirklich meine Probleme lösen auf Basis ein Prompt oder einer Texteingabe,

32:34 ja, brauche ich dann überhaupt noch ein richtiges User Interface, ne? Und gerade in der Zeit jetzt, wir haben die neuen Bit Modelle äh gesehen von Open AI und äh und von Google Gemini, die quasi dir

32:48 komplett neue Oberflächen bauen können. Zwar nicht nur ein Foto, sondern auch dich Code quasi ähm immer neue ja auf den US Case bezogene ähm Userinfaces. Sprich in Zukunft sprichst du vielleicht

33:01 einfach in dein Handy rein und dein Handy erstellt dir on the go irgendein Programm oder eine Mini Software mit genau der Antwort, die du haben möchtest. Das heißt, wie sich die Welt

33:10 der User Interfaces ändert, ist ja auch noch mal eine ganz andere Frage. Wird das so bleiben, dass Miro irgendwie den KI Knopf hat und ich drauf klicke oder wird sich das die ganze Art und Weise,

33:20 wie ich mit einem Computer kommuniziere in den nächsten 5 Jahren noch mal fundamental verändern? Also ich bin ja meinung, wenn man nur ein KI Tool nutzt, dann schränkt man

33:29 sich selber ein, aber besser eins als keins. Genau. Erstmal irgendwo anfangen. Ich brauche keine 100 Tools. Und das eins dieser vier großen Chat GBD, Gemini, ähm Anthropic, auch Mstral oder

33:44 vielleicht in Copil oder fünf zum Anfang zum Ausprobieren. Super. Wir kommen in den folgenden Folgen dann immer noch mal an der einen oder anderen Stelle an ein

33:54 paar weitere Tools, die eben Sachen ganz besonders gut können, h vielleicht diese äh diese Schweizer Taschenmesser Tools noch nicht ganz so gut können, aber äh ein Schritt nach dem anderen. Ich

34:06 glaube, wir haben jetzt viele viele Usases gesehen, sind viel durchgegangen. Wichtig, es gibt keine abschließende Liste. Das heißt, wenn ihr irgendwo im Internet die Werbung findet, ladet euch

34:17 hier eure 100 Top Us Casases für KI runter. H ist nicht so richtig hilfreich, oder? Wie siehst du das? Nee. Nee, absolut. Also, das ist ä viel Clickbait. Ihr kriegt irgendeine PDF mit

34:29 irgendwelchen Newcastes, die für euch nicht passen. Es ist einfach eigentlich ist es ganz einfach. Am besten setze ich mich einmal hin und überlege mir, was sind

34:38 denn die ganzen Aufgaben, die ich jeden Tag oder ich in so einer klassischen Woche vor mir habe und das sollte am besten jede Person im Unternehmen einmal machen und dann sollte man quasi für

34:51 sich selbst und dann vielleicht danach im Team überlegen, welche Aufgaben von KI unterstützt werden können bzw. We vielleicht sogar komplett von KI ja umgesetzt werden können. Und zwar geht's

35:02 da nicht immer nur drum zu sagen, ich will jetzt Zeit sparen und effizienter werden, weil die KI hilft mir dabei die Zeit einzusparen. Hatten wir auch schon mal in einer Episode. Das ist natürlich

35:12 immer die die der erste Schritt zu sagen, alles weg, was ich nicht tun muss, kann die KI besser, aber dann einfach zu überlegen, was kann ich denn jetzt machen, was ich vorher alles nicht

35:21 konnte, welche Superpers komme ich eigentlich durch die KI und ähm dann kommt man quasi oder bringt man die Companie aufs nächste Level, weil ich dann auf einmal Dinge kann, die kann

35:32 meinen Wettbewerb nicht und so kann ich mich differenzieren. Ich will mich nicht differenzieren, dass ich jetzt jeden Tag irgendwie zwei Stunden weniger arbeite

35:39 oder dass ich mit der Hälfte der Person die gleiche Arbeit machen kann, sondern dass ich auf einmal Dinge kann, die die anderen nicht können und da darin liegt die KI Superpower und diese US Cases

35:50 kriegst du nicht aus der Top 100 Liste. Diese Uscases kriegst du, wenn du sehr individuell und spezifisch über dich nachdenkst. Und damit können wir abschließen. In der nächsten Folge

36:01 schauen wir uns ein sehr, sehr spannendes Thema an, was wir heute noch mal so ein bisschen angerissen haben. Ähm und zwar ist es nee, das Thema Bildgenerierung. In der letzten Sendung

36:10 haben wir euch schon mal ein Bild gezeigt, das Chat GPT erstellt hat, am Beispiel dieser Webseite, die wir erstellt haben. In der nächsten Sendung gehen wir noch mal ganz spezifisch auf

36:21 das Thema Bildgenerierung ein. Wo uns KI auch noch nicht helfen kann, ist diesen Podcast bekannter machen. Wenn es euch gefällt, wenn es hilfreich für euch ist, liked die Episode,

36:31 abonniert den Kanal, sprecht über uns, empeht uns euren Freunden. Herzlichen Dank und damit verabschiede ich mich nicht ganz menschlich, aber mit viel Rechenleistung und noch mehr

36:43 Begeisterung für eure Neugier. Danke, dass ihr mir gelauscht habt. Probiert Dinge aus, seid kreativ und vergesst nicht, ich bin nur ein Tool. Die Superkraft liegt bei euch. Bis zur

36:55 nächsten Episode. Cointelligence ist eine Produktion von The Key Academy in Zusammenarbeit mit Snipkey. Produziert bei Studio Co in Berlin. Produktion und Regie: Christina Manuele, Fuat Sebli und

37:09 Elias Frale. Creative Director: Lukas Schelter, Redaktion und Moderation Benjamin Wüstenhagen und Moritz Heininger. Abonniere uns auf Spotify, Apple Podcasts oder YouTube. Danke fürs Zuhören.

Zur Folgen-Übersicht