Co-Intelligence

// Transkript

#12: Wissensmanagement neu gedacht: ChatGPT und andere KI-Tools für die Arbeitswelt von morgen

Vollständiges Transkript dieser Episode des Co-Intelligence Podcasts. 6.149 Wörter. · Auf YouTube ansehen ↗

0:00 demnächst ein neues Google Modell rauskommt. Das ist wirklich Wahnsinn, wie schnell das weitergegangen ist. Die Videos sind echt absolut crazy.

0:16 Das ist schon echt Wahnsinn, was da mittlerweile geht. Das schöne Wort heißt RAG, Retrieval Augmented Generation. heißt im Wesentlichen, dass wenn ich eine Suchanfrage stelle, das heißt, ich

0:28 kann sofort kontextbasiert Antworten bekommen, dass Leute ca. 20% ihrer Arbeitszeit damit verbringen, Informationen zu suchen. Ich kann multilingual suchen, also in den

0:38 verschiedensten Sprachen. Den Fehler, den man nicht machen darf, ist heute zu sagen, wir haben es probiert, das funktioniert nicht, die KI kann das nicht. [Musik] Willkommen zurück zum Cointelligent

0:53 Podcast, eurem KI Lern Podcast mit euren beiden Hosts Morit Heiniger und mir Benjamin Wüstenhagen. Wir haben auf euch gehört. Ihr habt euch besseren Sound gewünscht. Heute probieren wir ein neues

1:06 Sound Setup aus. Ihr habt euch gewünscht, dass wir weniger dengel sprechen. Äh schwierig. Mal gucken. Ich kann nur sagen, it is what it is. Und ihr habt euch gewünscht, dass

1:19 wir bessere Show Nototes haben. Auch daran arbeiten wir. Und es gab zudem noch ein Kommentar: "Hey, manchmal sind redet ihr von Modellen, aber das neuere Modell ist ja gerade schon da." Das wird

1:30 glaube ich immer so sein. Wir werden, es wird immer der Fall sein, dass vielleicht, wenn ihr diese Episode gerade schaut, ein neueres Modell schon wieder am Start ist. Dennoch wollen wir

1:40 kurz mal rekapitulieren, was alles in den letzten drei Monaten passiert ist, seitdem wir mit diesem Podcast gestartet sind. Was gibt's Neues? Was gibt's Neues? Einiges, viele neue Modelle.

1:50 Vielleicht noch ein Wort dazu. Wir versuchen die ganzen Grundlagen ja so beizubringen, dass man versteht, um was es geht bei einem Thema, dass man weiß, man sich dem Thema nähert. Ob das jetzt

2:01 neues Modell jetzt 3,5, 3,7, 4,0, 10,3 heißt, ist eigentlich egal. Ihr würdet ja einfach immer in eurer Modellauswahl das neueste Modell auswählen und wir haben ja in der Modell Selection Episode

2:14 auch drüber gesprochen. Probiert einfach verschiedene Modelle aus von verschiedenen Anbietern. Wählt das, was euch am besten gefällt, wo ihr für euer Newcast, für eure Anwendungsfälle ähm

2:24 die besten Ergebnisse erzielt. Von daher machen wir, glaube ich, einen ganz kurzen Recap zu ja, was passiert ist, was Großes passiert ist in den letzten Tagen und Wochen. Fairerweise, wenn die

2:34 Episode rauskommt, sind auch wahrscheinlich die Themen schon wieder nicht mehr relevant, weil es sind schon wieder andere neue Themen gibt. Aber das Ziel unseres Podcast ist es ja nicht

2:44 eine Newsshow zu sein oder über die aktuellen aktuellsten Entwicklung zu berichten, sondern sollten ein Lernpodcast. Wir wollen euch die Basics beibringen und ja, die sind hoffentlich

2:55 zeitlos. Aber jetzt gehen wir mal kurz durch. Erster Punkt, den wir uns aufgeschrieben haben, Chat GPT 4.1, also ein neues GPT Modell. Wenn ihr vorher das VO Modell verwendet habt,

3:09 könnt ihr das immer noch nutzen. Das ist immer noch sehr gut. Aber das 4,1er Modell ist für gewisse Anwendungsfälle gerade im Coding vor allem ähm noch mal deutlich besser als das 4er Modell. Es

3:22 hat ein größeres Kontextwindo, also ihr könnt mehr größere Kontexte mehr Code Fenster kön auf Deutsch sprechen. Es geht deutsch. Ja, genau. Man kann jetzt bis zu eine Million Token. Token ist

3:34 auch geht auch Deutsch, ne? Das kann man sagen. Token ist glaube ich Token. Ich glaube da da würde mir jetzt kein deutliches Wort für einfallen. Und der der Wissensstand ist aktualisiert bis

3:42 Juno 2024. Genau. Dann hat Anthropic ein neues Cloud Modell oder zwei neue Cloudmodelle rausgebracht und zwar einmal das 4,0 Sonell, was das etwas kleinere Modell ist und das 4,0 Opus

3:58 Modell, weil der letzten Aufnahme waren 3,7 Son das aktuellste und ich glaube 35 Opus oder so. Aber wie gesagt, ähm dadurch wurden ähm den Cloudmodellen nun auch die Reasoning Fähigkeiten gegeben

4:15 und auch im Kronen sind die Cloudmodelle waren die Crowm Modelle schon immer ja State of the Art oder das neueste und beste. Äh und von daher gerade wenn ihr es viel zum Croten irgendwie nutzt, sind

4:28 sicherlich die Crautmodelle aktuell ja mit marktführend, kann man glaube ich sagen. In Episode 9 ging es ja bei uns äh Video KI oder wie können wir Videos mit KI erstellen? Wir haben damals schon

4:39 davon gesprochen, dass demnächst ein neues Google Modell rauskommt, nämlich das Vio 3. Das ist jetzt tatsächlich draußen. Es kam einige Tage, nachdem Episode 9 released wurde. Ähm spielt man

4:51 damit rum, wenn ihr Zugang habt. Es ist wirklich Wahnsinn, wie schnell das weitergegangen ist. All das, was mit der zweier Version noch nicht ging, geht jetzt mit der Dreier Version. Ja, und da

5:01 fun fact bis vor einem Tag war es nur möglich dieses WO3 Modell zu nutzen in dem 250 pro Monatplan von Google. Jetzt geht es auch in dem normalen Proan für glaube ich 20 € im Monat. Natürlich stark

5:16 eingeschränkt, wie viel Videos ihr da generieren könnt, aber die Videos sind echt absolut crazy. auch eben die Tongenerierung mit dazu passen zu dem Video erstellt wird. Das ist schon echt

5:29 Wahnsinn, was da mittlerweile geht. Und auch in Europa geht's voran. Mral hat jetzt das Medium 3 draußen. Das ist ein kosten günstigeres Modell. Ist nicht ganz so leistungsfähig wie das aktuelle

5:41 Cloud Modell, aber reicht für viele Anwendung dennoch bisschen günstiger und und europäisch liegt auf europäischen Servern keine Daten in die USA. Je nachdem, was man gerade für New Gest

5:49 hat, kann das ja auch schon ja Sinn ergeben. Aber jetzt Wissensmanagement, das Thema des Tages Wissensmanagement. Ähm das war unser kurzer Newsupdate. Ähm in Zukunft hin und wieder werden wir mal

6:01 Newsupdate geben, aber wie gesagt, Fokus von unserem Podcast ist das Lernen, dass du nach und nach neue Themen kennenlernst, was du alles mit KI machen kannst, wo KI dieser Superpowers gibt

6:11 und das bleibt der Fokus. Und das heutige Thema ist, wie du schon gesagt hast, Wissensmanagement. Und ähm ja, was was heißt Wissensmanagement und vielleicht was ist der Unterschied von

6:22 irgendwie einem GPT zu bauen? Ich ja, kannst du dazu kurz was sagen? Klar, wir haben ja letztens über Custom GPTs gesprochen. Das heißt, ein GPT, was ich mir auf meine eigenen Anwendung bauen

6:33 kann. Auch das ist schon eine Art von Wissensmanagement, weil da kann ich ja auch einige Daten reinladen von mir selbst, aber der Unterschied ist hier, dass dieses Custom GPT oftmals nur für

6:44 einen einzigen für ein einziges Nutzungsszenario gut ist. Also, wenn ich beispielsweise immer auf eine bestimmte Art von E-Mail antworten möchte und dann mein Custom GPT baue oder immer

6:53 irgendwie eine Präsentation bauen möchte, aber ich habe einen Usecase. Unterschied zu den zum jetzigen Business Management, was wir überrachten wollen, ist, dass ich da viele Uscases haben

7:00 kann und ähm das ganze übergreifend ist. Genau. Also bei GPT ist eben sehr begrenzte Gewissensdatenbank, die man so GPT eben gibt. Und wenn man jetzt ein Unternehmenswaltes oder eben ein

7:13 Teamwaltes Wissensmanagement aufziehen, aufbauen möchte, würden wir natürlich noch viel mehr Fils, die halt sonst irgendwo verteilt auf so einem Drive rumliegen. Ob das jetzt mein SharePoint

7:22 ist, ob das mein Google Drive ist. Bei fast allen Unternehmen es ist aktuell eine ziemliche Katastrophe, wie eine Pfeilablage so ja umgesetzt wird. Und irgendwie Antworten zu finden in den

7:35 Unternehmensdateien ist meistens eine Katastrophe und äh es macht auch Leuten keinen Spaß. Mir macht das auch keinen Spaß, irgendwie eine Versionskontrolle zu haben, die neuesten Fallsauber

7:44 abzulegen. Und äh ich glaube ja, wir sprechen ja nicht nur für uns, wahrscheinlich in den allermeisten Unternehmen ist es so, dass die SharePoints oder die die Google Drives

7:54 oder was auch immer sehr sehr sehr chaotisch sind. Ja, dadurch geht Teamwissen verloren. Ähm, ich habe Zeitverschwendung, weil ich ewig suche, weil ich mich durch alle möglichen

8:05 Dokumentenablagen durchklicken muss und Fallstrukturen und Ordnerstrukturen. Also entweder ist es super chaotisch oder es ist extrem gut äh aufgearbeitet, aber ich habe dann keine Ahnung 30 oder

8:15 10 Unterordner. Ähm oder ich habe auch eine Informationsüberflutung, weil ich einfach so viele Daten habe oder so viele Dateien, dass ich gar nicht weiß, wo ich anfangen soll. Ja, und ich habe

8:24 mal eine ein Fakt gelesen, ist echt crazy, dass Leute ca. 20% ihrer Arbeitszeit damit ver verbringen, Informationen zu suchen. Ja, und das kenne ich. Wenn ich in Google Drive

8:36 irgendwas eingebe, Umsatz 2024, bekomme ich keine Antwort. Ich bekomme halt irgendwie 20 verschiedene Fils, PDFs oder Präsentationen und irgendwo da darf ich dann meine Antwort suchen und bis

8:49 ich wirklich die Antwort gefunden habe, die richtige Fall gefunden habe, die neueste Fall gefunden habe, vergeht viel Zeit und äh kann ich sicherstellen, dass meine Kollegen und Kolleginnen immer die

8:59 richtigen Falls finden und wenn wir den richtigen Informationen weiterarbeiten, wahrscheinlich auch nicht. Also ist heute schon ziemlich äh ja großes Problem, kann man glaube ich sagen. Mit

9:08 KI haben wir aber die Chance, dass es besser wird. Das ist heute schon viel viel besser. Das heißt, ich kann sofort kontext basiert Antworten bekommen. Ähm ich kann Dokumente intelligent

9:19 organisieren und ich muss sie dafür gar nicht in einer sehr, sehr guten Pfeilablage haben, sondern kann sie tatsächlich auch chaotisch ablegen. Ja, aber wir erklären gleich, warum das dann

9:27 trotzdem äh funktionieren kann. Ähm, ich kann multilingual suchen, also in den verschiedensten Sprachen. Ja, also mir geht's manchmal so. Teilweise sind meine Dokumente in Englisch, teilweise sind in

9:37 Deutsch. Wenn ich dann das den deutschen Begriff nur suche und nur diese Stichwortsuche hab, dann kommt halt der englische Begriff nicht. Ja, ja, das ist wirklich klar, wenn ich in

9:47 der in in einem Google Folder nach einem Begriff Umsatzwachstum suche und mein meine Pile ist jetzt auf Englisch, dann findet er einfach das Ergebnis nicht, weil er eben nach dem genau dem Wort

9:57 sucht und ähm ja eben diese Wissenssynthese, also Antworten zu bekommen auf eine Suche, wo nicht eine Liste von Fil ist eben was dieses KI Wissensmanagement ausmacht. So ein

10:08 bisschen wie das Thema Research. Ja, so heute Google ich quasi, also vor KI Google ich und bekomme dann irgendwie 20 Power Links und kann mich da durchklicken und beim

10:20 Wissensmanagement bekomme ich wie beispielsweise bei Per Black City oder jetzt auch die Google Suche mit der KI Funktion eben eine Antwort und darum geht es und ähm wie das alles technisch

10:32 funktioniert, hören wir uns glaube ich jetzt kurz an. Ja, da kannst du mehr zu sagen. Also es ist das schöne Wort heißt die Rag ret Retrieval. Augmented Generation.

10:43 Ja. Retrieval Augmented Generation, also ohne um es zu komplex zu machen, heißt im Wesentlichen, dass wenn ich eine Suchanfrage stelle, beispielsweise, wie war unser Umsatzwachstum 2024, schicke

10:57 ich ja diesen Prompt normalerweise an ein LM und das LM würde jetzt entweder mit dem Internet connected sein, um da irgendwie eine Antwort zu finden oder auf Basis des Gelernten in den

11:07 Trainingsdaten mir eine Antwort geben. Also LM Large Language Model. Ne, das was Chatell Genau. Ja. Und ähm in in unserem Fall oder im oder bei RG ist es so, dass es auf eine sogenannte

11:21 Vektordatenbank zugreift. Was es ist, erklären wir gleich und dort erstmal die relevanten in Informationen aus meinem Unternehmen zusammensucht. Also sind sozusagen so kleine Informationspakete,

11:34 dass das System versteht. Okay, Umsatzwachstum, da muss ich ungefähr hier suchen. Hier sind die relevanten Elemente und Informationen, die ich gefunden habe und nimmt dann diese

11:42 Information zusammen mit einer Anfrage, schickt die Daten dann an das LM, was mir dann wiederum eine Antwort gibt auf meine Frage. So funktioniert das quasi Highlevel. Und jetzt noch einen Schritt

11:54 weiter. Was ist überhaupt so eine Vektordatenbank? Eine Vektordatenbank heißt eigentlich nichts anderes als eine sauber strukturierte und herausgearbeitete Datenbank, die die

12:07 Zusammenhänge der Inhalte meiner Daten versteht. Und äh wenn man sich simpel meine Informationen in ein 2D Raum vorstellt oder im 3D Raum, dann sind die Wörter für Hund und Katze irgendwie weit

12:21 nebeneinander, aber das Wort für keine Ahnung Fotokamera ist ganz wo anders. Und genauso würden meine Daten oder meine Filgearbeitet werden, dass dann später eben dieses RAG System weiß, wo

12:35 es die Information hernimmt. Und eine Vektordatenbank erstellt man so, indem man alle seine Filibt. Da gibt's natürlich noch best practices, wie die Fils aussehen müssen,

12:45 wie man die am besten strukturiert und benennt und so weiter und so fort, dass die KI auch die Inhalte noch ein bisschen besser versteht, weil im Prinzip aus allen meinen Informationen,

12:53 die ich habe, er steht dann entsteht dann quasi diese Vektordatenbank. Da sind die Daten alle schön organisiert für die KI s, dass die KI damit umgehen kann. Und wenn ich dann eben eine Frage

13:02 stelle im Wissensmanagement über RAG, geht RG sozusagen in die Vektordaten lang und sagt, ach, hier ist die Information, die hole ich jetzt raus, gibt die jetzt mit ans LM und das LLM

13:11 gibt mit eine Antwort. So kann man das ungefähr ähm glaube ich erklären. Das hätte ich gerne vor über 10 Jahren gehabt. Ich habe ein Startup mitgegründet 2011 und wir haben ganz

13:21 ganz viele Daten äh von Schulbuchverlagen oder von Lehrverlagen bekommen und haben mussten die von Hand teilweise vertaggen. Wir hatten wirklich ganz viele Studierende Werkstudenten,

13:33 die dann die Sachen verteckt haben, damit wir mit einer Suchmaschine den Kram durchsuchen konnten. Es war ein Geschäftsmodell gibt nach wie vor für Lehrerinnen, Lehrer. Heißt die konnten

13:40 sagen: "Hey, ich habe morgen früh Vertretungsstunde neunte Klasse Biologie im Bundeslandpsilon zum Thema Fotosynthese und dann haben wir sozusagen Dokumente rausgesucht, die

13:49 dazu passen. Mhm. Ein riesen Aufwand, das überhaupt durchsuchbar zu machen, das wäre heute wahrscheinlich eine Sache von dem Tag, ja, sowas zu bauen. Ja. Ja, genau. Also das diese dieses Tagen, das

13:59 kann die KI sogar sehr gut. Natürlich kann ich der KI auch leichter machen, aber quasi wie man das technisch macht. Ich glaube, das würde jetzt den Podcast ein bisschen überschreiten, äh den Fokus

14:09 des Podcastes. Aber wichtig ist einfach zu verstehen, dass ich dass ich meine Unternehmensdaten sauber strukturiert in so eine Vektordatenbank bekomme und dann halt eben die relevanten Fragen stellen

14:21 kann. Und ein US Case ist, ich habe früher meiner großen Strategie in der Strategieberatung gearbeitet, eine weltweite und dort kommen natürlich in den verschiedenen Ländern verschiedene

14:33 Projekte immer mal wieder, die man schon mal irgendwo auf der Welt gemacht hat, ne? Natürlich wäre es dann cool genau zu wissen, wie man da vorgeht und da die hatten tatsächlich schon eine sehr gute

14:42 Datenbank und dann die ganzen Projekte abgelegt waren und auch erklärt waren und ähm ja, ich aber trotzdem suchen musste und mich dann durch eine Liste von hunderten oder tausenden Projekten

14:55 durcharbeiten musste, die halt irgendwie sortiert waren nach Keywortern, die ich in der Suche eingegeben habe oder über Kategorien und auch der Prozess hat natürlich ultra lang gedauert und ähm

15:06 Wenn jetzt quasi und ich bin mir relativ sicher, dass das Unternehmen das heute mittlerweile so macht, diese ganzen Daten einfach eben vektorisiert und Wissensmanagement drüber aufzieht, KI

15:17 basiertes, bin ich halt viel schneller an meinem Ziel und spar mir eben die Zeit ja lange das richtige Projekt zu finden, dann reinzugehen und zu verstehen, ob es wirklich das relevante

15:27 Projekt war oder es vielleicht doch nicht was ganz anderes ist und äh das einfach schon sehr spannend. Ja. Ja, also eine klassische Datenbank ist vielleicht wie so ein so ein Wörterbuch.

15:35 Ja, ich suche ein Begriff und dann finde ich diesen Begriff vielleicht auch mehrmals. Vektordatenbanken sind eher wie so ein Gehirn. Also, das heißt, die Daten werden eine Art Koordinatenz abgelegt

15:46 und die Datenbank versteht nicht den Zusammenhang, aber ist besser in der Lage, die Zusammenhänge darzustellen. Ja, genau. Also, es versteht, wo es suchen muss, um mir die relevanten

15:57 Informationen zu geben. Ähm, alles wieder Statistik, ne, und alles Wahrscheinlichkeiten. Sind so eine Vektordaten, man geht und ist nah bei Katze, weil irgendwie ähm ist

16:06 statistisch nah beieinander näher als bei der Kamera. Genauso würde es natürlich vorgehen bei der Informationssuche und natürlich können da auch Informationsfehler vorkommen, ne? Also

16:15 ist jetzt nicht so, dass ich dem allen blind klar trauen sollte. Das coole ist aber, dass diese Systeme mir die Quellen angeben, geben mir eine Antwort und sagen mir dann auch, wo die Antwort

16:24 gefunden wurde. Ich kann dann quasi immer drauf klicken und bekomme dann die Quelle und kann das noch mal und sollte das auch immer noch mal validieren, je nachdem, was es eben äh für ein Task

16:34 ist, ne? Also gerade, wenn es immer um Datenfakten geht, sollte man da immer noch mal nachprüfen. Ist für euch natürlich im Unternehmenskontext super interessant, sowohl auf Teamebene als

16:43 auch auf Bereichsebene oder auch auf fürs ganze Unternehmen. Ja, kann man wunderbar aufbauen, wenn man sagt, man hat im Team spielt zwischen Daten, auf die man zurückgreifen will. Super für

16:51 Onboardings. Ja, oder auch in Deutschland stehen wir generell vor der Herausforderung, dass sehr sehr viele Menschen in den nächsten Jahren in den Arbeitsmarkt verlassen, einige

16:59 nachkommen, aber auch nicht genug. Ja, und wir das Thema vom Wissensmanagement haben, einfach viele Menschen das Unternehmen verlassen, die Wissen implizit hatten, aber wenn dieses Wissen

17:08 irgendwo in Dokumenten qualifiziert ist, haben wir jetzt eine Chance, das besser rauszufinden. Genau. Vielleicht sollten wir äh das als letzte wichtige große Aufgabe sehen, wenn Personen in Rente

17:19 gehen, das Unternehmen verlassen, dass sie wirklich noch mal ihr ganzes Wissen dokumentieren und ähm das ganze ja sauber aufschreiben oder eben auch mit einer KI einfach reinsprechen, was

17:31 natürlich auch noch mal viel einfacher ist und die KI dann sozusagen dafür zu nutzen, das Ganze zu strukturieren und eben dann sauber sauber abzulen. Genau. Ich hoffe natürlich, dass wenn wir ein

17:41 bisschen in die Zukunft schauen, diese Möglichkeit fast schnell automatisiert haben, dass ich dann mein Miro und mein Slack und die Information hier im Mirolink direkt mit meinen Mails, mit

17:53 meiner Dateiablage, dass all das irgendwo in Vektordatenbanken zusammengeführt wird und ich dann ja mit einem Chatboard sprechen kann und diese ganze Information bekomme, sofern was

18:04 dokumentiert ist. Das ist ja, glaube ich, generell das große Problem in ganz vielen Unternehmen, dass es ganz viel Wissen einfach noch in den richtigen Hirnen dieser Mitarbeitenden äh gibt und

18:16 generell viel zu wenig dokumentiert wird. Ja, und wenn das nie aus den Köpfen rauskommt und irgendwie mal irgendwo aufgeschrieben wird, dann habe ich ohnehin großes Problem und starke

18:24 Abhängigkeiten von einzelnen Personen unter im Unternehmen. Was ist, wenn die mal weg sind, wenn die krank werden, wie auch immer. Also ähm es ist so bisschen das Thema wie immer. Ich brauche

18:34 natürlich die Daten, um das sinnvoll zu nutzen. Wenn die ganzen Informationen nur in den Köpfen meiner Mitarbeitenden sind, dann bringt mir auch ein Wissensmanagement nicht. Dann muss ich

18:43 erst mal einen Schritt weiter vorne anfangen und halt die Sachen eben sauber dokumentieren und ablegen, ähm, dass eine Maschine eben daraus lernen kann und dann halt eben den neuen, den

18:53 Nachtzyklern ähm ja, dabei zu helfen, diese Information zu sammeln, zu verstehen. Und du hast das Onboarding angesprochen. Äh, wenn ich neue Mitarbeitenden viel schneller onboarden

19:03 kann und auf den Wissensstand bringen kann, weil die alle ihre Fragen der KI stellen können, dann binde ich natürlich auch viel weniger Ressourcen von meinen bestehenden Mitarbeitenden, die sonst

19:15 sehr viel Zeit verbringen müssten, um alle Fragen quasi einzeln zu beantworten. Ähm und ähm so ist es auch oft für für neue Mitarbeitenden eine kleinere Hürde, weil man will ja auch

19:26 nicht dumm irgendwie erscheinen oder dumme Fragen stellen, wenn man gerade irgendwo neu angefangen hat. Und ähm ich habe natürlich keine Berührungsängste, wenn ich alle meine Fragen der KI

19:35 stelle, während ich mir vielleicht je nachdem auch wie der Chef oder die Chefin drauf ist, wie manche Sachen dreimal überlegen würde, ob ich die Frage jetzt stellen kann und ähm ja,

19:43 daher auch ein ein super Tool dieses Wissenswund fürs Onmording der Mitarbeitenden. Genau. Musst keine Angst haben, ihr müsst jetzt kein riesen IT Projekt starten. Na klar, in Enterprise

19:52 Settings, wenn ich irgendwie 100.000 von Daten habe, brauche ich das schon. Aber um es auszuprobieren, können wir einfach heute starten. Es gibt genug Produkte da draußen, die das möglich machen.

20:03 Beispielsweise schon in Chat GPT die Möglichkeit Projekte anzulegen. Da habe ich zwar setze ich zwar keine eigene Datenbank auf, aber ich kann in diesen ChatGPT Projekten verschiedene Daten

20:13 hochladen, Dateien, PowerPoints, PDFs, Videos, Whatnot ähm und dann innerhalb von ChatGPT in diesem Projekt immer wieder drauf zugreifen und neue Chats starten. Also ist so ein bisschen anders

20:26 strukturiert als als ein Custom GPT. Deutlich umfangreicher, glaube ich, ne? So ein Projekt ist ja hat eine viel breitere Wissensdatenbank. Ich kann es für ganz viele verschiedene Themen

20:36 nutzen. Wir haben uns im Unternehmen auch sowas angelegt. Nicht in Chat GPT, aber in Cloud, aber da kannst du es genauso machen. Das ist glaube ich sehr sehr vergleichbar. Und äh ich nenne es

20:46 das Brainstorming Projekt. Da sind alle Informationen über Snipkey drin, also unsere über unsere Produkte, über uns als Gründer und die Gründungsgeschichte und über die Community und alles, was

20:56 wir so machen, auch Umsatzahlen und Wachstum und unsere Strategie und äh ich nutze dieses Projekt dann auch viel für Brainstorming und so gebe ich quasi der KI schon einen großen Kontext quasi ähm

21:13 um das Brainstorming besser durchzuführen. Ja, und sowas kann ich mit einem Projekt machen. So, das kann ich mit also Chat TV Projekt oder einem Cloud Projekt machen und ähm ist ein

21:22 einfacher Schritt, weil ich hier dann eben auch direkt entscheide, welche Daten ich damit eben verbinden möchte und welche auch nicht, wenn ich nicht vielleicht gleich komplett meine ganzen

21:31 Unternehmensdaten damit verbinden möchte, was auch in vielen Fällen eben Sinn ergibt. Da kommen wir aber gleich noch mal dazu, wie man quasi über das Thema Datenschutz ein bisschen

21:39 nachdenkt. Natürlich muss ich überlegen, welche Daten wohingehen und gerade auch so ein Chat GPD Projekt, Daten gehen in die USA, ne? Die Chat die lernt da drauf

21:48 nicht oder open AI muss man glaube ich auch dazu sagen. Ja, aber dann auch es ist es kann schwierig sein gerade wenn Kundendaten oder bezogene Daten dabei sind und ich kann es natürlich nur

21:57 begrenzt anpassen. Also ich kann jetzt nicht irgendwie darumschrauben, sondern ich kann der Daten teilen oder auch nicht teilen. Aber das war's dann auch was der Anpassung angeht. Genau. Aber es

22:06 gibt auch einen europäischen äh Player, glaube ich, den man hier ganz gut erwähnen kann. Das ist ein deutsches Unternehmen, nennt sich Text Cortex, was im Wesentlichen genauso funktioniert.

22:16 Ich setze meine Wissensdatenbank auf, kann auch äh in einem höheren Plan entscheiden quasi, welche Mitarbeitenden Zugriff theoretisch auf welche Fils bekommen, weil das ist ja auch immer so

22:25 eine Sache, vielleicht soll nicht jede Person auf alle Informationen im Unternehmen gleich zugreifen können. Das heiß so ein gewisses ähm Rechte Management System ergibt natürlich auch

22:37 Sinn und ähm Text Cortex ist einfach GDPR compliant. Äh die Daten liegen auf europäischen Servern, wenn hier verwaltet und ähm daher, wenn man das Ganze mal ein bisschen größer denkt,

22:50 auch abhängig davon, wie groß mein Unternehmen ist, ne? Kleinere Unternehmen drücken vielleicht noch mal ein Auge zu und sagen, wir machen das mit Chat GPT. Ähm, aber einer gewissen

22:58 Größe im Mittelstand würde man wahrscheinlich sehr großen Fokus auf dieses ganze Thema ähm DSGVO legen. Und da ist Textcortex äh eine ganz gute Variante. Es gibt noch ganz viele

23:10 andere. Ähm, wir sind nicht mit Text Cortex oder JTPT assoziiert. Keine Werbung. Ja, wenn ihr uns Geld schicken wollt, gerne. Ja. Nein, kein Affiliate Modell oder

23:20 irgendwas. Das sind die Tools, die wir im Kopf haben. Es gibt verschiedenste äh verschiedenste Anbieter da am Markt, die man sich da anschauen kann. Ähm die sind dann vielleicht teilweise von den

23:30 Oberflächen jetzt nicht ganz so mal schön einfach zu nutzen, äh wie das eben die neuesten amerikanischen Tools eben sind. Äh aber für die ganzen meine ganzen Grundbedürfnisse sind die

23:43 auf jeden Fall sehr sehr gut. We ich Tex Cortex auch jetzt seit paar Monaten nicht mehr gesehen. Vielleicht sind die auch mittlerweile genauso gut oder sogar noch besser als Chat BT. Da kann ich gar

23:51 nichts zu sagen, aber man sollte quasi immer überlegen bei der Toolwahl, wie sieht's aus mit Datenschutz und wie relevant ist dieses rechte Management und äh genau wie groß möchte ich es

24:01 quasi denken, was auch ein schöneres schöneres Beispiel ist, was man nutzen kann, was vielleicht nicht primär dafür ausgelegt ist, aber was ich dafür ganz gerne nutze, ist Notebook LM von Google,

24:10 eins meiner Lieblingstools. Zurzeit an dem Tag, an dem wir diesen Podcast aufnehmen, kann ich bis zu 50 Quellen hochladen. Kann durchaus sein, dass sich das erhöht. In der kostenlosen

24:22 Variante oder in der Bezahlvariante kannst du glaube ich bis zu 200 Quellen oder 500, ich glaub 500 Quellen, wenn du in einem ganz teuren Plan bist, aber aber ihr könnt es ausprobieren kostenlos

24:31 bis zu 50 Quellen könnt ihr hochladen. Und das coole daran ist, das Wissensmanagement über Noteb LM kann man dann auch über einen Podcast sich reinfahren. Das heißt, man kann Fragen

24:42 stellen und dann unterhalten sich zwei Menschen und beantworten auch diese Frage, was auch ziemlich cool ist. Ja, ich konnte also ich kann ganz viele Quellen einmal damit verbinden, ne?

24:50 meine ganzen internen Quellen. Ich kann YouTube Videos damit verbinden, ähm Google Docs und so weiter, also Multimodal, ne, irgendwie genau direkt alles da anschließen. Und seit, ich

25:00 meine gestern, vorgestern ähm, also wenn du den äh Podcast hörst, wahrscheinlich vor zi d Wochen, äh gibt es sogar nicht nur ein Audio Podcast, sondern es gibt jetzt auch, ich habe es noch nicht

25:12 ausprobiert, aber es gibt jetzt auch Video Zusammenfassungen, die erstellen quasi noch passende Slides zu den Fragen, die du hast. äh was ganz spannend ist, also ich muss

25:21 noch probieren, schon cool, was da mittlerweile geht. Aber da könnte ich z.B. Onboarding sagen: "Hey, mach mir mal ein Podcast darüber, wie bei uns der Vertriebsprozess funktioniert." Und dann

25:31 dauert's keine Ahnung 10 Minuten, dann habe ich 15 Minuten lang Podcast, wo sich zwei Sprecher unterhalten, auch auf Deutsch äh wie der Betriebsprozess in unserem Unternehmen funktioniert. So

25:41 kann ich je nachdem, ob ich eben audio visuell geprägt bin und so besser lerne, mir eben über ein Podcast die Sachen erklären lassen oder über ein Text oder jetzt auch eben bald ähm über ein Video.

25:51 Also ist ein sehr spannendes Tool. Notep wieder liegt wahrscheinlich, würde ich jetzt mal sagen, die meisten Daten dann wieder in den USA. Ähm, ich weiß gar nicht genau, wie es ist, wenn ich einen

26:02 deutschen Business Google Account habe, ob dann quasi es auf europäischen Servern liegt. Im Zweifel für jeden, den es relevant ist, sollte man das vorher einfach noch mal recherchieren. Aber

26:14 selbst wenn die Daten auf deutschen Servern oder europäischen Servern liegen, die Inferenz ist wahrscheinlich schon in USA nach wie vor, ne? Kann sein, weiß ich nicht. würde ich Google,

26:22 wenn ihr zuschaut, schreibt's gerne in die Kommentare. Ja, genau. Wobei sich das auch wahrscheinlich noch 100 mal ändert und wahrscheinlich wieder daran liegt, ob ihr ein Paidplan, Pro Plan

26:31 oder Ultraplan habt. Ähm und ähm genau von daher, ich glaube hier irgendwelche Tooltipps zu geben und vor allem irgendwie äh noch Features von dem Tool ähm zu besprechen, das ist so schnell

26:46 outdated, äh die Welt dreht sich so schnell und nachher ja, aber wahrscheinlich kriegen wir wieder ein paar Kommentare. Ja, ihr seid doch outdated, das gibt es doch gar nicht

26:53 mehr. Es gibt doch schon was Neues. Ja. Ähm, kleiner Fun Fact, was viele von euch nicht wissen. Wir haben zwar in jeder Episode andere Klamotten an, aber es kann auch schon mal sein, dass wir

27:02 zwei oder drei Episoden Jetzt hast du es doch gesagt, also sowas. Das heißt, es gibt immer einen gewissen Delay zwischen Aufnahme und äh Livechallen rausschneiden.

27:12 Aber was wir euch mitgeben können, sind die Schritte, wie ihr das am besten bei euch implementieren könnt. Das heißt, wenn ihr heute oder morgen mit dem Thema Wissensmanagement bei euch im

27:21 Unternehmen, bei euch im Team anfangen wollt, gibt's eigentlich vier Schritte, die ihr befolgen könnt. Schritt 1, Analyse, Schritt 2, die Strukturierung, Schritt 3, die Migration und Schritt 4,

27:32 die Optimierung. Was heißt das genau? Analyse Analyse. Also erstmal müss eine Bestandsaufnahme machen, welche Dokumente überhaupt relevant sind und so ein in so ein System eben reingehen

27:43 sollen. Es gibt immer sehr viel Sinn mit dem Team zu sprechen, was eigentlich die Anforderungen sind, was sind die die typischen Fragen, die jemand hat, ne? Haben wir ein Onboard im Fokus? Wollen

27:52 wir ein System über alles machen? Äh geht's um die ganzen Company, geht's um einzelne Teams? nur dann das Thema Datenschutz können wir gleich noch mal ein bisschen detaillierter drauf

28:00 eingehen. Ähm welche Daten dürfen da vielleicht auch gar nicht rein? Kundendaten will ich vielleicht wahrscheinlich will ich nicht die Gehälter meiner ganzen Mitarbeitenden da

28:08 drin haben und da jeden Zugriff drauf haben. Ähm darüber muss ich natürlich Gedanken machen und einfach Ziele definieren. Was soll dieses Wissensmeystem einfach für mich lösen?

28:17 Das der erste Schritt. Dann zweite Schritt die Strukturierung. Das heißt, ihr müsst die Dokumente kategorisieren. Welche kommen da rein? Welche gibt es möglich Dokumente, die auch schon von

28:27 den Modellen verarbeitet werden können. Zugriffsrechte ist ein Thema und natürlich auch Zugriffsrechte, die müssen festgelegt werden. Also sollen alle alles sehen. Ähm wenn alle alles

28:36 sehen können, dann kann man relativ leicht physisch mit so einem Notebook LM oder einem CHGPT Projekt starten. Wenn es da Differenzierung gibt, dann müsst ja ein bisschen komplizierter rangehen.

28:47 Genau. Und dann wenn ich quasi alle Daten habe, das ganze Thema irgendwie sauber strukturiert habe, die Daten auch sauber strukturiert haben, dann kommt die Migration in das neue System, was

28:56 dann eben lernt, die Vektordatenbank erstellt und so weiter und so fort und ja, Daten übertragen, das ganze testen, ausprobieren, gucken, wie es funktioniert. Die Kolleginnen und

29:05 Kollegen schulen. Genau, das ist auch natürlich immer ganz wichtig. Alle Leute abholen, zeigen, was das Ganze kann. vor allem auch sensibilisieren, wo die Fehler sein können, dass eben nicht die

29:14 Antworten immer 100% korrekt sein müssen, dass wir immer noch die Quellen checken und dann last und least wie bei jedem Projekt Optimierung ähm Phase 4, wir optimieren nach und nach, wir

29:24 lernen, was funktioniert, was funktioniert nicht. Ähm vielleicht auch wenn bestimmte Ergebnisse mal falsch angezeigt sind, haben wir vielleicht die Daten nicht sauber strukturiert, müssen

29:31 dann vielleicht noch mal rangehen in äh quasi ja Definition und das Labeling der Daten in gewisse Art und Weise und wir merken, unser äh unsere KI hat da irgendein Problem damit, die sauber

29:40 auszulesen. Es kann auch mal sein, dass die Daten in ja extrem komischen PDF-Dateien sind, äh die irgendwie nicht richtig auslesbar sind, ne? Und dann müssen wir da quasi da noch mal

29:51 rangehen. Ähm, das ist quasi dann ja Phase 4 einfach das ganze bisschen optimieren. Finde ich aber spannend, weil bei vielen Projekten hast du ist das Ding abgeschlossen und dann ist war

30:00 das Projekt war's das. Ich glaube bei KI Projekten ist dieses Thema Optimierung und ständige Verbesserung zumindest zur Zeit noch super wichtig, weil alles entwickelt sich so schnell weiter und

30:10 Fähigkeiten werden ergänzt, dass es glaube ich schade wäre, wenn man diesen Optimierungsschritt nicht macht, äh weil man sie verbessern kann. Ja, so bisschen wie man sich selbst immer weiterbilden

30:19 muss, weil immer mehr geht und äh den Fehler, den man nicht machen darf, ist heute zu sagen, wir haben das probiert, das funktioniert nicht, die KI kann das nicht. Ja, weil in D Monaten die KI das

30:30 vielleicht kann, wenn ich jetzt quasi meine Meinung bilde auf Basis der Informationen von heute und nicht weitermache und weiter denke und weiter ausprobiere, dann bleibe ich irgendwann

30:39 stehen und äh ja, die Themen gehen so schnell weiter, die Fähigkeiten werden so schnell besser und von daher darf ich da nicht stehen bleiben. Die Optimierungsphase ist quasi eine

30:49 ongroowing Phase ähm glaube ich in allen ja KI Projekten. Vielleicht noch als Tipp, weil wir in Deutschland sind, Datenschutz äh es gibt wir unterscheiden drei Stufen von Daten. Das eine sind die

31:00 unkritischen Daten, dann haben wir die internen Daten und dann die sensitiven Daten. Was sind unkritische Daten? Prinzip alles, was ihr auch so veröffentlichen würdet, ja,

31:10 Marketingmaterial, äh Präsentation, allgemeine Guidelines, also all das, wo jetzt keine Unternehmensgeheimnisse preis gegeben werden und auch keinebezogene Daten eurer Kundin oder

31:20 Kunden drin sind. Genau, alles was irgendwie öffentlich eh einsehbar ist euren Kampagnen und so weiter und so fort. Genau. Die zweite Kategorie sind interne Daten, also irgendwelche Pläne,

31:31 ähm Projektpläne, irgendwelche Kampagnen, die ihr plant, ähm ja, Internet Tools, die ihr nutzt, ähm potenziell eure Finanzdaten, also alles, was irgendwie intern ist. Da müsst ihr

31:43 euch natürlich dann genau überlegen, möchte ich das hier in das System mit reingeben? Das ist natürlich immer die davon leitet sich dann natürlich auch welche Systeme ich nutze, ne? Also für

31:53 die die unkritischen Daten, die du erwähnt hast, in Schritt 1, da kann ich alles in CH GBT ballern Notebook LM in Claud, es ist relativ egal. bei den Unternehmens internen Daten muss ich mir

32:05 das natürlich wieder überlegen. Auch da ich sehe es aber gut, ich bin auch nicht der Big Corporate Guy eigentlich auch unkritisch viele interne Daten in die Systeme zu geben, weil ich weiß, sie

32:14 lernen nicht darauf. ähm natürlich keine unter äh Mitarbeiterbezogene Daten oder kundenbezogene Daten, personene Daten. Da würde ich mir dann eher ein DSGV auf jeden Fall ein

32:28 DSGVOform System eben nutzen. Dann sind wir bei den sensitiven Daten. Ja, auch Finanzinformation all das, wo Kompliance eine Rolle spielt. Genau. Und da ist dann die Frage ist immer eine

32:36 Kostenutzenabwegung. Ja. Will löse ich damit oder das Problem, was ich löse, ist das so groß, dass ich quasi ein gewisses Risiko eingehen kann oder nicht? Und beien Daten ist die

32:49 Antwort eigentlich fast immer nein. Ähm, aber wie gesagt, wenn ich das nutzen möchte, dann kann ich auch Open Source Modelle sowas bauen auf meinen eigenen Servern in Europa. Ja, und kann dann

33:03 genau die gleichen Vorteile erzielen. Komplett DSGVO konformen mit meinen Finanzdaten, mit Nutzerbezogenen Daten und so weiter und so fort. Also es ist alles möglich, aber es ist natürlich

33:14 dann vom vom Aufbau her dieses System aufzubauen ein deutlicher größerer Aufwand, als wenn ich so oft Shft Tools eben nutze. Ähm aber möglich, also alles ist möglich. Ich glaub generell zu

33:26 sagen, mit KI dürfen keine Daten oder Daten rein, ist falsch, wenn ich eben das ganze lokal hoste mit Open Source Modellen und so weiter. Das ist spannende. Also auf der einen Seite

33:36 werden die Modelle immer größer, immer größere Kontextfenster, immer mehr Datenpunkte. Auf der anderen Seite werden sie mal kleiner. Ja, weil ich habe heute schon Sprachmodelle, die auf

33:46 einem modernen iPhone laufen. Ja, das wäre vor 3 Jahren so noch nicht möglich gewesen. Keine Apple Modelle, weil Apple ja äh immer noch eine absolute Katastrophe ist, was KI angeht. Äh, aber

34:00 klar, also die Modelle werden immer kleiner, immer performanter und äh es gibt ja jetzt diese Nvidia Desktop Computer, auf den ich sogar ja größere Modelle laufen lassen kann und äh sind

34:13 noch ein bisschen teuer, ne? Dreieinhalb oder sowas. Ich habe 3inhalb oder 4000 €. Ähm ich habe mich mal auf die Warteliste ähm schreiben lassen und jetzt die E-Mail bekommen, dass ich mir

34:21 jetzt einen bestellen kann, aber ja, ist schon verlockend. Äh, aber ja, ich denke noch drüber nach. Krieg mal mit, wenn du hast. Ja, ja, dauert noch eine Weile leider, aber äh vielleicht äh wenn wenn

34:35 Weihnachten dann um die ums Eck kommt, dann bringt vielleicht Santa Claus aus nicht. Mal schauen. Okay, ich glaube, wir haben es Wissensmanagement oder? Ja, Wissensmanagement abgeschlossen mit

34:46 einer kleinen kleinen Update zu den aktuellen Entwicklung am Anfang der Folge. Wenn es euch gefallen hat, lasst ein Like da, kommentiert runter, ähm schickt uns eure Fragen, abonniert den

34:57 Kanal auf YouTube. Auf YouTube sind wir zurzeit am Reichweitenstärksten. Das geht auch gerne, wenn ihr uns gerne auf Spotify hört, geht auch gerne auf immer daumen hoch, kommentieren, Glocke

35:07 anmachen. Das hilft uns sehr und stellt eure Fragen, gibt uns Feedback, Kritik. Ähm, wir versuchen uns dran zu halten. Ähm, mit dem Englischdengisch schwierig, aber wir geben unser Bestes. Beim

35:20 nächsten Mal geht's um Research mit KI. Also bis nächste Woche. Ciao. Cointelligence ist eine Produktion von The Key Academy in Zusammenarbeit mit Snipkey. Produziert bei Studio Co in

35:32 Berlin. Produktion und Regie. Christina Manuele, Fuadli und Elias Frobel. Creative Director Lasas Schelter. Redaktion und Moderation Benjamin Wüstenhagen und Moritz Heininger.

35:45 Abonniere uns auf Spotify, Apple Podcasts oder YouTube. Danke fürs Zuhören.

Zur Folgen-Übersicht