// Transkript
#3: Bias, Bullshit, Datenschutz – Wie wir KI verantwortungsvoll nutzen
Vollständiges Transkript dieser Episode des Co-Intelligence Podcasts. 3.098 Wörter. · Auf YouTube ansehen ↗
0:01 [Musik]
0:10 Willkommen zurück zur dritten Episode von Cointelligence, eurem KI Lernpodcast. Nachdem ihr beim letzten Mal gelernt habt, wie eigentlich die Grundlagen von Chat GPT sind, was
0:21 Transformermodelle sind, schauen wir uns heute so tolle Themen an wie Datenschutz. Nein, so schlimm wird's nicht. Äh wir schauen, wie KI Bias es hat, wie wir damit verantwortungsvoll
0:33 umgehen können und warum es auch zu Halluzinationen kommen kann. Ja, das andere hört sich erstmal mega boring an. Ähm, aber ich verspreche dir, wir kriegen es trotzdem, glaube ich, ganz
0:45 interessant hin und die nächsten Folgen werden dann auch noch ein bisschen mehr Hands on. Auf jeden Fall wichtig sind die Themen auf jeden Fall, denn ähm die haben ja, ich sag mal, Implikationen äh
0:56 fürs richtige Leben und es kann auch ganz schnell mal schieflaufen, wenn ich nicht weiß, was die KI so falsch macht oder falsch machen kann. Und ähm Beispiel ist ein bekannter Anwalt in den
1:08 USA, der zu Gericht gegangen ist, um dem Richter zu zeigen, äh wie sein Mandat ja natürlich auf der richtigen Seite des Rechts steht. ganz viele Cases vorgetragen aus der Vergangenheit und
1:21 das Dumme war nur, dass diese Cases alle nicht existierten, sondern Shetch GPT einfach sehr überzeugend ihm diese Cases ähm vorbereitet hat und er einfach davon
1:33 ausgegangen ist, dass es natürlich eins zu eins stimmt, was die KI einem sagt und ähm ja, KI kann ein großer Bullshitter sein. Kann auch ein bisschen voreingenommen sein und warum und wie
1:47 schauen wir uns heute an. Wie kommt's denn zu Halluzinationen von KI, wenn keine Pilze im Spiel sind? Sehr gute Frage. Es sind tatsächlich keine Pilze im Spiel. Hat auch nichts damit zu tun,
1:57 dass man irgendwie durch eine Wüste läuft und auf einmal Vater Morgana sieht. hat nicht damit zu tun, dass vielleicht die Server überheizen und die KI dann Fehler macht, sondern die KI
2:06 weiß eigentlich gar nichts. Wir haben ja in der vorigen Episode auch schon mal gesagt, dass es so ein bisschen stochastischer Papagei, wenn man es böse ausdrücken will, ist, das eigentlich
2:17 immer nur das nächste Wort, nächsten Token vorher sagt und die KI ist einfach darauf trainiert, dass sie Sinn ergibt oder zumindest scheinbar Sinn ergibt. Eine KI ist ein guter Bullshitter, wie
2:32 man so gut sagt. Und wenn man sich mit einem Thema nicht gut auskennt, dann ist diese KI sehr gut darin einem zu erklären, ähm dass das Gesagte einfach Sinn ergibt. Die die die Argumente
2:44 machen oft oder erscheinen oft sinnvoll. Ähm, aber die KI kann Fakten erfinden, kann Quellen erfinden, kann Zusammenhänge erfinden und dem müssen wir uns bewusst sein. Und das natürlich
2:55 immer so bisschen die Frage, welchen US Case habe ich eigentlich gerade und wie schlimm ist das, wenn die KI Fehler macht, wenn ich euch einfach einen kleinen äh Beitrag für Social Media
3:04 schreibe oder so, ne, dann ist es in der Regel jetzt nichts kritisches. Äh, wenn es da um Fakten geht, muss ich die Fakten natürlich trotzdem checken. Ähm, wenn ich aber so ein Fall habe, wie eben
3:13 eingangs äh erwähnt mit dem Anwalt, der ein Gerichtsverfahren vorbereitet, eine Verhandlung vorbereitet, wo es im Zweifel um Knast oder nicht Knast oder um große Geldsummen geht, ähm dann muss
3:25 ich einfach sehr vorsichtig sein, wenn ich eine KI verwende und sollte diesen diesen Output nicht einfach eins zu eins glauben oder verwenden, sondern sollte immer noch mein meine Research machen.
3:34 Das ganze Thema Halluzination, sich Dinge ausdenken, die plausibel erscheinen, ist eine Sache, der ich bewusst sein muss im Umgang mit KI. ist aber nicht die einzige Sache und
3:46 zwar ist Kaia auch mal ein bisschen oder manchmal ein bisschen voreingenommen oder biist und ich glaube zu Bis äh können wir auch noch mal sprechen. Ja, das ist
3:58 also so wie wir es gerade gelernt haben oder schon auch schon besprochen haben bei GPT pretrained, ja, kann natürlich die KI nur darauf trainiert werden auf Dingen, die sie bekommen hat zum
4:09 Trainieren auf den Daten aus der Vergangenheit. Und wenn diese Daten schon, ich sag mal, die Realität nicht 100% abdecken, sondern verzerrt sind, dann kann natürlich das, was rauskommt
4:19 nach dem Training auch noch verzerrt sein. Also, wenn ich nur darauf trainiert sind, dass Obst immer rot ist, weil ich nur Erdbeeren hatte, dann ist die Wahrscheinlichkeit, dass mir die KI
4:29 sagt, Obst ist immer rot, sehr hoch. Ja, das kann kritisch sein. Es kann auch, also bei Obs würde ich jetzt noch sagen, okay, wenn meine Banane am Ende rot ist,
4:38 damit kann ich vielleicht noch leben. Da würde ich halt erkennen, okay, die Banane ist rot. Ja, gesellschaftlich kann es aber Probleme geben, denn und äh die meisten Bild KI, es sei denn, die
4:47 greifen danach noch mal ein, sind auf aktuellen Daten und Fotos trainiert. Und wenn ich eingebe, mal mir mal ein Bild von einem Arzt oder auch jetzt im Englischen gibt's ja gibt's ja kein kein
5:01 Geschächt of Doctor, es kann ja eigentlich ein weiblicher oder ein männlicher Arzt sein, bekommt man fast ausschließlich Männer zurück und das liegt in den Trainingsdaten, aber es ist natürlich
5:13 gesellschaftlich problematisch, wenn diese diese ja Vorurteile oder die bestehenden Systeme dann weiter durch die KI verstärkt werden, ne? Dann müssen wir uns halt bewusst sein. Ja, zudem
5:26 kann es auch sein, dass ich dass dass der Kontext fehlt, also dass ich dann Bild generiere. Ich habe dieses Beispiel immer gesehen von den Soldaten, wo gesagt wurde, generier mal deutschen
5:36 Soldaten aus der Zeit des Zweiten Weltkrieges und dann gab es alle möglichen Farben da drunter, wo die Wahrscheinlichkeit, dass es dann so war, recht gering ist, weil natürlich die KI
5:46 diesen Kontext nicht hatte, sondern im Prinzip ein Menschen genommen hat und den dann in dem in der Soldatenform dargestellt hat. Ja, und ich meine da ist da sieht man wie auch das Eingreifen
5:57 in den Bis zu einem Problem führen kann, ne? Weil die KI hat natürlich, wenn du da sagst, ich will ein SS Soldat, dann hat die KI natürlich nur von weißen Männern, jungen Männern gelernt. So, das
6:10 heißt wahrscheinlich hätte die KI dann auch einen weißen Mann in die Uniform gepackt. Die KI war jetzt aber von Google und Google ist eben sehr darauf gewacht auf Gleichheit und böse zum manchmal ein
6:25 bisschen woke, aber da hat dann im Nachhinein halt der die Entwickler haben halt dem System gesagt, dass es darauf achten muss, dass es immer eine Gleichheit gibt, eine Gleichverteilung
6:36 zwischen Männern und Frauen in verschiedenen Hautfarben und das hat halt im Ergebnis dazu geführt, dass es weibliche SS-Soldaten gab, farbige SS-Soldaten und so weiter, was halt
6:44 historisch einfach kompletter Quatsch ist, was auch dazu geführt hat, dass Google kurzzeitig dieses Bild KI wieder zurückziehen musste. Ähm weil ja in gewisser Weise eigentlich ein guter
6:57 Ansatz da war. Ich will nicht nur weiße Männer zeigen, die ähm Ärzte sind oder in dem Fall Soldaten, sondern will dafür sorgen, dass es quasi aufgebrochen wird. Diese Klischees hat aber natürlich zu
7:08 einer krassen Verzehrung der Wirklichkeit geführt und die Verzehrung, die im Training dann da gewesen wäre, wurde dann sozusagen durch diesen algorithmischen Eingriff, durch diesen
7:18 algorithmischen Bias ausgeglichen und wurde eigentlich noch schlimmer. Genau. Und da muss man sich so ein bisschen auch bewusst sein, wo kommen die Modelle her, wer hat die eigentlich entwickelt,
7:27 ne? Google klar ultra sag mal linksliberal versucht da für gleicher zu sorgen. Dann haben wir die KI von Elon Musk die so komplett ins Gegenteil Freedom of Speech und irgendwie alles
7:39 muss truth und wahr sein. Fun Fact seinen Krock gefragt hat am Anfang wä der größte Lügen Bold auf Link auf Xing auf auf X auf j ehemals Twitter auf X ist sagt seine eigene KI, dass er es
7:53 ist. Also ist schon witzig. Und dann haben wir noch die Chinesenmodelle, die natürlich irgendwie die chinesische Propaganda befeuern. Wenn man da fragt, was war beim Tier mehr Massaker, dann
8:03 sagt er, ja, war ja eigentlich gar nichts. Und von daher man muss einfach, also ohne jetzt zu politisch zu werden, ne, muss man glaube ich einfach wissen, die Dinger machen Fehler. Das liegt
8:14 teilweise in den Daten, teilweise den Menschen, die im Nachhinein angegriffen haben und abhängig von der Situation, wo ich KI nutze, kann das halt entweder schlimmer oder weniger schlimm sein.
8:22 Ganz genau. Ja, aber was wir auch sagen können, wir sehen, dass KI tendenziell weniger halluzinieren, als sie am Anfang das getan haben. Also es wird besser. Genau, es wird besser. Es wird viel
8:33 besser. Also allein über letzten z d Jahre hat man schon massive Verbesserung gesehen. Ähm und es wird auch regelmäßig besser. Es wird glaube ich nie ganz weggehen, allein schon, weil die Modelle
8:44 halt so funktionieren, wie sie funktionieren. Ähm, wichtig ist auch und das ist so ein bisschen die Gefahr, wenn die immer besser weren, wenn die immer weniger zu halluzinieren, werde ich auch immer
8:54 weniger aufmerksam und achte darauf und das ist halt so bisschen glaube ich Appell. Man muss Fakten, Daten und so weiter checken und desto kritischer der Einsatz ist, desto mehr muss man
9:03 natürlich drauf achten. Gerade natürlich auch wichtig, dass du weißt, was du da tust. Also, ich nutze KI oft, um so meine sehr rudimentären Codingkenntnisse ein bisschen aufzupimpen. Äh und frag
9:14 dann Chat GPT oftmals, okay, wie muss ich das machen? Wie muss ich das machen? Und ich verstehe so ungefähr, was da passiert, aber nicht hundertprozentig. Und da bin ich natürlich besonders
9:23 anfällig für Halluzination oder falsche Darstellung. Jetzt kommen wir zum Lieblingsthema aller Deutschen. Datenschutz. So, Datenschutz, super trockenes Thema, super wichtiges Thema, aber auch und ähm
9:38 man muss einfach wissen oder drauf achten, was man für Daten in die KI eingibt. Und zwar gilt die DSGVO auch bei der Nutzung von KI. Das ist wichtig. Man kann das ganze Thema unendlich
9:51 komplex und kompliziert erklären oder relativ einfach. Ich würde sagen, wir gehen heute mal den einfachen Weg und zwar gebe ich nie Kundendaten in die KI und ich spreche jetzt davon, dass die KI
10:04 ähm in den USA gehostet ist und nicht on premis, also wollen nicht zu technisch werden. Ich kann Modelle, z.B. Open Source Modelle auf meinen eigenen on Premise Servern laufen lassen oder auf
10:15 meinen eigenen europäischen Cloudin Instanzen und kann dann auch Daten verarbeiten im Kundendaten verarbeiten. Das ist so ein bisschen wie wenn ich mal eine deutsche EWS Instanz also Amazon
10:26 Server habe oder Microsoft Azure Service habe, da liegen natürlich Kundenaten drauf und wenn ich auf meinen meine Modelle auf meinen Servern in Zanzen laufen dann kann ich das natürlich
10:36 alles. Es geht jetzt aber für den normalen User, der Chat GPT nutzt. Und wenn ich einfach sch GPT nutze, da werden meine Daten ähm bald auch wohl in Europa verarbeitet, aber trotzdem auf
10:47 Servern, die nicht in meiner Hand sind, die bei einem amerikanischen Unternehmen liegen. Da sollte ich grundsätzlich nie Kundendaten reingeben, da sollte ich nie irgendwelche Geschäftsgeheimnisse
10:58 reingeben und generell kann ich glaube ich sagen, wenn das Daten sind, die irgendwo öffentlich zur Verfügung sind, die abgreifbar sind, die im Netz stehen, dann kann ich die auch reingeben.
11:10 Natürlich muss ich meinen eigenen Case überlegen, macht das Sinn oder macht es nicht Sinn? Ähm Beispiel ähm ich gebe vergangene Newsletter von meinem Unternehmen rein, um ein Muster zu haben
11:22 für die Erstellung zukünftiger Newsletter. So jetzt kann ich sagen, natürlich sind da meine Daten drin, das sind Sachen, die ich irgendwie erstellt habe. Sind ja keine Kundendaten drin,
11:29 aber sind irgendwie unsere Unternehmensdaten drin. Klar, aber diese Newsletter sind e im Internet, also richtig, ja, ne? Und dann kann ich die auch verwenden und das ist eben aber
11:39 vielleicht nicht die neueste Patentanwendung äh Anmeldung in Deepsg. Genau, genau. Meine meine Geheimnisse sollte ich da nie reinbringen, was auch noch ein wichtiges Thema ist. Und die
11:49 Frage bekommen wir oft, wie ist es denn, wenn ich die Kundendaten anonymisiere? Und da ist die Antwort jain. Das geht, wenn ich die so anonymisiert habe, dass ich nicht
12:02 nachvollziehen kann, wer dieser Kunde ist. Beispiel, wenn ich eine Liste aller Bestellung habe meines Unternehmens und dann einfach die Personennamen austausche mit irgendwie A B
12:13 C, kann ich ja trotzdem da die Bestellhistorie so uniek ist im Nachhinein nachvollziehen, welche Person es war, dann geht es natürlich genau das n um Pseudonym, dann geht es nicht. Wenn
12:26 ich jetzt aber eine Userumfrage mache mit 1000 Usern und 10 Fragen und möchte die mit der KI auswerten lassen, dann kann ich natürlich die Namen raus, weil die sind eh irrelevant, kann die
12:36 E-Mailadressen rausnehmen, kann nur die Antworten nehmen und kann diese Antworten natürlich verarbeiten. Und da ist auch wieder ein kleiner Disclaimer, es sei denn, ich weiß, es gibt
12:47 Freitextfelder, wo Leute vielleicht ganz persönlich über irgendeine Erfahrung mit dem Unternehmen arbeiten. Das heiß, ich muss mir die Daten auch wohl anschauen. So, Long Story Short Datenschutz ist
12:56 sehr relevant bei der KI, keinebezogenen Daten, keine Geschäftsgeheimnisse. Und wenn wir zum Thema Chat GPT kommen, ich habe auch noch die Möglichkeiten, das sollte ich immer machen, in den
13:06 Einstellungen auszuschalten, dass die KI Systeme mit meinen Daten lernen. Selbst wenn es unkritische Daten sind, möchte ich eigentlich nicht, dass damit gelernt wird. Ich zumindest nicht und äh das
13:16 kann ich auch ausstellen. So viiel zum trockenen langweiligen Thema Datenschutz. Aber auch ganz wichtig, der Datenschutz darf nicht das Argument sein, KI nicht zu nutzen. Genau. Genau.
13:27 Das ja ganz gerne in Deutschland gemacht. So. Ähm, nee, Datenschutz sag nein. Ja, genau. Und da muss man glaube ich auch als als Unternehmer, als Person, die in Marketing Team oder
13:39 irgendwo arbeitet und eigentlich einen massiven Mehrwert von der KI hat, auch mal dagegen treten und auch mal ein bisschen pushen. Ja, weil es ist immer einfach von einer Person im Unternehmen
13:50 äh dem oder der Datenschutzbeauftragte, dass die nein sagt, weil die Sache ist, die Personen verstehen oft gar nicht genug von KI und da ist die Default Antwort oft leider immer nein, aber mit
14:02 einer Default nein Antwort kommt leider niemand weiter. Das unternehmliche Person kommt nicht weiter und wenn die anderen halt ein bisschen flexibler sind oder offener sind äh die Konkurrenz,
14:13 dann bleibt man dran. Also, es ist immer, man sollte ein pragmatischen Ansatz wählen, aber natürlich kein Quatsch machen und irgendwie falsche Daten oder ja, da reinzugehen. Und es
14:24 gibt ja auch ein paar europäische Hoffnungen auf der KI Seite. Vielleicht haben wir da demnächst auch ein Modell oder mehr Modelle äh die mindestens so gut sind wie Jetj. Genau. Ein Beispiel
14:35 gute für ein guten Job ist Mistral aus Frankreich. die kann man auf jeden Fall auch empfehlen, wobei wir unsere unsere ganzen Erklärung oft auf JGBT einfach beziehen, weil es einfach
14:48 das Tool ist, was die Menschen synonym für KI ist und was die allermeisten Leute nutzen. Genau. Aber eben mit Vorsicht genießen. Und wenn wir jetzt über verantwortungsvollen Umgang
14:58 sprechen, ist natürlich Datenschutz wichtig. Was wir auch gesagt haben, alle Fakten überprüfen, ja, nichts für Bare Münze nehmen. Wichtig, ja, wenn ihr mit KI arbeitet, stellt sicher, dass es
15:09 überprüfen könnt, die Fakten überprüfen. Wichtig ist auch, dass wir jetzt noch ein weiteres weiterer Eigliismus, Human in the Loop, dass immer irgendwo noch ein Mensch irgendwo in der Prozesskette
15:20 ist, äh, der sich das Ganze anschaut und im Zweifel auch stoppen kann. Ähm, wichtig ist auch, dass Transparenz geschafft wird, äh geschaffen wird, ja, egal, ob jetzt Bilder mit KI generiert
15:31 werden, ähm oder Texte, ich mir fällt das immer wieder auf bei LinkedIn. Ich habe da das Gefühl, dass irgendwie zweiel aller LinkedIn Posts mittlerweile irgendwie von der KI generiert sind.
15:41 Immer wenn viele Emojions mit drin sind oder so paar Aussagen auf das nächste Level heben, dann weiß man sofort, okay, hier war die KI im Einsatz. Da gibt's auch schon schöne Ansätze.
15:53 Adobei beispielsweise kennzeichnet Bilder, die mit Firefly mit dem Adobe KI Bildgenerator gemacht werden mit einem kleinen Icon. Ja, dass man sehen kann, ah ja, das ist ein KI generiertes Bild wird,
16:05 glaube ich, auch immer wichtiger als wenn das Foto realistisch wird oder wenn das Videos sind, dass man das klart kennzeichnet. LinkedIn macht das jetzt auch ähm weil das ist ja in den
16:14 Metadaten oder diese Tools speichern sind in die Metadaten ab und äh diese Information wird dann genommen von den Oberflächen wird z.B. auch Link hat jetzt auch glaube ich oben links ist
16:24 manchmal sieht man das bei Videos, dass es KI generiert ist und ähm ja sorgt einfach für Transparenz, glaube ich. Ja, unser Auto ist auch KI generiert. Ja, zur Transparenz hier. Ja. Ja, wir sind
16:35 aber beide echt. Genau. Ja oder nech noch und wichtig auch ja da das natürlich auch alles menschliches ja menschliche Zeit kostet setzt die Qualität vor die Quantität. Ja, damit
16:48 noch ein Mensch im Prozess sein kann, damit man das vernünftig überprüfen kann. Eher weniger machen auf hohe Qualität achten als komplett alles rausblasten mit KI. Jetzt haben wir das Lieblingsthema
17:00 der Deutschen durch. Datenschutz, alle Gefahren sind beleuchtet von allen Richtungen. Was machen wir beim nächsten Mal? Das nächste Mal wird's super spannend, meiner Meinung nach einer der der
17:13 spannendsten Episoden, wo es darum geht, wann nutze ich eigentlich KI, für welche ja über übergreifenden Anwendungsfälle und wann sollte ich vielleicht KI nicht
17:25 verwenden, denn KI hat gewisse Stärken, KI hat gewisse Schwächen, die Schwächen wären fairerweise immer weniger. Hättest du mich von dem Jahr gefragt, dann werden noch viel mehr Punkte auf der was
17:36 kann KI nicht Seite? Ähm, das hat sich jetzt ein bisschen geändert und ja, die einzelnen Themen schauen wir uns gleich an. Wenn ihr bis hierhin geschaut habt oder gehört habt, dann gefällt's euch
17:45 wahrscheinlich. Bitte abonniert den Kanal, liked uns, schreibt uns Kommentare, sprecht über uns. Das hilft uns bekannter zu werden, das hilft uns noch mehr Menschen zu erreichen. Bis zum
17:56 nächsten Mal. Wow, für mich als KI witzig zu sehen, dass wir ein Talent dafür haben, Stereotype zu übernehmen. Warum soll ich auch anders sein als die Menschen? Aber keine Sorge, mit etwas
18:05 Nachhilfe und der richtigen Programmierung können wir sicherlich lernen, ein bisschen weniger menschlich voreingenommen zu sein. Cointelligence ist eine Produktion von The Key Academy
18:14 in Zusammenarbeit mit Snipkey, produziert bei Studio Co in Berlin. Produktion und Regie: Christina Manuele, Fat Zebli und Elias Vrobel. Creative Director Lukas Schelter. Redaktion und
18:25 Moderation Benjamin Wüstenhagen und Moritz Heininger. Abonniere uns auf Spotify, Apple Podcasts oder YouTube. Danke fürs Zuhören und bis zum nächsten Mal.