Co-Intelligence
Alle Folgen / EP_003
EP_003 Ethik und Bias in der KI 18 min

Bias, Bullshit, Datenschutz – Wie wir KI verantwortungsvoll nutzen

Erschienen 09. April 2025
// Lieber nur Audio? Bei Spotify hören

// KI-Zusammenfassung

Diese Episode von Co-Intelligence beleuchtet den verantwortungsvollen Umgang mit KI, indem sie Themen wie Halluzinationen, Bias und Datenschutz detailliert bespricht. Sie richtet sich an alle, die KI nutzen oder nutzen wollen und dabei die Grenzen und Risiken verstehen möchten.

Shownotes

In dieser Episode von Co-Intelligence sprechen wir über den sinnvollen Einsatz von KI und werfen einen Blick auf fünf zentrale Anwendungsbereiche. Von der Ideenfindung und kreativer Unterstützung, über die Zusammenfassung großer Informationsmengen, bis hin zur Automatisierung repetitiver Aufgaben – KI bietet zahlreiche Möglichkeiten, uns zu unterstützen. Wir zeigen, wie KI auch bei Übersetzungen und der Simulation von Perspektiven helfen kann. Aber nicht alles ist rosig: Wir diskutieren auch, warum KI nicht immer geeignet ist, um zu lernen, und welche Risiken es bei hoher Genauigkeit und ethischen Fragestellungen gibt. KI kann Fehler machen, und in kritischen Prozessen sollte sie immer mit Vorsicht und menschlicher Kontrolle eingesetzt werden. Bleibt dran für mehr Insights und lasst uns wissen, was ihr von der Folge haltet! #KI #Anwendungsbereiche #CoIntelligence #Ideengenerierung #Automatisierung #EthischeKI #Lernprozesse #KIimAlltag #KIundDatenschutz #KIundEthik

Erkenntnisse

  • 2:28

    KI erfindet Fakten und Quellen, weil sie darauf trainiert ist, scheinbar Sinn zu ergeben, nicht die Wahrheit zu kennen.

  • 4:10

    Verzerrte Trainingsdaten führen zu voreingenommenen KI-Ergebnissen, die gesellschaftliche Vorurteile verstärken oder historische Fakten verzerren können.

  • 9:40

    Die DSGVO gilt auch für KI-Nutzung; gib niemals personenbezogene Daten oder Geschäftsgeheimnisse in externe KI-Systeme ein, es sei denn, sie sind sicher gehostet oder anonymisiert.

  • 15:10

    Ein Mensch sollte immer in der Prozesskette sein, um KI-Ergebnisse zu überprüfen und bei Bedarf zu stoppen, besonders bei kritischen Anwendungen.

  • 16:47

    Setze auf weniger, aber dafür hochwertige und sorgfältig überprüfte KI-Anwendungen, um menschliche Zeit zu sparen und bessere Ergebnisse zu gewährleisten.

Zitate

  • „Die KI weiß eigentlich gar nichts. Wir haben ja in der vorigen Episode auch schon mal gesagt, dass es so ein bisschen stochastischer Papagei, wenn man es böse ausdrücken will, ist, das eigentlich immer nur das nächste Wort, nächsten Token vorher sagt und die KI ist einfach darauf trainiert, dass sie Sinn ergibt oder zumindest scheinbar Sinn ergibt."

  • „Wenn ich eingebe, mal mir mal ein Bild von einem Arzt oder auch jetzt im Englischen gibt's ja gibt's ja kein kein Geschächt of Doctor, es kann ja eigentlich ein weiblicher oder ein männlicher Arzt sein, bekommt man fast ausschließlich Männer zurück und das liegt in den Trainingsdaten."

  • „Datenschutz, super trockenes Thema, super wichtiges Thema, aber auch und man muss einfach wissen oder drauf achten, was man für Daten in die KI eingibt. Und zwar gilt die DSGVO auch bei der Nutzung von KI."

  • „Wichtig ist auch, dass Transparenz geschafft wird, geschaffen wird, ja, egal, ob jetzt Bilder mit KI generiert werden, oder Texte, ich mir fällt das immer wieder auf bei LinkedIn. Ich habe da das Gefühl, dass irgendwie zweiel aller LinkedIn Posts mittlerweile irgendwie von der KI generiert sind."

  • „Der Datenschutz darf nicht das Argument sein, KI nicht zu nutzen. Genau. Genau. Das ja ganz gerne in Deutschland gemacht. So., nee, Datenschutz sag nein. Ja, genau. Und da muss man glaube ich auch als als Unternehmer, als Person, die in Marketing Team oder irgendwo arbeitet und eigentlich einen massiven Mehrwert von der KI hat, auch mal dagegen treten und auch mal ein bisschen pushen."

Häufige Fragen

Warum erfindet KI manchmal Fakten oder Quellen, obwohl sie überzeugend klingt?

KI "halluziniert", weil sie darauf trainiert ist, scheinbar sinnvolle Antworten zu generieren, nicht unbedingt die Wahrheit zu kennen. Sie sagt lediglich das nächste plausibelste Wort voraus und kann dabei Fakten, Quellen oder Zusammenhänge erfinden, die überzeugend wirken, aber nicht real sind.

Wie entstehen Vorurteile oder "Bias" in KI-Modellen?

Bias entsteht, wenn die Trainingsdaten der KI bereits verzerrt sind und die Realität nicht 100% abbilden. Wenn die KI beispielsweise nur Bilder von männlichen Ärzten sieht, wird sie tendenziell auch nur männliche Ärzte generieren, was gesellschaftliche Vorurteile verstärken kann.

Welche Datenschutzregeln gelten beim Einsatz von KI-Systemen?

Die DSGVO gilt auch für die Nutzung von KI. Grundsätzlich sollten keine Kundendaten oder Geschäftsgeheimnisse in externe KI-Systeme eingegeben werden, die nicht auf eigenen, sicheren Servern gehostet sind. Öffentlich verfügbare Daten können verwendet werden, aber sensible Informationen müssen geschützt bleiben.

Kann ich Kundendaten in KI-Systeme eingeben, wenn ich sie anonymisiere?

Ja und nein. Eine Anonymisierung ist nur dann zulässig, wenn die Daten so aufbereitet sind, dass eine Rückverfolgung zur Person absolut unmöglich ist. Eine bloße Pseudonymisierung, bei der die Person indirekt identifizierbar bleibt, ist nicht ausreichend und verstößt gegen den Datenschutz.

Warum ist "Human in the Loop" wichtig für den verantwortungsvollen Umgang mit KI?

"Human in the Loop" bedeutet, dass immer ein Mensch in der Prozesskette involviert ist, um die Ergebnisse der KI zu überprüfen und bei Bedarf einzugreifen. Dies ist entscheidend, um Fehler, Halluzinationen oder Bias zu erkennen und zu korrigieren, bevor sie Schaden anrichten.

Wie sollte man mit KI-generierten Inhalten wie Bildern oder Texten umgehen?

KI-generierte Inhalte sollten transparent gekennzeichnet werden, um Vertrauen und Glaubwürdigkeit zu gewährleisten. Beispiele wie Adobe Firefly, das Bilder mit Icons versieht, oder LinkedIn, das KI-Videos markiert, zeigen, wie Transparenz geschaffen werden kann.

Anleitungen

So schützt du Daten bei der KI-Nutzung

Die DSGVO gilt auch für KI-Anwendungen. Du musst sicherstellen, dass keine personenbezogenen Daten oder Geschäftsgeheimnisse in externe KI-Systeme gelangen, es sei denn, sie sind auf eigenen Servern gehostet oder nachweislich anonymisiert.

  1. 01

    Beachte die DSGVO

    Verstehe, dass die Datenschutz-Grundverordnung auch für den Einsatz von KI gilt und du die Regeln einhalten musst.

    15:31

  2. 02

    Vermeide externe Systeme für sensible Daten

    Gib niemals Kundendaten oder Geschäftsgeheimnisse in externe, in den USA gehostete KI-Systeme wie ChatGPT ein.

    17:27

  3. 03

    Nutze On-Premise-Lösungen

    Wenn du sensible Daten verarbeiten musst, setze auf Open-Source-Modelle auf eigenen Servern oder europäischen Cloud-Instanzen.

    16:49

  4. 04

    Verwende öffentliche Daten

    Daten, die bereits öffentlich verfügbar sind, kannst du in KI-Systeme eingeben, solange sie keine Geheimnisse enthalten.

    17:38

Weitere Fragen

Darf ich Kundendaten oder Geschäftsgeheimnisse in ChatGPT eingeben?

Nein. Solange du externe, beispielsweise in den USA gehostete KI-Dienste nutzt, greift die DSGVO. Du darfst dort niemals personenbezogene Daten oder interne Geschäftsgeheimnisse eingeben, es sei denn, du nutzt eigene, sichere Server.

„Da sollte ich grundsätzlich nie Kundendaten reingeben, da sollte ich nie irgendwelche Geschäftsgeheimnisse reingeben" · 10:58
Warum erfindet die KI manchmal Fakten oder Quellen?

KI-Modelle wissen eigentlich gar nichts, sondern sagen nur das nächste Wort voraus. Sie sind darauf trainiert, plausibel zu klingen und scheinbar Sinn zu ergeben, weshalb sie als "gute Bullshitter" auch falsche Zusammenhänge erfinden können.

„Die KI weiß eigentlich gar nichts. Wir haben ja in der vorigen Episode auch schon mal gesagt, dass es so ein bisschen stochastischer Papagei, wenn man es böse ausdrücken will, ist, das eigentlich immer nur das nächste Wort, nächsten Token vorher sagt und die KI ist einfach darauf trainiert, dass sie Sinn ergibt oder zumindest scheinbar Sinn ergibt." · 2:06
Wie entstehen Vorurteile oder Biases in KI-Modellen?

KI wird mit historischen Daten trainiert. Wenn diese Trainingsdaten die Realität nicht vollständig abdecken oder bereits Vorurteile enthalten, übernimmt das Modell diese Verzerrungen und gibt sie in den Ergebnissen wieder.

„Kann natürlich die KI nur darauf trainiert werden auf Dingen, die sie bekommen hat zum Trainieren auf den Daten aus der Vergangenheit. Und wenn diese Daten schon, ich sag mal, die Realität nicht 100% abdecken, sondern verzerrt sind, dann kann natürlich das, was rauskommt nach dem Training auch noch verzerrt sein." · 4:09
Reicht es aus, Namen durch Platzhalter zu ersetzen, um Daten datenschutzkonform in die KI zu geben?

Nein, das ist oft nur eine Pseudonymisierung. Wenn sich eine Person beispielsweise durch eine einzigartige Bestellhistorie weiterhin identifizieren lässt, ist die Anonymisierung unzureichend und die Daten dürfen nicht in die KI eingegeben werden.

„Beispiel, wenn ich eine Liste aller Bestellung habe meines Unternehmens und dann einfach die Personennamen austausche mit irgendwie A B C, kann ich ja trotzdem da die Bestellhistorie so uniek ist im Nachhinein nachvollziehen, welche Person es war, dann geht es natürlich genau das n um Pseudonym, dann geht es nicht." · 12:13
Wie stelle ich sicher, dass KI-generierte Ergebnisse verlässlich sind?

Du musst immer einen "Human in the Loop" etablieren. Es braucht zwingend einen Menschen in der Prozesskette, der die Fakten überprüft, die Qualität sichert und fehlerhafte Ausgaben im Zweifel stoppen kann.

„Wichtig ist auch, dass wir jetzt noch ein weiteres weiterer Eigliismus, Human in the Loop, dass immer irgendwo noch ein Mensch irgendwo in der Prozesskette ist, der sich das Ganze anschaut und im Zweifel auch stoppen kann." · 15:20

Diese Folge wird zitiert in

In anderen Folgen erwähnt

Transkript

// Vollständiges Transkript

Komplettes Transkript dieser Folge öffnen →