// Transkript
#27: EU AI Act: Was zählt heute schon? Strafen, Risiken & Pflichten für Unternehmen
Vollständiges Transkript dieser Episode des Co-Intelligence Podcasts. 8.690 Wörter. · Auf YouTube ansehen ↗
0:00 Intro
0:00 Jetzt gibt's aktuell ein League von diesem neuen Gesetz. Das hört sich im Prinzip so an wie das alte Gesetz von der Ampelregierung noch. Es ist leider auch wieder extrem kompliziert. Wir
0:10 haben nicht eine Aufsichtsbehörde über KI in Deutschland, sondern ich glaube me letzter Stand waren 16 oder sowas.
0:21 Begrüßung & Vorstellung des Themas: Die EU KI-Verordnung
0:21 Hallo und herzlich willkommen zu Episode 27 vom Cointelligence Podcast mit euren Hosts Benny Wüstenhagen und Moritz Heininger. Ach, ist ja gar nicht der Benny heute. Wir haben nämlich heute ein
0:35 Special Guest und zwar den Tobias Weigernd. Das liegt daran, dass wir in den nächsten drei Episoden uns ein paar relevante, wichtige rechtliche Themen anschauen. Heute geht es um den EU AI
0:47 Act oder um die KI Verordnung, wenn man es Deutsch aussprechen möchte. Das nächste Mal schauen wir uns dann ein ganz besonderen Teil dieser KI Verordnung an und zwar den Artikel 4, wo
0:56 es um eine sogenannte Kompetenzpflicht geht, die deutsche oder europäische Unternehmen trifft und auch heute schon trifft. Und in der darauffolgenden Episode geht es dann um das ganze Thema
1:07 Urheberrecht. Aber da wir hier ein neues Gesicht haben, würde ich sagen, Tobi, stell dich doch einfach mal kurz vor. Sehr gerne. Erstmal vielen Dank für die Einladung, dass ich hier sein darf und
1:11 Vorstellung des Gasts: Tobias Weigand
1:19 ich bin Rechtsanwalt und Fachanwalt für gewerblichen Rechtsschutz und berate dementsprechend Unternehmen, Startups und auch größere Unternehmen im Bereich IP und IT. Natürlich in dem Fall auch im
1:31 KI Bereich. Ein super interessantes Thema, was ich da neu aufgetan hat. So wie sich ja die Technologie im Bereich KI weiterentwickelt. So entwickelt sich das Recht da auch weiter. Es gibt sehr
1:44 große Fragezeichen und ähm es gibt aber auch schon ein paar Antworten oder ich sag mal Pfeile in Richtung, wie die Antworten aussehen könnten. Und glaube, das schauen wir uns heute mal am
1:56 Beispiel vom AI Act an. Genau. Und die EU, wie jeder weiß, ist Regulierungsweltmeister. Und ist auch immer spannend zu sehen, wie die EU quasi weltweit Präzidentnissen schaffen möchte und zwar
2:09 nicht dadurch, dass wir irgendwie besonders technologisch gut sind oder ganz besondere Anwendung entwickeln, sondern indem wir die perfekte Regulierung haben und die ja dann den
2:17 europäischen Markt zum Florieren bringen soll. Ähm, aber lass uns doch mal reingehen in diesen EUAI Act. Was ist das eigentlich? Was ist das? Was habt ihr für ein Ziel oder für Ziele und äh
2:24 Was ist der EU AI Act und was sind seine Ziele?
2:30 ja, warum gibt's das überhaupt? Ja, der EUI Act ist im Prinzip ein Prestigeprojekt der EU, weil man das erste Land oder Territorium sein wollte, was Regeln aufstellt, wie mit KI
2:41 umzugehen ist. Das hat den Hintergrund, dass man vor allem äh die Bürger schützen möchte vor Szenarien, dass die KI irgendwann mal böse wird, uns versklavt und ähm wir dann wenig Spaß
2:54 noch an der KI hätten sozusagen. Ähm ein anderer Aspekt ist aber auch, dass man Innovation schaffen möchte, denn die EU weiß, dass wir in Europa nicht die finanziellen Kapazitäten
3:07 haben, die man in China oder in den USA hat. Und deswegen muss man oder versucht die EU über Regulatorien Innovation in äh in die EU in die Unternehmen in der EU zu bringen. Ähm
3:24 ein Auswuchs dessen ist Artikel 4 KI Verordnung, die du eben schon angesprochen hast. Das schauen wir uns dann aber in der nächsten Folge konkret an. Heute liegt der Schwerpunkt, würde
3:34 ich sagen, erstmal auf ähm den Schutz der Grundrechten und die Sicherheit, wie man das gewährleisten will, was das eigentlich bedeutet und welche Voraussetzungen die EU mit dem AIG da an
3:46 die Hand gibt. Genau. Artikel 4 KI Verordnung, nächste Folge. Da geht's ein bisschen darum, dass ihr schon mal wisst, was das überhaupt für ein Thema ist. Äh man kann ja Menschen und Unternehmen auf
3:58 verschiedene Art und Weise motivieren, sich mit dem Thema auseinanderzusetzen. Wir in dem Podcast versuchen, euch quasi zu zeigen, was ihr mit KI für Superpers bekommt und euch sozusagen über die
4:09 Fähigkeiten und äh ja Möglichkeiten zu motivieren. Die EU macht das dann ein bisschen anders. Ihr sagt so ein bisschen, guck mal, ihr müsst euren Leuten beibringen, wie sie mit KI
4:18 richtig umgehen, weil wenn sie es falsch machen, dann gibt's Strafen und Ärger. Aber die Details, wie gesagt, kommen dann in der nächsten Episode. Jetzt tauchen wir ein bisschen tiefer rein in
4:28 den EUA. Und zwar gibt's da ja so eine Risikopyramide oder ein risikobasierten Ansatz. Was heißt es denn erstmal High Level, bevor wir in die einzelnen Risikostufen einsteigen?
4:37 Der risikobasierte Ansatz: Die vier Risikostufen der KI-Verordnung
4:42 Ja, High Level bedeutet das einfach nur, dass man sich die KI Systeme anschaut, wie gefährlich sind die möglicherweise für den Bürger? unsere Gesellschaft, die Demokratie und je gefährlicher das ist,
4:56 umso höhere Voraussetzungen sind zu erfüllen, damit ich sie verwenden darf. Es gibt dann, das steht ganz oben in der Pyramide, die ähm sogenannten inakzeptablen Risiken. Das sind also KI
5:09 Systeme, wo die EU sagt, na, das ist so ein hohes Risiko, das können wir auf keinen Fall eingehen. Äh, die werden strengstens verboten. Das heißt, unter keinen Umständen dürfen die benutzt
5:20 werden in Europa. Ähm, darunter gibt's dann im Prinzip das Herzstück der KI Verordnung. Das ist die Hochrisiko KI Kategorie. Äh werden wir uns gleich noch angucken, was das
5:33 bedeutet, aber das sind schon mal so viel äh vorab. Das sind KI Systeme, wo man schon ein hohes Risiko sieht, dass es dazu zu Schäden kommen kann, aber man muss die Risiken eingehen, weil
5:48 ansonsten würde würden verschiedene Produkte nicht mehr funktionieren und so weiter. Ähm deswegen müssen die aber extrem hohe regulatorische Hürden einhalten, damit es eben nicht zu
5:57 Schäden kommt. Und dann gibt's noch begrenztes und Prinzip minimales Risiko. Ähm da gehen wir gleich noch näher drauf ein, was das bedeutet. Also, ich sag mal, die EU im Vergleich zu Amerikanern
6:10 haben wie immer, wie wir halt so sind, auch wir Deutschen, nicht den den Opportunity based Ansatz, um zu überlegen, wie können wir dann bestmöglich unsere Industrie
6:19 unterstützen, dass wir Meldenmarktführer werden und irgendwie dieses KI Rennen gewinnen, sondern das ist eher so ein bisschen ein Risikominimierungsansatz, den die EU da wählt und
6:31 ja, daher gibt's diese diese Risikopyramide. Genau. Du hast äh die verschiedenen oder die vier Teile der Pyramide angesprochen. Ähm lass uns doch mal mit der obersten
6:35 Inakzeptables Risiko: Was die EU komplett verbietet (z.B. Social Scoring)
6:42 Spitze anfangen, mit dem inakzeptablen Risiko. Was ist denn für die EU äh inakzeptabel? Ja, da gibt's einen bestimmten Katalog, den die EU aufgeschrieben hat, sozusagen, wo drin steht, was für KI
6:57 Systeme inakzeptabel sind. Viele davon klingen heute noch sehr nach Zukunftsmusik. So ein bisschen geht um ja KI Systeme, die manipulieren können, KI Systeme, die z.B. Social Scoring
7:10 einführen können, also, dass äh der Staat beispielsweise ein KI System benutzt, um das Verhalten seiner Bürger zu messen. Na ja, wenn wir China schauen, ganz so viel Zukunftmusik ist es tatsächlich
7:22 nicht, ne? Weil genau das machen ja eigentlich die Chinesen schon. Ja, wenn wir irgendwie Black Mirror ähm für die Hörer Hörerinnen, die Black Mirror kennen als Serie, da gibt's eine Folge
7:32 dazu und das ist schon irgendwie ein crazy äh Szenario, für was man natürlich KI verwenden kann. Und da sagt die EU und da muss ich vielleicht mal den EU doch mal loben, weil häufiger ähm ja äh
7:45 bin ich kein großer Fan davon oder äußere mich auch mal negativ dazu. Ich glaube, da können wir uns alle drauf einigen, dass es eine Zukunft ist, die wir nicht haben möchten und da würden
7:54 wir, glaube ich, alle unterschreiben, dass äh dieses diese Spitze oder diese diese Möglichkeit der KI Verwendung auch wirklich inakzeptabel sein sollte. Genau. Also das würde ich
8:05 unterstreichen. Es gibt viele KI Systeme, die da drin stehen, wo ich sagen würde, okay, das darf nicht in Europa, in Deutschland eingeführt werden. Das macht durchaus Sinn.
8:15 Ähm, das Problem dabei ist nur, dass man natürlich das auch möglichst konkret formulieren muss, damit die Ränder, also wo weil es eine nicht saubere Definition davon ist, dass
8:28 dann vielleicht KI Systeme drunter fallen, die eigentlich was ganz anderes wollen, aber weil es einfach zu schwammig formuliert ist, dann trotzdem da drunter fällt. Ganz gutes Beispiel
8:36 ist, es gibt einen Tatbestand, da geht es um unterbewusste Beeinflussung. Mhm. Ähm äh was ich da als Beispiel immer bringe, ich weiß nicht, wer sich dran erinnern kann. Es gibt eine
8:47 Simpsons Folge, da hat Bart ein eine Boyband gegründet, die einen Song performt, der, wenn man ihn rückwärts abspielt, Join the Navy heißt und dazu geführt hat, dass in dem in der Folge
8:59 eben werpflichtige Männer oder Männer im werfähigen Alter der Navy gejoint sind. Mm. So, die wurden im Prinzip manipuliert, das nehm, das heißt, wenn eine KI so in den
9:10 Bereich gehen würde, dann wäre es verboten. Mhm. Klar, macht Sinn irgendwie. Das ist Manipulation, das wollen wir nicht. Dadurch, dass das aber sehr schwammig formuliert ist, bestand zumindest am
9:21 Anfang große Gefahr, dass auch eine ganz normale Individualisierung eines Produktes da drunter fällt. Weil wenn man sich vorstellt, dass ich einen Webshop erstelle, der dann ähm
9:36 je nachdem, was für ein Nutzerprofil hinterlegt ist, den Webshop irgendwie verändert, so dass ich eher angesprochen werde von diesem Webshop, dann könnte unter Umständen das auch unter dieses
9:48 Verbot fallen, ne? Da hat die EU schon bisschen zurückgerudert und hat gesagt, nee, ganz so ganz so wild ist es nicht, aber so die richtige Grenze hat man da noch nicht gefunden, ne? Und wir
10:00 sprechen bei dem Verbot von ähm von unbegrenzt äh von einem zu hohen Risiko. Ähm sprechen wir von bis zu 35 Millionen Euro Schaden. Mhm. Den ein Unternehmen zahlen müsste, wenn
10:12 es die KI einsetzt. Das heißt, es lohnt sich schon irgendwie trennscharfe Grenzen einzuziehen, ne? Wie ist es denn eigentlich? Es ist ich, wenn ich jetzt so ein TikTok Algorithmus
10:23 habe, ja, und ich meine, die Chinesen versuchen ja darüber auch schon irgendwie europäische Werte und Einstellungen und so weiter zu beeinflussen, ob Elon Mast das auf X macht
10:35 um quasi die deutsche Politik zu beeinflussen, ja, sieht man ja auch irgendwie immer wieder ähm wenn da keine KI dahinter liegt, weil halt einfach ein Algorithmus, der irgendwelche Sachen
10:44 ausspielt ähm sozusagen nicht beeinflussen soll, ist das irgendwo anders. das im EU-Gesetz oder im nationalen Gesetz geregelt oder könnte ich das quasi einfach umgehen,
10:55 wenn ich das wirklich vorhabe, indem ich halt sage, ja gut, jetzt nutze ich halt hier keine KI für, aber beeinflusse dich trotzdem. Das ist ganz interessant. Ich habe ja gerade schon über schwammige
11:04 Formulierung gesprochen. Die Definition von KI ist so denkbar breit im AI Act angelegt, dass man heute eigentlich davon ausgehen muss, dass fast jedes Software da drunter fällt.
11:15 Okay? Das heißt, man könnte durchaus sagen, ein Algorithmus von TikTok, der dazu führt, dass es mehr Wähler in die eine oder andere Richtung gibt, möglicherweise schon manipul manipulierender KI.
11:29 Mhm. G, wenn er auf Machine Learning beruht, was ja wieder ein Teil und Kategorie von KI sozusagen ist, dann ja, das ist durchaus interessanter Case. Habe ich noch nie drüber gelesen, dass
11:41 das geprüft wird oder ähnliches, aber könnte ich mir durchaus vorstellen, dass das in Zukunft relevant werden könnte. Spannend. Ähm, jetzt haben wir drüber gesprochen, manipulierende KI. Wir haben
11:52 über so ein Social Scoring Thema gesprochen. Gibt's in der ja absolut verbotenen Kategorie, die Spitze der Pyramide noch irgendwelche anderen Themen oder? Es gibt relativ viele Themen. Ähm vieles
12:04 davon spricht tatsächlich auch den Staat an. Fernüberwachung und solche Dinge ähm sind problematisch. Das sind oftmals sehr spezifische Fälle, die man sich dann im Einzelfall mal angucken müsste,
12:19 aber für die allermeisten Unternehmen ist das jetzt aktuell noch nicht relevant. Wie ist das mit so ähm Überwachungskamerasystem, die permanent die Bevölkerung auch
12:31 natürlich das mit Ziel eigentlich in Sicherheit herzustellen überwacht, Bilder scannt und äh Prof so ein Profiling irgendwie macht und schaut? keine Ahnung, vielleicht Straftaten
12:42 vorher zu sagen, ist es was unter die Kategorie fällt oder ist es dann eher bei Hochrisiko, also eine Stufe niedriger? Ähm, das ist ja, das ist müsste man sich
12:54 auch im Einzelfall angucken, was das für eine KI, wer macht das, ja, was wofür wird das verwendet, dann kann das unter Umständen auch in die Hochrisikokategorie fallen. Wenn man
13:03 damit z.B. Straftaten aufdecken möchte, ähm dann ist das durchaus denkbar, dass das erlaubt ist, aber in Hochrisik Kategorie ist aber auch durchaus denkbar, dass das schon abdriftet in den
13:14 Bereich, der verboten ist. Ähm gerade wenn es dann in Richtung Social Scoring und ähm ansatzlose Überwachung sozusagen geht, ne? Du bist selbständig und willst mit KI und digitalen Tools nicht den
13:27 Anschluss verlieren, dann schau mal bei The Key Academy vorbei. Unsere Online Lehrgänge mit EAK Zertifikat sind verständlich, flexibel und bringen dich wirklich weiter, auch ohne Vorwissen.
13:37 Keypunacademy lernen, dass zu deinem Alltag passt. Das heißt, wenn ich dann, also wenn ich eigentlich verstehe, es gibt irgendwie die europäische Vorgabe, dann muss es
13:47 natürlich in nationales Recht überführt werden. Dann werden die Länder wahrscheinlich, wenn es schon so ein bisschen schwammig definiert ist, das alle irgendwie vielleicht irgendwie anders
13:56 interpretieren und definieren, so dass vielleicht manche Länder sagen, okay, wir machen irgendwie vielleicht eine Überwachung, um Straftaten vorher zu sagen und andere sagen, das geht bei uns
14:04 gar nicht oder? Nee, so wird das nicht aussehen. Ähm, also die die Verordnung wird schon so umgesetzt in den einzelnen Ländern. Also da haben die haben die keinen wirklichen
14:14 Spielraum. Es gibt so ein paar Sachen, die Länder spezifisch umgesetzt werden. Gerade was ähm die über äh die Behörden, die das Ganze überwachen angeht. Wer soll das in den einzelnen Ländern
14:25 machen, wie sehen die Strafen aus und so? Da haben haben die Länder Spielraum, aber in dem Bereich ja nicht. Aber jetzt was die use mal Usas angeht, die EU gibt jetzt keine Liste an 1000 Uscases vor
14:37 und sagt der für jede einzelne Kategorie und das ist dann komplett klar ist für die Länder gerade bei irgendwie so ein Überwachungscase, ne? Da könnt ihr jedes Land argumentieren, warum es vielleicht
14:48 also so bisschen wie stark wird da wirklich was vorgegeben und wie stark liegt das dann quasi noch in der Interpretation der einzelnen UScases bei den Ländern? Also das ist natürlich
14:59 ja, also ich ich glaube, ich würde das gar nicht mal auf Länderebene so beschränken, sondern die Interpretation liegt bei jedem Juristen im Prinzip, ne? Wie bei jedem Gesetz, was nicht so ganz
15:09 klar geregelt ist. Ähm das muss ja interpretiert werden von den Juristen und da kennt man ja Sprichwort irgendwie drei Juristen, vier Meinungen, ne? Ähm, das heißt, es ist nicht so ganz
15:21 vorhersehbar. Ähm, klar, es gibt Fälle, die sind crystal clear, da kann man sagen, okay, das ist auf jeden Fall verboten. Ja, aber ähm je nachdem, wie gut die Juristen auch sind, findet man immer
15:33 irgendein Schlupfloch. Okay, also liegt's dann irgendwo, könnte es trotzdem abweichende Regeln gewissen Art Weisen in den einzelnen Ländern geben, was irgendwie dann geht oder was
15:44 nicht geht oder umgesetzt wird, vielleicht auch den Staaten an sich, nicht mal unbedingt nur für die Unternehmen, sondern vielleicht auch was die Staaten an am Ende irgendwie mal.
15:51 Ja, durchaus, weil ja auch unterschiedliche Aufsichtsbehörden das sich anschauen, ne? In Deutschland guckt sich das wahrscheinlich eine andere Behörde an als in Frankreich und dann
15:59 ist natürlich klar, dass die auch unterschiedlich möglicherweise ähm entscheiden. Wir haben nämlich noch einen neuen Gast für äh unsere Hör komm mal her. Wir haben nämlich Unterstützung heute von
16:11 unserem ja unser Rechtsexpertin Nala. Also nicht wundern, wenn ihr ab und zu im Bild ein ein kleiner kleiner rund rumläuft. Na, ne? Komm mal her. Komm mal her. Komm mal her. Schüchtern heute.
16:25 Schüchtern. So, hier ist hier ist unsere Rechtsexpertin Nala, unser kleiner Podcast Hund, der heute das erste Mal auch zu Gast ist und ja, wenn Tobi irgendwas falsch sagt, dann wird er hier
16:40 umgehend korrigiert. Hab gedacht, bei neuen Gästen sind wir ein bisschen vorsichtig, da muss das Qualitätmanagement stimmen und deswegen haben wir bisschen Support heute.
16:50 So, ich würde sagen, ah, noch ein Punkt, du hast gerade angesprochen mit den Überwachungsbehörden, die es am Ende irgendwie alles kontrollieren sollen. Wie ist es denn eigentlich in
17:00 Deutschland? Jetzt gibt's i Act. Mein Verständnis ist, der wird ins deutsche Recht umgesetzt. Wurd schon umgesetzt? Ist es noch alles im Prozess? Wann wird das umgesetzt? Es gilt ja schon für
17:13 deutsche Unternehmen, aber ist es schon irgendwie in der deutschen Gesetzgebung? Und was passiert dann? Wer kontrolliert das dann? ähm im Nachgang und steht es überhaupt schon fest?
17:21 Ja, also dadurch, dass eine Verordnung ist, ähm gilt es automatisch sozusagen. Es muss eigentlich nicht mehr umgesetzt werden in deutsches Recht. Es gibt aber, wie ich eben schon gesagt habe,
17:32 Teilbereiche, die müssen auch in deutsches Recht überführt werden, insbesondere was die Frage der Aufsicht angeht und so. Dazu gibt's allerdings auch schon ein Gesetzesentwurf.
17:41 Der sollte auch schon längst fertig sein, ist aber etwas schwierig, weil wir hatten ja einen Regierungswechsel und dann wollte die alte Regierung nicht mehr weitermachen mit dem
17:49 Gesetzesentwurf und die neue Regierung hat sich erst gesagt, schauen wir uns erstmal an, was die anderen gemacht haben und das dauert alles. Jetzt gibt's aktuell ein League von diesem neuen
17:59 Gesetz. Ähm, das hört sich im Prinzip so an wie das alte Gesetz von der Ampelregierung noch. Ähm, es ist leider äh auch wieder extrem kompliziert, denn wir haben nicht eine
18:12 Aufsichtsbehörde über KI in Deutschland, sondern ich glaube, mein letzter Stand waren 16 oder sowas. Ähm, es geht vor allem darum, dass es eine allgemeine Aufsichtsbehörde gibt. Das ist dann die
18:24 Bundesnetzagentur, die das machen wird. Wenn man jetzt aber z.B. in den Finanzbereich schaut, dann wird das die Barfin machen. Wenn jetzt irgendein ähm ein Bereich mit Daten Datenschutz
18:36 relevant ist, dann wird das der Bundesdatenschutzbeauftragte machen oder die Landesdatenschutzbeauftragten, also der jeweiligen Länder, die haben auch noch eigene Behörden und dann
18:46 gibt's auch noch eigene Kategorien für Spiele, für Waffen und also es ist komplett komplett kompliziert und ich will nicht wissen, was passiert, wenn die sich untereinander abstimmen müssen
18:59 in einer Frage. Das dauert ewig. Okay, das heißt, es gibt die EU-Verordnung, die zählt automatisch sofort, obwohl es noch keine Umsetzung im Deutschen Recht gibt. Es gibt aber auch noch kleine klaren
19:15 Vorgaben für die Aufsichtsbehörden, wer für was zuständig ist oder sein wird. Und äh irgendwo als Unternehmen muss ich ja wissen, was ich tun muss und wer mich überwacht. Aber ich meine, das Beste,
19:28 was ich heute machen kann, ist eben diesen Podcast zu hören, um zu verstehen, was der EU eigentlich ist, aber dann so ein bisschen quasi das EU-Recht zu interpretieren und
19:37 bestmöglich sozusagen umzusetzen, um auf der sicheren Seite zu sein. Und die ja weiteren Sachen werden sich jetzt über die nächste Zeit so ein bisschen äh geben und zeigen und so weiter. Das
19:49 heißt, es wird über die Zeit wahrscheinlich immer strenger, weil es immer mehr Kontrollen gibt und Verantwortlichkeiten und klare Regelungen. Jetzt ist es noch so ein
19:57 bisschen, es sind nicht white west, weil es ja schon eine Verordnung gibt. Ja, also jetzt muss ich eigentlich die den Grundstein legen, mich schon mal irgendwie richtig aufsetzen, mir genau
20:06 überlegen, wie ich diese Sachen angehe und im Zweifel werden dann ein paar Sachen in Zukunft noch ein bisschen mehr konkretisiert oder klarer für mich, dass ich ein bisschen anpassen kann. Das
20:14 heißt aber nicht nur, weil es kein deutsches Recht gibt oder es noch gar keine Aufsichtsbehörde gibt, die vielleicht für mich zuständig ist, dass ich machen kann, was ich will. Genau.
20:21 Das Problem ist ja auch, wenn ich jetzt ein KI Tool einsetze und mich jetzt nicht darum kümmere, ob das mit dem AI Actonform ist und das dann 5 Jahre lang nutze, das
20:31 dann wieder abzustellen, weil mir dann auffällt, ich darf es ja gar nicht nutzen, ist halt irgendwie blöd, ne? Das heißt, vorher vielleicht einmal grob schauen, ist das denn überhaupt okay, dass ich
20:40 das einsetze? Und dann ähm hat man ist man erstmal auf der sichereren Seite, sage ich mal, muss aber natürlich am Ball bleiben, um zu gucken, was sich da in Zukunft ergibt.
20:51 Das Interessante ist ja auch ähm das ist das gleiche wie bei dem bei der Hochrisikokategorie. Das kann natürlich geändert werden, diese Tatbestände, die da drin steht, ne?
21:01 Gerade in dem Hochrisikobereich haben wir vieles in Anlagen geregelt. Also, das steht dann nicht mal im Gesetz, sondern ist einfach nur alles, was in Anlage XY steht, ist verboten. Mhm.
21:11 Oder alles, was in Anlage XY steht, ist Hochrisikokategorie. So, das bedeutet, das gibt dem Actibilität. Kommt jetzt irgendein neues KI Modell raus, was man nicht vorab sehen konnte, so
21:25 ja ständig passiert neue Fähigkeiten der KI. Ja, genau. So, dann kann man das schnell relativ schnell wieder implementieren. Mhm. Das heißt aber auch, es könnte sein, dass jetzt in einem halben Jahr
21:36 ganz andere Dinge Hochrisikokategorie sind als jetzt. Das heiß, ich kann mich nicht darauf verlassen, dass was ich jetzt mir anschaue in 6 Monaten noch Geld. Mhm. Das heißt, ich habe auch eine
21:46 gewisse Verantwortung als Unternehmen. Jetzt auch gerade, wenn wir wieder Richtung Kompetenzpflicht kommen, äh was die nächste Sendung ist, ich muss da schon irgendwie bisschen dran bleiben
21:55 und da immer mal wieder reinschauen und mich quasi weiterbilden und weiterentwickeln und das Gesetz quasi verstehen, äh um da auf der sicheren Seite zu sein. Ich kann nicht heute
22:04 einmal reinschauen und sagen: "Cool, und jetzt mache ich das für die nächsten paar Jahre so." Sondern muss mich sozusagen mit der Geschwindigkeit der KI auch weiterentwickeln, wie wir das ja
22:12 auch ohnehin immer propagieren, dass man sich unbedingt mit der Geschwindigkeit der KI weiterentwickeln muss, weil alles, was ich heute lerne, vielleicht in drei Monaten nicht mehr relevant ist
22:14 Hochrisiko-KI: Kritische Infrastruktur, HR und automatisierte Entscheidungen
22:22 oder weniger relevant ist. Und so ist es natürlich auch beim EUagt. Wir haben kurz noch gerade über das Hochrisiko gesprochen, sind aber glaube ich noch nicht äh ganz am Ende von der
22:33 Hochrisiko der zweiten Kategorie. Was steht denn da noch oder was ist denn noch Hochrisiko Stand heute? Das würde ich sagen ist auch macht durchaus Sinn, wie das da formuliert
22:45 ist. Das sind ähm insbesondere, wenn man das jetzt vereinfacht darstellt, zum einen Sektoren, wo hoher Schaden entstehen kann. Also denken an kritische Infrastruktur oder ähm im
22:57 Gesundheitswesen, wenn ich da eine KI einsetze und dann ist kann die manipuliert werden von außen, ist nicht sicher oder ja, kommt einfach zu falschen Ergebnissen und dann hat Berlin kein
23:10 Strom mehr. ähm dann ist natürlich ein extrem großer Schaden eingetreten und deswegen muss ich irgendwie mehr Anforderungen erfüllen, damit ich diese KI einsetzen darf, ne? Damit dieser
23:22 Schaden einfach gar nicht entsteht. Mhm. Das gleiche ist auch bei Produkten, wo großer Schaden entstehen kann. Bei selbstfahrenden Fahrzeugen, Flugzeugen, Herzschrittmachern z.B. Wenn jetzt eine
23:34 KI in ein Herzschrittmacher verbaut ist und die dann sich einfach überlegt, na ja, wäre vielleicht doch gut, wenn ich jetzt keinen Schock auslöse, ne? Dann haben wir ein großes Problem. Das heißt,
23:44 wir müssen sehr sicherstellen, dass da keine Fehler passieren. Mhm. Und diesen Ansatz gehe ich auch mit, ne? Das macht total Sinn irgendwie. Man kann sich dann natürlich aber
23:54 politisch darüber streiten, was eigentlich alles Hochrisiko sein soll. kritische Infrastruktur Fahrzeuge, dass die nicht äh ja gegen die Wand fahren, macht auch total Sinn. Ob das jetzt
24:05 unbedingt im HR Bereich, was nämlich auch unter Hochrisiko fällt, weil also fallen kann unter bestimmten Umständen, weil einfach sehr vielebezogene Daten verarbeitet werden und so weiter und so
24:16 fort. Ob das unbedingt in diese Hochrisikokategorie gehört, das würde ich sagen ist eine politische Entscheidung, die auch noch nicht zu Ende diskutiert ist. Und wie ist es im H Bereich? ist quasi
24:26 alles im HR Bereich kategorisch hocho. Gibt es gewisse Dinge, die hochrisiko sind. Beispielsweise ob eine Entscheidung getroffen wird, welche Person eingestellt wird oder nicht oder
24:39 wie kann ich mir das verstehen vorstellen? Also ich glaube der praktischste US Case ist sind so Art Filter. Das heißt ich kriege 100 Bewerbungen und dann filtert
24:48 die KI schon mal raus, was was ich wen ich einladen soll, wen nicht. M So und dann habe ich eine automatisierte Entscheidung für oder gegen jemanden getroffen. Mhm. Ähm
24:57 und das würde wahrscheinlich in dem Bereich Hochrisiko führen. Dürfte sie eine Bewertung, also dürfte sie nicht, also wenn sie nicht die Entscheidung selbst trifft, sondern sagt lieber
25:08 Ruiter oder liebe Ruterin, hier sind 100 CVs, ich habe jeden dieser CVs bewertet. Schau dir bitte meine Bewertung an und entscheide dann selbst, welche Personen in die nächste Runde kommen. Wenn der
25:20 Mensch die finale Entscheidung trifft sozusagen, wäre das dann oder ist es genau sowas, wo du sagst, das ist irgendwie so bisschen, man weiß es nicht so genau. Genau. Ich glaube, das wäre zu einfach
25:30 zu sagen, dann ist einfach raus, weil man dann könnte man es zu leicht umgehen. Also ich ich glaube, die Idee ist ja, dass man das also möglichst viel abdeckt und möglichst
25:40 potenzielle Risiken minimiert. Das heißt auch an den Rändern zum Fall, den du gerade dargestellt hast, auch an den Rändern wird wahrscheinlich eher drunter fallen, als dass es nicht drunter fällt.
25:51 Und da muss man super aufpassen, indem aber auch auf der anderen Seite muss man aufpassen, aber auf der anderen Seite auch glaube ich dann mal kritisch dagegentreten, ne? Also ich glaube
26:01 die KI sollte nie entscheiden, wer eingeladen wird oder nicht. Das gehe ichprozentig mit. Aber wenn ich der Head of Recruiting bin, was ist denn was ist denn heute der
26:10 Prozess? Heute gibt's Junior Recruiter oder Ruterin, die schaut sich die CVs an, die macht eine Bewertung, legt mir die vor. viele Unternehmen überhäuft mit Bewerbung, die können wahrscheinlich gar
26:22 nicht alle richtig irgendwie sinnvoll screenen und sagt mir dann, das sind meine Top 10 Bewerber so zehn, ich brauche nur fünf wahrscheinlich für Interviews und würde ich ja heute auch
26:32 schon quasi sagen, ja, okay, die anderen 90, wenn du mir gesagt hast, du hast dir angeschaut und ich vertraue dir als Mensch, ähm den ich schicke ich eine Absage, weil die zehn, die sind schon
26:42 top. Und jetzt macht diesen Job die KI, ne? Auch wenn ich dann am Ende final sagen muss, die lade ich nicht ein, ist das wirklich ein Problem? Also, ne, das ist muss man dann so ein bisschen,
26:54 also würde sowas genau definiert werden im Aja? Wahrscheinlich auch nicht oder das wieder natürlich nicht, wobei wir ja hier einfach nur im Hochrisiko. Nur ist gut, aber wir sind
27:05 im Hochrisikobereich. Das heißt, es ist ja nicht verboten. Es ist möglich. Es ist extrem viel administrativer Aufwand, äh den ich einhalten muss, aber es es geht okay,
27:17 ne? Es ist natürlich für Startups oder so deutlich schwieriger dann, weil sie einfach nicht die Manpower haben oder die finanziellen Möglichkeiten, um da irgendwie compliant zu sein, aber es
27:28 würde funktionieren wahrscheinlich. Ja, also beispielsweise da auch noch eine Idee, weil wir uns das jetzt auch gerade alles überlegt haben, ne? Wir kriegen auch ganz viele Bewerbungen und ein
27:39 Kriterium oder Bewerbungskriterium ist, dass du drei Videos schickst von jeweils eine Minute. In einem Video erzählst du kurz was über dich selbst, dein Background, eine Minute, warum irgendwie
27:50 KI für dich spannend ist und was du schon alles machst und dann warum du irgendwie unbedingt zu Snippky möchtest. So, 90% der Bewerber und Werber schicken diese Videos nicht, weil sie einfach
28:01 irgendwo die Stellenbeschreibung sehen und auf Apply klicken, ohne irgendwie einmal drüber nachgedacht zu haben. So, diese Leute und der Hauptgrund, warum wir das machen, ist natürlich kriegst du
28:10 von den Menschen gute guten Eindruck und die Videos schauen wir uns alle an. Aber die Leute, die nicht mal lesen, was wir gerne haben möchten, sozusagen, ne, und einfach auf Send klicken und dieses
28:20 Video nicht mitschicken, die bekommen wir sofort gefleckt. So und den Personen antworten wir nicht mal und ob der Prozess jetzt von der KI durchgeführt wird oder von dem Mensch, der sagt, die
28:32 Person hat quasi nicht Kriterien erfüllt, ist meiner Meinung nach und ich bin kein Rechtsexperte irgendwie ein legitimer Einsatz, weil die Person hat ganz gerade
28:42 die Kriterien nicht gefüllt und die KI hat einfach nur das halt verstanden und gelesen, ne? Und alle, die ein Video schicken, die schauen wir uns auch alle an, ne? Und ähm, aber ja, du sagst ja
28:51 auch, es ist nicht verboten. Man muss es wahrscheinlich klar dokumentieren, ähm um im Zweifel, wenn irgendeiner später ähm gibt ja gerade im H Bereich so viele Leute, die irgendwie klagen, ja, äh und
29:03 dann sagt, ich bin nicht reingekommen, weil die KI gesagt hat, ich äh ich kriege den Job nicht und werde nicht eingeladen, dann musst du wahrscheinlich für Gericht gut argumentieren können,
29:12 was dein Prozess war, ne? Und äh dann ist es wahrscheinlich die Frage, wie hart sind die Kriterien und wenn man halt glaube ich klar nachweisen kann, okay, du hast halt einfach ein
29:22 Grundkriterium nicht erfüllt, das ist, du hast dir die halbe Werbung geschickt, dann wird man den Case höchstwahrscheinlich gewinnen. Aber wenn man jetzt halt sagt, na ja, gut, die KI
29:30 hat halt alle irgendwie bewertet und ich habe mir dann nur zwei rausgesucht auf Basis der Info der KI und hat mir die ganzen anderen nie angeschaut, dann könnte es vielleicht potenziell kritisch
29:39 werden, ne? Genau. Ich bin mir auch nicht mal sicher, ob der Fall, den du geschildert hast, tatsächlich unter Hochrisiko fällt. Das müsste man sich noch mal angucken.
29:47 Ich glaube, wichtig zu verstehen ist, dass wenn man rauszoomt, geht es darum, dass automatisierte Entscheidungen nicht von der KI getroffen werden sollen, einfach so, sondern wenn das passiert,
29:57 dann äh müssen auf jeden Fall hohe Hürden genommen werden, so ne. Okay. Ähm, genau. Im HR Bereich, das wollte ich noch erzählen, da gibt's auch ähm einen ganz interessanten Aspekt, auf den
30:10 man vielleicht auch oder den man vielleicht im Hinterkopf Kopf haben sollte, ist nämlich die der AI Act unterscheidet bei den Hürden, die man einhalten muss, um die KI zu nutzen
30:20 zwischen Anbieter und Betreiber. Der Anbieter ist derjenige, der die KI entwickelt hat, Opi oder ähnliches, ne? müssen natürlich deutlich höhere Hürden einhalten als der Betreiber. Das sind
30:31 wir, die die KI nutzen. Das Problem ist nur, der AI Act sagt jetzt, gibt zwei Möglichkeiten, es gibt noch mehr, aber zwei sind die wichtigsten, wie der Betreiber, also wir zum Anbieter werden können.
30:44 Mhm. Das eine ist, ich biete die KI unter meiner Brand an. Mhm. Also, wenn ich jetzt die Weigernd legal GPT anbieten würde beispielsweise, könnte es sein, dass ich dann zum Anbieter werde.
30:59 Wenn das dann eine KI ist, die im HR Bereich operiert, dann habe ich eine Hochrisiko KI, wo ich der Anbieter bin. Mhm. Und ich muss die ganzen Regelungen erfüllen, die eigentlich Open AI
31:09 erfüllen müsste, was ich natürlich überhaupt nicht kann. Das heißt, sobald du ein Frontend baust, we eine Brand drauf steht, die dann mit einer API, mit Open AI connected ist sozusagen, obwohl
31:18 das Modell dahinter du nicht gebaut hast, bist du sozusagen dann auf einmal der der Anbieter. Wie wäre das und es ist wahrscheinlich auch nicht ganz klar, wir haben ja ganz viele Snipkey GPTS
31:32 Assistenten für verschiedene Aufgaben, ne? Also quasi meine virtuellen Kollegen und Kolleginnen. Das Ganze ist innerhalb von Chat GPT. Das GPT heißt aber irgendwie Snipkey,
31:44 keine Ahnung, E-Mail Assistent, Snipkey irgendwie Kalenderassistent, wie auch immer. Bin ich dann eigentlich auch schon Anbieter? Also das das sind zwei Punkte. Zum
31:53 einen, das ist natürlich alles nicht ausdiskutiert, ne? Ich bin der Meinung, das kann nicht so sein, weil dann würde das Ganze nicht funktionieren, weil man in der Regel
32:02 einfach diese Pflichten, die ich da habe, nicht einhalten kann. M gerade ähm da kommen wir wahrscheinlich gleich auch noch dazu. Ähm die großen LMs fallen nicht unter diese Pyramide,
32:14 sondern sind außerhalb. Da sprechen wir gleich noch drüber. Die haben auch andere Pflichten. Sind dann so Pflichten wie Offenlegung der Trainingsdaten. Das heißt, wenn das so sein würde und du
32:23 bist Anbieter, dann müsstest du bei der EU-Kommission die Trainingsdaten offenlegen, was ja gar nicht geht, weil du nichts trainiert hast. Die Idee dahinter ist einfach
32:34 produktungsrechtlich, mehr oder weniger. Wenn du ein Auto rausbringst und packst da deine Brand drauf und dann funktioniert der Motor nicht mehr, dann musst du da halt für haften.
32:46 So, so in die Richtung soll das gehen. Wenn du eine KI rausbringst und da steht deine Brand drauf, dann musst du halt dafür haften. Aber das funktioniert insgesamt nicht
32:54 so. Und ist es immer nur, wenn es den Endkunden egal, ob B2C oder B2B quasi betrifft, also wenn der meine Produkte nutzt, oder ist es angenommen, ich baue mir eine intern Lösung für meine
33:05 Kollegen und Kolleginnen und baue mir irgendwie ein Frontend, habe hinten dran N8N und die das dann wiederum mit API in verschiedene Modelle integriert ist. ähm beispielsweise irgendwie eine Contenta
33:15 Automatisierung, ja, die meine mein Team nutzt, um auf LinkedIn oder Social Media irgendwelche Post zu machen. So und jetzt dieses Produkt oder diese dieses Agentensystem, was ich gebaut habe, baut
33:29 irgendwie Mist. bin ich dann ein Anbieter, weil ich das Produkt mir selbst gebaut habe und verwendet habe oder bin ich der Betreiber, weil ich ja eigentlich nur die APIs von den äh
33:42 bekannten Anbietern nutze, ja, oder ist es auch wieder so? Das weiß man alles noch nicht, ne? Also das wird noch zu diskutieren sein, aber ich vermute, da wird's irgendwann heiß
33:52 her heiß hergehen, weil solche Cases irgendwann geklärt werden müssen, ne? Und dann wird man mal sehen, äh wie die einzelnen Behörden entscheiden oder wie das zivilichtlich aussieht.
34:03 Ähm das wird auf jeden Fall super spannend werden. Mhm. Okay. Unsicher wegen der neuen EU KI Verordnung. Die Kompetenzpflicht für den beruflichen Einsatz von KI Tools ist da.
34:13 Snipkey bietet die Lösung. Unsere spezielle Schulung zu Artikel 4 konzipiert mit Rechtsanwälten macht dich und dein Team fit. Verstehe die rechtlichen Grundlagen und nutze KI
34:24 Potentiale ohne Risiko. Investiere in Rechtssicherheit und Kompetenz. Informier dich jetzt über die Schulung auf snipkey.de. Gut, ich würde sagen, vielleicht kommen
34:34 wir zur nächsten Kategorie, zur gelben Kategorie. Das begrenzt oder sind wir beim begrenztten Hochrisiko. Hochrisiko und jetzt kommt das begrenzte Hochrisiko. Genau. Genau. Man kann das auch als
34:44 Begrenztes Risiko: Transparenzpflichten für Chatbots und Deep Fakes
34:45 begrenztes Risiko abkürzen. Ähm, das ist, würde ich sagen, für die meisten Unternehmen das Wichtigste, über das man jetzt schon Bescheid wissen muss, weil auch das klingt sinnvoll, wenn eine
34:59 natürliche Person, also du und ich, wenn wir mit Output der KI in Kontakt kommen und nicht so genau wissen, ist das von dem Menschen, ist das ein Mensch oder äh ist das KI, dann sollen wir darauf
35:13 hingewiesen werden, ob das KI ist oder nicht. Also ganz einfacher Fall, ich äh schreib mit einem Chatbot von der Bankm so, dann weiß ich, soll ich darauf hingewiesen werden, sorry, das ist jetzt
35:26 kein Bankberater, mit dem du sprichst, sondern das ist ein KI Chatbot, so damit ich das besser einordnen kann und vielleicht auch weiß, na ja, sprech doch besser noch mal mit der natürlichen
35:37 Person dahinter und so weiter und so fort. Und der zweite Punkt hier, der immer wieder angesprochen wird und der wahrscheinlich das Wichtigste ist, sind die sogenannten Deep Fakes. Und das
35:48 heißt bei Deep Fakes auch da muss ab August 2026 drauf hingewiesen werden, dass das Ganze nicht von einem Menschen kommt, sondern von der KI. Was ist ein Deepf? Das ist tatsächlich relativ ähm scharf
36:02 formuliert, würde ich sagen, definiert in der KI Verordnung. Äh, da geht's vor allem um ähm Tonaufnahmen, Videoaufnahmen oder Bildaufnahmen, entweder von Personene Ereignissen oder
36:14 sogar Gegenständen. Mhm. Ähm, die so realistisch aussehen, dass der Betrachter davon ausgehen könnte, dass die echt sind. Mhm. Das heißt auch, also ich habe ir Produkt
36:26 und habe jetzt davon ein richtiges Foto gemacht und will dieses Produkt jetzt in verschiedenen Szenen, Moodboards, wie auch immer platzieren. Ähm und dieses Zeh sind natürlich irgendwie KI
36:40 generiert und die Software schafft das halt das Produkt da sehr gut hinzustellen. Dann ist es eigentlich schon ein Deep Fake, weil quasi diese Umgebung aussieht wie echt, aber gar nicht echt ist.
36:52 Da wird man jetzt so von ausgehen. Ja, okay. Und natürlich dementsprechend auch das ganze Thema KI Models ist ja mittlerweile seit dem Nano Banana Modell extrem gutes Bildmodell möglich einfach
37:04 einmal eine Aufnahme von einem echten Model zu machen und wenn ich dann quasi dieses Model in verschiedenen Szenen verschiedenen Outfits positionieren möchte oder mit verschiedenen Produkten
37:14 in der Hand, ist es nicht erkennbar, dass es durch KI passiert ist. Dann müsste ich quasi auch kennzeichnen ab 26 August 26, dass es quasi ein äh ja mit KI irgendwie generiert ist. Muss ich
37:26 sagen, das ist ein Deepfake oder dann einfach der Hinweis, dass es mit KI generiert wurde? Ähm wahrscheinlich reicht einfach der Hinweis, dass mit KI generiert wurde. Äh
37:34 auch das ist wieder ein Bereich, wo ja wahrscheinlich die EU-Kommission oder der Gesetzgeber gar nicht wusste, dass das irgendwann möglich ist, ne? dan aufirm sollen diese Bilder vom Papst in
37:47 der Gucci Jacke oder was auch immer das war, das hat ja jeder vor Augen, das soll irgendwie nicht passieren, damit man halt nicht so viel Fake News hat und so. Ob der Gesetzgeber damit wirklich auch
37:59 meinte, dass man ein echtes Foto, eine andere Szenerie nicht setzen soll und so. Mhm. Aber steht da natürlich nicht. Hintergrund, wann wurde damit begonnen? äh vor wahrscheinlich über 10 10 Jahren
38:12 so kenne, als diese ganzen Möglichkeiten noch gar nicht gab, die es heute quasi schon gibt. Und jetzt haben wir so ein bisschen so ein Gesetzesgerüst. Kommen wir auch gleich noch mal dazu, was
38:21 irgendwie so halb passt, aber halb auch irgendwie auch irgendwie nicht. Okay. Gibt's noch Punkte zum begrenzten Risiko oder sollen wir zu dem minimalen Risiko kommen? H ja, vielleicht ist noch
38:35 wichtig zu erwähnen, dass bei den Deep Fakes, wenn man davon ausgehen kann, dass der Betrachter in der Lage ist zu verstehen, dass das nicht echt sein kann, zu se oder sowas. Okay.
38:47 Ähm, ich zeig dann immer in den Schulungen, die ich habe, so ein gemorftes Bild von mir und Angela Merkel. Ich glaube, wenn man das betrachtet, dann sieht man, das ist kann
38:56 nicht echt sein und da müsste man wahrscheinlich nicht drauf hinweisen. Wobei ich da auch wieder etwas einschränkend sagen möchte. Die Gerichte sind mittlerweile äh trauen dem
39:06 Verbraucher weniger zu, als sie das vorher getan haben. Also, ich habe das Gefühl, man hat man hat sich eigentlich so in den Anfang der 2000er Jahren dahin entwickelt, dass man dem Verbraucher
39:17 mehr zutraut, dass der Verbraucher irgendwie normal informiert ist. Und jetzt geht's wieder rückwärts. Der Verbraucher versteht das so gar nicht. Mus biss auf geht, dass die Leute im
39:29 Schnitt dann doch nicht so super smart sind. Es geht dann wahrscheinlich nicht um den Durchschnittsverbraucher, sondern man muss eher an seine Oma denken. Würde meine Oma verstehen,
39:37 kan eine smarte Oma sein, aber technologisch ist nicht ganz so ganz so fit, ne? Genau. Ähm das heißt aber doch für Unternehmen gilt doch jetzt oder für Unternehmen gilt, dass jedes Bild, was
39:50 ich heute irgendwo auf Social Media auf meine Webseite hochlade, KI generiert ist, ich heute eigentlich schon kennzeichnen muss, wenn ich im August 2026 nicht diese ganzen Bilder wieder
40:05 austauschen möchte oder im Nachhinein diese ja, diese diese Angaben mit hinzufügen möchte oder? Ja, das dazu würde ich raten und man sieht es auch jetzt schon tatsächlich,
40:16 also äh ich habe glaube ich letzte Woche erst einen Werbespot von weiß nicht, es war irgendein ähm ein Sportwettenanbieter, der hat schon darauf hingewiesen, dass KI generiert ist. Aldi macht das in
40:30 seinen Prospekten schon. Ähm also es fängt langsam an, dass darauf hingewiesen wird. Okay, ich bin mal gespannt, wie sich das in Zukunft entwickelt, weil dann hast du ja glaube
40:40 ich überall, weil hier jeder in irgendeiner Art und Weise KI verwenden wird, irgendwo ein Teag drauf oder ein Watermark oder irgendwas, dass es KI generiert ist. Ja,
40:49 meine Hypothese ist, dass es in 5 Jahren ganz anders aussieht, sondern dass in 5 Jahren du was tagst, wenn es echt ist. sondern wenn du gerade, also es wird Standard sein, dass die Sachen mit KI
40:59 generiert sind und die Leute, wenn es was echtes ist, wird es was besonderes sein und dann werden die Unternehmen es quasi wahrscheinlich taggen und ob das dann über irgendeine Blockchain läuft
41:08 oder was auch immer quasi der echte Content dargestellt wird und eben nicht die Fakes, die KI generierten ähm Sachen. Also, das ist meine Hypothese. Schauen wir mal, wo sich die Welt hinentwickelt.
41:22 Da müsste sich aber auch das Gesetz noch mal ändern. Also, aber das kannst ja noch ähm genau die einfachste Kategorie risiklos ist die Sammelkategorie für alles, was
41:34 kein Risiko hat oder gibt's da noch noch mal ganz konkret s sagen, das ist absolut risiklos oder es ist dann noch so ein bisschen Commonense. Ja, das ist tatsächlich so ein bisschen
41:40 Minimales Risiko: Wo die EU kaum Gefahren sieht (z.B. Spamfilter)
41:42 common sense, was da immer genannt wird. Als Beispiele sind Spamfilter bei E-Mails z.B. Ja, da kann anscheinend nicht viel passieren und auch in Videospielen, wenn KI in Videospielen eingesetzt wird,
41:55 soll genau jetzt hast du schon angesprochen. Die EU war schon früh fleißig vor dem ganzen KI Hype vor Chat GPT. Das Gesetz stand eigentlich schon so mehr oder weniger und dann kam halt auf
42:09 einmal generative KI, also gibt's natürlich ein bisschen länger, aber den Durchbruch mit Chat GPT und die ganzen Möglichkeiten, die sich daraus erstmal ergeben haben und dann nach die Uhr so
42:18 bisschen gemerkt, h passt jetzt nicht mehr so ganz genau auf das, was wir uns überlegt haben und hat einfach gesagt, okay, wir haben jetzt hier diese schöne Pyramide, aber wir machen noch mal was
42:22 Sonderkategorie: Regeln für General Purpose AI (LLMs wie ChatGPT)
42:27 zusätzliches, was diese LMs betrifft. Genau. Was war das und was ist diese diese Regelung jetzt für die LMS? Genau. Also, es gibt dann ähm eine, ich sag mal, gesonderte Kategorie noch mal
42:39 für die General Purpose AI, so heißt die, also ähm KI mit allgemeinen Verwendungszweckzagen, weil die EU einfach gesehen hat, ja, wo sollen wir die jetzt einsortieren? Soll
42:50 das jetzt Hochrisiko sein? Passt ja nicht, wenn ich damit einfach ein Text erstelle, ne? Das heißt, dann wären die Anforderungen viel zu hoch. Mhm. Man wollte aber auch nicht den ganzen
42:59 Entwurf in die Tonne kloppen. Also hat man noch mal eine neue Kategorie für die Large Language Models ähm im Prinzip geschaffen und äh die hat spezifische Anforderungen für die Anbieter
43:13 insbesondere als Open AI z.B. die müssen relativ viel machen. Das orientiert sich tatsächlich auch so ein bisschen an dem, was man bei der Hochrisiko KI machen muss. Äh ist ein bisschen bisschen
43:23 weniger. Ähm man muss aber auf jeden Fall ähm z.B. die Trainingsdaten offenlegen als Anbieter, womit Open AI z.B. erstmal ein großes Problem hat. Bin ich gespannt, ob sie das tun werden.
43:38 Und das ist heute schon im Gesetz. Das steht so im Gesetz. Ja, das heißt, theoretisch bricht gerade jedes nicht Open Source Modell EU-Recht, was hier zur Verfügung
43:50 Ja, ich bin ich bin mir nicht sicher, was da gerade bei der EU läuft, also was so vorgelegt wird. Sind wahrscheinlich Vorbereitungen gerade dazu, dass irgendwas vorgelegt wird. Ähm und dann
44:01 stellt sich natürlich auch eine Frage, die man auch diskutieren kann. Wer guckt sich denn das eigentlich alles an? Ja, also wer hat die Kapazität sich das alles anzugucken und zu prüfen, ob das
44:11 eigentlich in Ordnung ist? Braucht die die EU eigentlich erstmal eine KI? Eine haben wir auch schon besprochen in dem früheren Podcast, eine große Stärke der KI sind viele Daten zu
44:19 analysieren, zu verstehen, zu bewerten. Das heißt, wir brauchen eigentlich eine EU KI, die sicherstellt, dass die Trainingsdaten, die verwendet werden, von den amerikanischen oder chinesischen
44:29 Modellen auch wirklich Egoonform sind. Ja, ich glaube, man schaltet erstmal eine dritte Entity dazwischen. Das heißt, die zertifiziert sozusagen, dass das alles in Ordnung ist. Aber
44:41 trotzdem müsste ja die Zertifizierung von diesem Dritten von der EU sich angeguckt werden, ob das alles in Ordnung ist, ne? Den kann man ja nicht einfach blind vertrauen. Ja,
44:49 ich glaube nicht, dass die EU dafür die Kapazitäten hat. Und gibt es Regeln, die sagen gute Trainingsdaten, schlechte Trainingsdaten? Ja, das ist das ist natürlich eine große Frage. Es gibt ähm
45:02 tatsächlich im AI Dinge, wie das sichergestellt werden muss, dass Urheber recht eingehalten wird. Schon mal schwierig, glaub ich, für gr schon mal sehr schwierig. Genau. Ähm
45:12 genau. Und in solchen Kategorien wird dann halt gedacht, ne? Also kann man da ein Haken dran machen? Wahrscheinlich bei vielen nicht. Ich weiß aber jetzt nicht, was passiert, wenn die LMs auf
45:22 dem Markt sind und diese Regeln einfach nicht eingehalten werden. Mhm. Ähm, ich die können ja nicht einfach abgeschaltet werden. Ja. Na ja, da bin ich auch mal gespannt, äh was da noch alles kommt.
45:34 Gut, in dieser Kategorie kann man vielleicht noch sagen, für den Anwender, also für uns als Benutzer der KI, ähm gilt wieder die Pyramide. Das heißt, wenn wir das einfach nur als Textgenerierung
45:47 verwenden, dann haben wir wahrscheinlich keine Voraussetzung in der Regel. Wenn wir ein täuschend echtes Bild erstellen würden, dann müssten wir natürlich Deep Fake Kennzeichnungen einhalten
45:59 und wenn wir automatisiert Prüfungen bewerten lassen oder sowas, dann wären wir tatsächlich im Hochrisikobereich. Mhm. können wir sein. Also Prüfung, Schuler, Schulprüfung, Uniprüfung, wie
46:12 auch immer, wenn ich dort KI nutze, muss ich auch wieder wahrscheinlich einen sehr sauberen Prozess haben, um im Nachhinein nicht verklagt zu werden von Studierenden, keine Ahnung,
46:24 Arbeitnehmern, die irgendwelche Tests machen, um vielleicht befördert zu werden, wenn ich diese Auswertung mit KI mache. Genau, das ist auf jeden Fall heikeles Thema. Das fällt unter VHR im Prinzip,
46:36 wenn man rauszoomt unter automatisierte Entscheidung, da muss man einfach ein bisschen aufpassen. Und wo man dabei auch aufpassen muss, ist ich hatte ja am Anfang gesagt, wenn
46:47 man unter seiner Brand ein KI System veröffentlicht, dann wird man zum Anbieter. Mhm. Aber interessanterweise wird man auch zum Anbieter, wenn man den Zweck erweitert. Mhm.
46:58 Was bedeutet das? Die KI Systeme, also gerade die großen, müssen auch sagen, was eigentlich ihr Zweck ist. Habe ich bisher noch nicht gesehen, dass sie das getan hätten.
47:08 Wenn man Chat JPT aber fragt, ob der Zweck z.B. auch in einer Bewertung einer Klausur liegt, dann sagt er: "Nee, das ist nicht mein Zweck. Ich assistiere nur und kann sowas vielleicht besser
47:18 einordnen oder so, aber ich führe keine Bewertung aus. Mhm. Das heißt, möglicherweise sagt es Chbd nur, weil es weiß, was die EU quasi definiert hat oder darüber kann man natürlich auch
47:30 streiten. Wenn du ein Tool bereitstellst, was alles kann, dann muss der Zweck irgendwie auch alles sein. Genau. Ist ja ein Schweizer Taschenmesser quasi, ne? Es gibt
47:38 natürlich sehr fokussierte KI Tools, aber gerade sowas wie Open AI oder Cloud oder der Copilot ist ja eigentlich ein Schweizer Taschenmesser ohne einen gewissen Zweck, ne? Also auch da ist
47:49 wieder die Gesetzgebung so ein bisschen ja, aber da werden wieder nicht so ganz richtig, ne? Da werden dann die großen Modelle sagen, nee, nee, wir sind raus, das ist nicht
47:56 unser Ding. So und dann stehst du als Lehrer da, der eine automatisierte Entscheidung fät hast, bist im Hochrisikobereich. Mhm. Und Anbieter schwierig. Okay. So ein ganz anderer Ansatz wie in
48:08 China. In China ist es ja tatsächlich so, dass sie quasi jetzt den ganzen Nationen KI Systeme einführen, um gerade quasi Lehrer Lehrerin zu unterstützen, um diese diese Prüfungs Ergebnisse
48:22 auszuwerten oder überhaupt die Prüfung auszuwerten, ne? Wenn man ehrlich ist, ist es die, wenn ein Lehrer x Stunden hat in der Woche, sollte er die Zeit lieber verbringen, damit sich um die
48:31 Schüler und Schülerinnen zu kümmern, dem was beizubringen oder soll die halbe Zeit damit verbringen, irgendwelche Multiple Choice Tests auszuwerten oder was auch immer, was tatsächlich
48:39 vielleicht, wenn es eine KI macht, ähm potenziell auch weniger subjektiv ist, weil jeder Jahre ja wieder was anders einschätzen würde und gerade wenn man so so wie China nimmt, sagt, es gibt ja
48:52 auch Zentralabis, sozusagen. Jetzt ist das schon das ist jetzt wie alt wir sind. Also seit vielen Jahren, nachdem wir quasi Abi gemacht haben, wurde es quasi in den meisten Bundesländern für
49:03 die meisten Fächer eingeführt. wenn es dann eine gewisse objektive Bewertung gibt, die sofern die KI richtig geprompt ist, glaube ich, wenn der K gegeben ist, als bei ganz
49:15 vielen verschiedenen Lehrern, die gerade bei irgendwie deutsch Interpretation das Ergebnis ander anders interpretieren würden. Da einfach ein ganz anderer Ansatz in
49:25 China im Vergleich zu Europa, wo ich als Lehrer dann vielleicht potenziell schon direkt mit einem Fuß im Knast bin, weil ich den Zweck erweiter. Ja, also ich sag mal, das funktioniert wahrscheinlich,
49:35 ne? Du kannst wahrscheinlich rechtskonform das auch irgendwie verwenden. Du musst dich halt nur vorher hinsetzen und das dir ganz genau angucken, was du darfst, was du nicht
49:43 darfst und wann die die Schwelle überschritten ist und so, ne? Aber das macht natürlich niemand. Wie willst du das denn als normaler Lehrer denn machen? Also brauchst ja
49:52 irgendwie Vorgaben und im Zweifel wird's dazu führen, dass die Schule äh sagt, nee, machen wir überhaupt nicht. Ist verboten, um auf der sicheren Seite zu sein. Und damit bleibt dann auch wieder
50:00 ein großer ja, viel Potenzial auf der Straße liegen. Ähm, gut. Für uns heißt es aber dieser General Purpose Thema, es heißt jetzt nicht, dass ich als Unternehmen kein
50:11 Open AI nutzen darf oder ein SPC oder den Copilot, sondern ich bewege mich quasi in der Pyramidenwelt mit dem risikobasierten Ansatz und ja navigierere da sozusagen meine KI Nutzung.
50:24 Genau. Außer man ist natürlich ein Unternehmen, was so eine General Purpose AI selbst trainiert, ne? Ja. Selbst herstellt. Spannend gibt's noch. Es gibt natürlich
50:34 wahrscheinlich noch ganz viele Punkte, aber gibt's noch irgendwelche wichtigen Punkte zum EUAI Act oder der KI Verordnung, die wir noch nicht besprochen haben, außer den Artikel 4,
50:42 der ja in der nächsten Folge dann kommt? Ja, also ich glaube, das war waren jetzt schon sehr viele Informationen. Wir sind ja teilweise auch dann schon relativ tief gegangen. Ähm es gibt extrem viele
50:44 Fazit und Ausblick auf die nächsten Folgen
50:53 weitere Fragen, die sich stellen ähm wenn man noch weiter in die Details abtaucht. Äh aber ich glaube, das war jetzt schon mal ein ganz guter Überblick. Ähm, mal sehen, vielleicht machen wir in
51:06 1 2 3 Jahren immer wieder Update Folgen, und schauen mal, wie es dann weitergegangen ist, wie sich die Themen entwickelt haben. Es bleibt spannend und das große Fragezeichen.
51:17 M ja, möglicherweise kriegen wir auch noch mal einen politischen Twist irgendwie, dass das Ganze entschläen. Spätestens dann, vielleicht sind es keine eins bis dre Jahre, sondern
51:29 vielleicht passiert auch schon in drei Monaten was. Man weiß ja nie in der Welt RKI und äh spätestens dann ähm kommen wir auf jeden Fall noch mal zusammen. Damit sind wir am Ende dieser Episode.
51:40 Vielen Dank fürs Zuhören. Wenn es euch gefallen hat, lasst ein Like da, kommentiert runter, ähm bedankt euch bei Tobi, gibt uns wie immer Feedback. Ähm, wenn ihr zu unserer Assistentin noch
51:53 Kommentare habt, auch gerne drunter schreiben. Oder wenn ihr die Assistentin besonders toll und süß findet, dann könnt ihr sowieso liken und abonniert unsere Kanäle, egal, ob das YouTube ist
52:04 oder Spotify oder Apple Podcast. Wir freuen uns auf jeden Fall auf euch in der nächsten Sendung und in der nächsten Episode geht's dann eben um diesen Artikel 4 der KI für Verordnung. Und bis
52:15 dahin viele Grüße, ciao und bis nächste Woche. Cointelligence ist eine Produktion von The Key Academy in Zusammenarbeit mit Snipkey. Produziert bei Studio Co in
52:26 Berlin. Produktion und Regie: Christina Manuele, Fuat Sebadli und Elias Frobel. Creative Director Lukas Schelter. Redaktion und Moderation Benjamin Wüstenhagen und Moritz Heininger.
52:39 Abonniere uns auf Spotify, Apple Podcasts oder YouTube. Danke fürs Zuhören.