// Transkript
#38: Warum KI vielleicht doch länger braucht - Exponentiell vs. Normal
Vollständiges Transkript dieser Episode des Co-Intelligence Podcasts. 5.265 Wörter. · Auf YouTube ansehen ↗
0:00 Intro: Normalität vs. Transformation
0:00 K ist eine völlig normale Technologie wie Strom oder das Internet. KI wird in den nächsten dre Jahren die komplette Welt komplett transformieren. Beides kann wahr sein und darüber sprechen wir heute.
0:15 Willkommen zurück zu Cointelligence, eurem KI Lern Podcast in Episode 38 mit Moritz Heininger, Nala, der Podcast Hündin und mir Benjamin Wüstenhagen und heute geht's um Normalität und Transformation.
0:18 Das "AI 2027"-Papier: Super-Intelligenz bis Ende der 20er?
0:33 Ja, und zwar haben wir schon, ich weiß nicht, welche Episode es war, ähm zu dem Crazy Paper AI 20 27 gesprochen. Ende 20er, Anfang 30er. Genau, wir haben es dann noch mal die
0:47 Timeline verändert, glaube ich. Ich weiß nicht, welche Episode es bei uns war. ist noch gar nicht so lange her, vielleicht dre vi Wochen. Und ähm in diesem Paper geht's darum, wie
0:56 transformativ KI diese Welt verändern wird und äh dann vor allem auch wie die Weltmächte im Rennen zueinander stehen und äh wann KI besser ist als der Menschen. Das ist exponential,
1:08 dass sie alles besser wird und ich glaub Ende nächsten Jahres schon die KI Agenten besserere Softwareentwickler sind als wir Menschen und besser forschen und die Probleme der Welt lösen
1:20 und wer zuerst quasi diese dieses Super KI hat, wird die Welt dominieren und so weiter und so fort. Also ein sehr sehr spannende ja bestenes Paper, was auch auf fundierten Annahmen irgendwo beruht.
1:32 Und dann gab es einen Gegenpaper von auch sehr bekannten und smarten Leuten, die gesagt haben, na ja, KI ist halt ein Technologie wie alle anderen auch, die sich halt vielleicht ein bisschen
1:34 Die Gegenposition: Die "Normalos" aus Princeton
1:44 schneller entwickelt, aber wir brauchen jetzt keine Panikmache äh hier an den Tag zu legen. Und die beiden Lager haben sich hingesetzt und haben festgestellt, dass sie in einigen Punkten sogar
1:58 übereinstimmen, sondern dass sie gar nicht es gar nicht alles so anders ist in den Annahmen, die sie so treffen. Sind zwei Denkschulen. Ja, die einen, die normal in Anführungszeichen kommt
2:07 von Princeton, Narayan und Kapur. Die anderen haben wir schon vorgestellt. unter anderem so Zukunftsforscher, aber zu der Klicke gehören halt auch beispielsweise Sam Altmann, der CEO von JGBT Opener,
2:23 der natürlich eine Story erzählen muss, dass sein Unternehmen die allgemeine General Intelligence erreicht und er deshalb natürlich auch sehr viel Geld braucht natürlich, ne? Von daher muss
2:33 man immer die Aussagen natürlich auch ein bisschen bewerten, ja, und die Motivation der einzelnen Personen hinterfragen. Aber es gibt ja auch ganz viele, ich sag mal, Gegner von
2:44 Open AI und JG GPT oder überhaupt den ganzen KI Labs, die sich total die Sorgen machen, dass halt potenziell auch die Welt untergehen kann, ähm wenn die KI Systeme nicht allein sind und auf
2:56 einmal Dinge machen können und schlauer sind als wir, wenn sie eben potenziell andere Ziele haben als wir. Von daher es gibt so ganz viele verschiedene Lager und wir wollten heute einfach mal durch
3:07 dieses Paper durchgehen, qu sie wirklich die Punkte ähm besprochen werden, wo sie sich einig sind bzw. teilweise vielleicht bisschen unterscheiden und mal so unterschiedliche Blickwinkel auf
3:19 dieses gesellschaftlich, philosophisch ähm strategisch vorausschauende Thema ähm irgendwie zu werfen, weil es halt der schon irgendwo unser Leben in den nächsten Jahren stark
3:32 beeinflussen wird. Also heute zoomen wir mal wieder ein bisschen raus und schauen uns keine kleinen Modelle an oder Modell ob die Verbesserungen oder Use Casas, sondern zoom mal vielleicht so ein ja
3:44 bisschen in die Vogelperspektive. Das Spannende daran ist und das haben wir eingang schon gesagt, dass ich diese beiden Denkschulen so konträr sie doch klingen gar nicht so sehr widersprechen
3:51 Das Argument der Exponential-Kurve (Daten & Energie)
3:55 in der Konsequenz am Ende. Das ist spannend. die eine Denkschule, also diejenigen, die glauben, okay, alles geht super schnell und wir kommen sehr schnell zu einer allgemeingültigen
4:04 künstlichen Intelligenz AGI, sagen: "Hey, Leistung steigt exponentiell." Also, wir werfen da einfach ähm noch mehr Daten rauf und noch mehr Computer, also Rechtenleistung und brauchen noch
4:17 mehr Energie und dann kriegen wir eine exponentielle Kurve hin und äh wir verdoppeln die Daten und Parameter und Computer und bum äh steigen die Fähigkeiten vorhersehbar oder
4:27 vorhersagbar und deswegen sind wir auf einer exponellen exponentiellen Kurve, die unweigerlich zu dieser AGI führen wird und die Person oder die die Firma oder die Macht oder das Land, was als
4:40 erstes da ist, hat halt die Dominanz. Äh und dazu kommt auch, dass im Laufe dieses Hochlaufs Fähigkeiten äh auftreten, die man vorher nicht auf dem Plan hatte, also die sozusagen emergent sind.
4:56 Ja. Ja. Und das ganze Thema, wir entwickeln sich KI Agenten ist ja auch sowas, ne? Als irgendwie neue es gibt halt Menschen, wir machen irgendwas, manche Menschen können manche
5:05 Sachen bisschen besser, manche bisschen schlechter. Es passiert denn, wenn es auf einmal unendlich viele Agenten gibt, die alle irgendwelche Ziele verfolgen, die potenziell Dinge einfach besser
5:15 machen können als wir und zwar nicht vielleicht nur ein Task, sondern viele Tasks. Ja, und wo geht die Welt hin? Und ähm ja diese, ich sag mal, diese Bulls, Bulls Ves Bärs, wo wir wieder im Dengen
5:26 sind, die Bullen gegen die Bären. Ähm, wobei die Bären sind auch keine Bären, die sind halt nicht ganz so ähm die verstehen auch, dass sich die Welt stark glaub ich verändert, aber eben von
5:38 anderen Zeithorizont sozusagen, wie schnell sich alles entwickeln wird und je nachdem welchen Horizont man da einnimmt, äh muss man natürlich ja mit unterschiedlichen Problemen rechnen, die
5:48 man zum unterschiedlichen Zeitpunkt lösen und diese KI Maximalisten, wo jetzt nicht nur Sam Altman dazu gehören, sondern auch beispielsweise Markeson, äh der ja einer der Gründer von dem
5:59 Investment for in Reason Harvards oder auch A16Z Z genannt, die in ganz ganz vielen Firmen von Airbnb bis hin zu den großen AI Provider investiert sind und unter anderem auch den Browser erfunden
6:00 Warum es länger dauert: Gesellschaftliche Trägheit & "Data Readiness"
6:11 haben, also Marketing. Ähm, die sagen halt, dass KI eine Macht ist, die sich selbst verstärkt. Ja, und wenn eben einmal KI stark ist, dann der ist es so gut, dass es sozusagen immer besser
6:24 wird, sich selbst zu verstärken, sich selbst besser zu programmieren, ähm und uns dann letztlich ablöst in Intelligenz als Menschen. Und darauf muss ich die Gesellschaft unweigerlich einstellen.
6:34 Ähm und die die andere die Normalo Denkschule, ja, die beiden Princeton Professoren, Princeton, eine von einer von den Ivilag Universitäten USA, ne, die sagen: "Hey, das ist das ist halt
6:46 eine Technologie, das ist so wie mobile oder wie ne wie mobiles Internet oder wie wie Mobile Phones ist jetzt nichts besonderes mehr, sondern es ist halt da oder auch, dass wir ein Knopf im Ohr
6:57 haben und drauf drücken und los telefonieren ist halt auch da und es hat vor allem eine Weile gedauert, ne? Das schleicht sich halt ein, ne? Weil irgendwo und ich meine das sehen wir ja
7:07 auch wenn wir mit Unternehmen sprechen. Das eine ist das technische, was kann das eigentlich alle schon? Dann was kann ich als Unternehmen technisch, wie sieht meine
7:17 Dateninfrastruktur aus, welche Systeme habe ich und so weiter, da bin ich überhaupt KI ready. Aber selbst die Unternehmen mit den besten Systemen und den besten Daten mit Zugriff auf die
7:26 besten Tools haben halt immer noch den Faktor Mensch mit drin und das ist zwar Mensch und Gesellschaft Mensch und genau und wenn man rauszoomt ist es bei einer Gesellschaft und bis
7:34 wir unser Verhalten anpassen und sozusagen es ja absorbieren und aufnehmen, da ist ja eine gewisse Drägheit in den Prozessen mit drin. Und es gibt natürlich die Early Adopter und
7:46 die Late Adopter. Es gibt immer noch Leuten auch teilweise noch bei Unternehmen dementsprechend den man bisschen ins Internet erklären muss. Digitalisierung in Deutschland ist ja
7:55 jetzt auch noch nicht überall angekommen, aber die meisten sollten jetzt auch wissen, es geht nicht mal weg mit diesem Internet, genauso wie die meisten Leute irgendwann verstehen
8:02 werden, auch wenn sie jetzt gegen KI sind, dass diese KI Sache nicht mehr weggeht. Ja, ähm aber es gibt halt einfach diesen gesellschaftlichen ja langsameren Veränderungsprozess,
8:15 der egal wie gut die KI wird, dem natürlich irgendwo noch entgegen wird sozusagen, bis sich alles komplett transformiert und verändern wird in unserer Gesellschaft.
8:24 Und es liegt daran, dass Organisationen z zum einen die Menschen mitnehmen müssen, also die Organisationen müssen bereit sein von ihrem Personaltableau das aufzunehmen, aber halt auch von
8:33 Technologie. Das heißt, die Datenqualität bestimmt letztlich auch noch in gewisser Weise die Qualität äh der KI, die ich einsetzen kann. Wenn ich veraltete Prozesse habe, wenn lässt sich
8:43 auch meine Skills fehlen, dann nützt mir auch das tollste Modell nichts, weil ich kann es nicht vernünftig einsetzen. Das ist schönes Zital von Harvard Business Review Data Readiness Determines AI
8:55 readiness, also die wie bereit bin ich auf meine Daten zu zugreifen, welche Daten habe ich eigentlich und das determiniert, wie bereit bin ich eigentlich KI vernünftig einzusetzen?
9:07 Plus der Mensch, der auch genau und der Economist sagt so schön, dass also diese diese langsame, aber generell die Diffusion, ob es jetzt langsam ist, kann man kann man diskutieren, aber das ist die
9:21 eigentliche Transformation, also dass jetzt immer mehr Menschen KI einsetzen, dass es immer mehr in Prozesse integriert wird, das es aber auch immer öfter in Werkzeugen und Tools schon
9:31 integriert ist. Wir haben in der letzten Folge über Gemini 3 gesprochen und Google und dass es eben in Android Rolle spielen wird in der Google Suche, in YouTube und so weiter und so fort. Also
9:35 Konsens 1: Bis zur AGI ist KI eine "normale" Technologie
9:43 überall da in den Dingen, die jeden Tag schon einsetzen, kommt jetzt sozusagen schleichend oder auch weniger schleichend KI mit rein. KI kommt nicht irgendwann. Sie ist schon
9:52 da. Bist du bereit? Mit The Key Academy machst du dich fit für die Zukunft. Onlinekurse zu KI, digitaler Zusammenarbeit, Leadership praxisnah, flexibel, IAK zertifiziert. The
10:03 Keypuncademy, für alle, die mitgestalten wollen. Und diese beiden konträren Denkschulen stimmen jetzt doch überein, zwar in 12 Punkten und im ersten Punkt sagen sie beide
10:17 interessanterweise, ne, bevor diese AGI kommt, ist KI eine normale Technologie wie Strom beispielsweise. Ja, was geht ja in Stufen so wie wir heute quasi KI erleben. Sind uns glaube ich alle einig,
10:30 dass sie zwar schon viele Sachen sehr gut machen kann, aber es ist noch keine allgemeine General Intelligence, also es ist nicht im Schnitt schlauer als alle Menschen und ähm während die AR20 schon
10:42 die7 Leute sagen, das kommt in 27 oder vielleicht paar Jahre später, sagen die anderen, das dauert noch viel länger. Aber auf den Weg dahin sind sie sich zumindest einig, dass es bis dahin eine
10:43 Konsens 2: "Strong AGI" wäre eine Zäsur der Evolution
10:53 normale Technologie ist. Und sie sind sich auch einig, wenn wir warum auch immer dann doch die sogenannte Strong AGI, also die starke äh allgemeine künstliche Intelligenz erreichen, dann ist es eben
11:07 keine normale Technologie mehr. Das ist schon ein großer eine große Cesur in der in der menschlichen Evolution, kann man fast sagen. Das Witzige ist halt auch, es gibt äh bisher noch keine wirklich
11:19 gute Definition. Was ist denn eigentlich AGI oder auch Strong AGI? Jeder definit. Ähm aber zumindest sagen die das Camp AI is normal Technology. sagen, gut, wenn
11:32 wir den Punkt erreicht haben, dass die KI wirklich schlauer ist als wir alle, dann haben wir verloren, dann hattet ihr recht, dann äh ist die Sicht, dass es eine Normative Technology ist, dann doch
11:42 nicht richtig gewesen. Und die, ich sag mal, die Maximalisten, also die Autorin von dem AI 2027 Paper sagen, das ist eben dann eine Strong AGI, wenn sozusagen die KI selbst
11:56 Konsens 3: Warum heutige Benchmarks versagen
11:56 automatisiert KI Forschung betreibt. Also sozusagen so ein selbstreferentielles System, was sich ständig verbessert. Ja, und das ist ja, wie gut ist ein KI System und das ist so ein bisschen der
12:08 nächste Punkt, wo sich einig sind. kann man natürlich und sollte man natürlich für sich selbst irgendwie subjektiv eigentlich immer bewerten, mit welchem System oder mit welchem Modell arbeite
12:17 ich am besten oder welches Modell ist für mein Uscase das Beste. Aber es muss natürlich da gibt es ja auch diese öffentlichen, also verschiedenste Benchmarks die Modelle vergleichen.
12:28 Haben jetzt auch in der letzten Folge gerade über die das Gemini 3 gesprochen, was da jetzt auf einmal überall das beste oder fast überall das beste Modell geworden ist. Und ähm sehen wir auch bei
12:39 den Benchmark Anbietern, dass die immer neue Benchmarks rausbringen, weil die Modelle einfach immer mehr dieser Probleme lösen und in den Top 90 95% Bereichen sind. Und um weiterhin den
12:50 Fortschritt zu messen, brauche ich halt andere Tests, also schwierigere Tests. Und da sind sich auch beide Camps einig, dass die aktuellen Benchmarks für die zukünftigen Modelle, die dann noch kein
13:01 AGI sein müssen, nicht ausreichend sind, weil ja heute schon äh das alles gelöst wird von KI Modellen und selbst wenn dann diese Benchmarks nicht ausreichen, wir neue Benchmarks
13:14 brauchen und die dann auch wieder überschritten werden, sind sich trotzdem beide einig. dass es durchaus auch Aufgaben geben kann, in denen die noch so intelligente KI einfach scheitert an
13:25 Dingen, die wir jeden Tag tun, sei es Dinge online kaufen. Ja, das äh wird wahrscheinlich bald gehen, würde ich jetzt mal sagen, aber ja, so einfache Dinge wie uns die Zähne
13:37 zu putzen, ne? mal einen Roboter, der uns die Zähne putzen kann, ohne uns zu verletzen und das eigentlich ordentlich zu machen. Ist hal einfach noch ein extrem schwieriger Task. Ich meine, das
13:49 ist jetzt ein Robotics Beispiel. Ähm, aber ich kann trotzdem eine Art von AGI haben, auch wenn die AGI dann manche Tasks einfach simple für uns simple Task trotzdem nicht erledigen kann. Ja,
14:07 die äh die beiden Autoren aus Princeton, also Kapur und äh sagen aber auch, wir glauben nicht daran, dass diese Strong AGI sehr schnell kommt. Vielleicht irgendwann,
14:17 aber nicht sehr schnell. Da haben sie auf jeden Fall noch mal einen Unterschied. Aber egal, ob es jetzt schnell langsam kommt, beide Camps sagen, KI AI wird mindestens
14:29 Konsens 4: Das "Alignment Problem" (Paperclip Maximizer)
14:29 so ein großer oder wird so bedeutend und so groß sein wie das Internet selbst. Ja, ist doch schön, dass sie sich darauf einigen und das Internet selbst ist ja doch recht groß geworden.
14:44 Ja, bei manchen ist es noch nicht angekommen, aber äh das Internet ist schon recht wichtig geworden. Da können wir uns glaube ich drauf einigen und das KI recht wichtig wird oder schon ist.
14:53 auch da können sich die beiden Camps drauf einigen. Der nächste Punkt, wo sich drauf einigen können und das ist tatsächlich ein ja, ich glaub Punkt, der für alle sehr wichtig ist, ist das ganze
15:04 Thema AI Alignment. Also, wie kriege ich es hin, dass die KI Ziele verfolgt, die wir als Menschheit auch verfolgen, ja, dort irgendwie reinentwickelt bekomme. Und ähm da gibt's ja quasi auch dieses
15:19 Kämpf, als ich eingangs angesprochen hatte, also die wirklich sagen, wir sollten sofort alle KI Forschungen stoppen, weil die KI sonst uns potenziell alle umbringt. Und da gibt's
15:30 ja das bekannte Paperclip Theorem was besagt, na ja, gut, wenn ich der Kino sage, dass es ein Ziel ist, Paperclips quasi zu entwickeln, Büroklammern. Genau. Und dann wird die
15:43 KI alles versuchen und alle Ressourcen aufwenden und im Zweifel sagen: "Ja, der Mensch stell mir Ressourcen weg, ich kann keine Büroklam machen." Also ich den Mensch aus, um mein Ziel zu
15:51 erreichen. Es wäre bisschen doof. Ja. Und ähm dieses und beide Seiten, also sowohl die die sagen KI wird in paar Jahren komplett durch die Decke gehen und ja allwissend und alle unsere
16:04 Probleme irgendwie potenziell lösen können, als die sagen, das normaltechnologie, das wird noch als 20 Jahre dauern, bis es vielleicht irgendwo mal an dem Punkt ist, sagen, dass wir
16:12 unbedingt dieses Alignment Problem lösen müssen und dass heute viel zu wenig eigentlich dafür getan wird und daran geforscht wird. Und das ist schon eigentlich macht einen schon ein
16:17 Konsens 5: Keine autonomen Entscheidungen in kritischen Systemen
16:23 bisschen nachdenklich, ne, wenn man die Entwicklung so mitbekommt und wenn sowohl die Bulls als auch die kleineren Bulls in dem Fall ähm die sagen: "Leute, wir müssen dieses Problem lösen und wir
16:34 machen nicht genug dafür." Und weil das Problem bisher nicht gelöst ist, sagen sie auch alle, dass KI zumindest mal auf absehbare Zeit keine wichtigen Entscheidungen in kritischen
16:46 Systemen treffen dürfen soll. Infrastruktur, Militär, ähm ja und so weiter und so fort. Selbst selbst in Tech Companies nicht und selbst auch nicht in Regierungsthemen,
16:59 also nicht eigenständig. Natürlich assistiert, aber eben nicht eigenständig. Und ich glaube, das sollte auch jedes Unternehmen heute schon so sehen, dass absolut kritische
17:06 Entscheidungen und Systeme nicht autonom von KI Agenten teilweise vielleicht bedient werden dürfen, aber die finale Entscheidungen sollten da nicht ausgelagert werden und
17:18 das gilt natürlich auf Staatsebene natürlich noch mal ja ganz anders. Ich glaube, welches Land war das? Was ist irgende KI Minister? Ähm irgendwas in Osteuropa ist Albanien oder so. Ja, ich
17:31 habe es auch gelesen, ne? Die haben irgendwie Ja, genauhalb schon. Ich nehme mal an, dass diese KI Minister oder KI Ministerin auch am Ende nicht die Entscheidung trifft, aber ähm schön
17:40 zu sehen oder gut zu sehen, dass auch hier die beiden Lager sagen, die ganz wichtigen Themen, kritischen Themen, die sollten nach wie vor bei uns Menschen liegen. Und sie sagen auch, dass weil das so
17:52 ist, Transparenz, Reporting und ähm Überwachung und Überwachung wichtig sind. Was ja auch interessant ist, finde ich, weil aus so einer, also aus meiner Perspektive übertreiben wir
18:04 es in Europa oder haben es schon übertrieben mit dem AI Act, der jetzt vielleicht wieder teilweise zurückgerudert wird, zurückgerudert und wenn man jetzt vielen Amerikanern folgt, dann hört man auch
18:14 mal ja so super, dass Trump und David Sax da so viel aus dem Weg geräumt haben, nicht nur für AI, auch für Krypto und da eben nicht mehr so viel regulieren. ist halt schon spannend, ja,
18:26 dass solche Forschenden sagen: "Hey, das hilft schon." Ist die Frage, kann man denen dann das selber überstülten, den Techunternehmen sich selbst äh zu kontrollieren und selbsttransparent zu
18:37 sein und selbst äh sich zu auditieren oder braucht man da vielleicht doch ein bisschen Regulierung? Ja, und das ist auch der nächste Punkt, wo sie sich einig sind, dass eigentlich Staaten
18:47 heute nicht so richtig viel Plan davon haben, was da eigentlich passiert. Die haben die die keine keine staatlichen Einrichtungen, die haben nicht das, die haben nicht die Kapazität,
18:58 dem überhaupt zu folgen, das zu überwachen, das mit zu beeinflussen und ähm ja, gerade wenn man dieses Alignment Thema denkt, ähm so muss es halt eben eine Instanz geben und die muss da für
19:11 ausgestattet sein, so Sachen hal zu überwachen und vor allem zu verstehen und so die die Entwicklung auch also nicht mit fördern muss, aber zumindest die Leidplanken vorgeben muss und um
19:25 eine richtige richtige Leitplanken zu setzen auch einfach ein gutes Verständnis von dem ganzen Thema haben muss, was wir heute halt meiner Meinung nach zumindest in Deutschland, also
19:34 wahrscheinlich auch nicht in USA einfach noch nicht haben in den Regierung und von daher ein weiteren Punkt, wo sich die beiden Lage drauf einigen können. Das soll aber nicht uns davon abhalten,
19:46 KI in die Wirtschaft weiter einzubringen, denn beide sagen, diese diffusion ist glaube ich das richtige deutsche Wort von KI in die Wirtschaft ist generell schon mal gut. Ich vermute, es
19:58 gibt sicherlich in Deutschland stimmen, die sagen: "Nein, ist nicht gut. Wir brauchen ganz viel Datenschutz und gar keine KI. Äh, zumindest sind da die Autorin dieses Papiers sich auch wir
20:04 Die Gefahr der "geheimen Intelligenz-Explosion" (Life 3.0 Szenario)
20:07 anderer Meinung." Das stimmt. Also das KI grundsätzlich mit allen jede Technologie und ich glaub das sind die auch irgendwie Transparenz und reflektiert. Jede Technologie bringt
20:19 Vor und Nachteile mit sich und Umwälzung gesellschaftliche Umwälzung potenziell, aber grundsätzlich ist KI etwas von der wir alle profitieren können, sofern sie sinnvoll eingesetzt wird und da können
20:30 sich die beiden Lager ähm drauf einigen. Die neue KI Verordnung ist mehr als eine Pflicht. ist deine Chancen. Ja, die Kompetenzschulung nach Artikel 4 ist wichtig für deine Rechtssicherheit bei
20:43 der Nutzung von KI Tools im Job. Unsere von Rechtsanwälten mitentwickelte Schulung auf snipkey.de zeigt dir aber auch, wie KI zu deiner Superpower wird. Erne die Grundlagen, agiere sicher und
20:54 entdecke neue Möglichkeiten. Jetzt starten auf snipgy.de. Was zu vermeiden ist, ist eine geheime Explosion von Intelligenz. Ja, also sowohl Open AI als auch Antropic haben ja das Ziel
21:10 herausgegeben, dass sie eigentlich sich selber abschaffen möchten als Entwicklerinnen, Entwickler, sondern die KI soll das dann weiterentwickeln, also diese diesen Loop, den wir am Anfang
21:18 besprochen hatten. Aber wenn das Ganze irgendwo im Geheimen stattfindet, dann kann das schon ein großes Problem sein und die Aufgabe von Regierung sollte eben auch sein, drauf zu achten, dass es
21:29 nicht passiert. Ja, weil potenziell with great power comes great responsibility. Ja, und wenn es halt wirklich irgendein unabhängiges Lab in irgendeinem Land entwickelt,
21:41 dann kann diese Entity halt theoretisch un, also unüberwacht irgendwie dann auch die Welt übernehmen, ne? Wenn ich als ein Unternehmen alle Systeme dieser Welt
21:54 infiltrieren kann und auf einmal mit mir gleichstellen kann, dann ist es natürlich ist, ich weiß nicht, wie hypothetisch die Gefahr ist. Ja, also ähm, aber ich sag mal, wenn man in
22:04 irgendwelchen bösen Action Hero Filmen denkt, ähm kann ist sowas zumindest nicht unmöglich. Und äh es gibt das Buch hat mir auch schon mal zu gesprochen. Ähm heißt es Life 3.0 oder Human 3.0.
22:19 Ähm gibt's von ähm blenden wir gleich noch mal ein. Äh ist auf jeden Fall ein sehr, sehr sehr spannendes Buch, wo es genau um diese ganzen möglichen Szenarien auch geht und
22:31 auch das ganze Alignment Thema und die Intro zu diesem Buch ist genauso ein Fall, wo so ein Lab quasi zu einer HI entwickelt und wie dann dieses Lab quasi die ganze Welt sozusagen unter sich äh
22:44 ja unter sich unterjocht unterjocht sozusagen aufgrund der der Fähigkeiten, die sie dadurch bekommen. Und das ist eben dieser Punkt, wo ja die beiden Lager sich auch einigen, dass
22:45 Fazit: Mehr Miteinander statt Lagerbildung
22:54 sowas halt einfach nicht passieren darf. Und was ich persönlich besonders schön finde daran, dass die jetzt sich mal zusammengesetzt haben und das rausgebracht haben, ist genau dieses
23:03 Thema. Man kann anderer Meinung sein, ja, man kann glauben, dass die anderen irgendwie auf dem auf der falschen Pferte sind, aber trotzdem macht es Sinn, sich mal hinzusetzen, zu schauen,
23:13 wo sind wir eigentlich nicht anderer Meinung, wo stimmen wir eigentlich überein und dann auch anderen zu helfen, zu verstehen, wo die Unterschiede sind und sich nicht zu bekriegen und sagen,
23:24 die anderen sind doof, den rede ich nicht, sondern genau das zu Neudeutsch embracen. Wir setzen uns hin, wir wissen, wir sind anderer Meinung, aber wir versuchen auch ganz gezielt Punkte
23:34 zu finden, wo wir ein Agreement haben. Und ich glaube, das könnte uns wahrscheinlich als Gesellschaft generell ganz gut tun, das so das so eher zur Hand haben, als wie es vielleicht
23:43 teilweise jetzt gerade hand haben. Wir sollten auf jeden Fall mehr miteinander reden, untereinander zuhören. Eigentlich ist es ein schönes Schlusswort, aber ich glaube vielleicht
23:54 sprechen wir noch paar Minuten dazu, wie wir das ganze sehen. Auf welcher Seite bist du? Bist du AI 2027 Camp und in 3 Jahren gibt's die AGI, die potenziale Probleme der Welt löst oder
24:00 Unsere Meinung: Verliert Europa den Anschluss?
24:07 Riesenprobleme schafft oder bist du eher in dem Camp? Es ist eine ganz normale Technologie. Das dauert alles noch 20 Jahre, wo er wird sich nichts groß verändern können. Ist sehr gute Frage. Ähm,
24:20 ich glaube technologisch bin ich ein bisschen bullischer als dieses Es dauert alles noch 20 Jahre. Ich glaube technologisch passiert sehr sehr viel. Ähm und wir sehen ja auch, dass in
24:30 anderen Ecken der Welt da wahnsinnig viel Energie und Investment reinfließt. Ich sehe die Gefahr, dass wir uns Stück weit selber im Weg stehen, ja, und langsamer sind als andere Teile der
24:43 Welt, um solche Sachen zu adaptieren, um unseren Kopf rumzuwickeln, um da mitzumachen. Ähm und das kann dann auf der einen Seite vielleicht ein bisschen Stress aus der
24:54 Gesellschaft nehmen, auf der anderen Seite aber auch den ganzen europäischen Kontinent ziemlich abhängen. Und daher würde ich mir eigentlich ein bisschen mehr Offenheit in Europa wünschen, würde
25:03 mir ja auch mehr Engagement von der Politik wünschen und auch mehr Investment wünschen. Gleichzeitig, wenn ich mir an Tagen, wo ich vielleicht ein bisschen klarer denke, die Investments
25:14 anschauen, überlege, okay, um das alles zurückzuzahlen, was muss da ökonomisch eigentlich passieren? Stelle ich mir schon die Frage, ob wir die Ressourcen, wir haben, richtig einsetzen, wenn wir
25:26 die ganze Zeit nur irgendwelche Standbilder in Grock zu Videos animieren und ich weiß nicht, wie viel Energie verbrauchen. Also, ich kann dir gar keine klare Antwort geben. Ich mir
25:35 andere zwischen den Camps ich sagen, wie geht's dir? Ich glaube, je nachdem welchen Bereich ich mir anschaue, bin ich glaube ich manchmal mehr manchmal auf der anderen Seite. Also,
25:46 ich habe keine Panik, dass in drei Jahren die Welt irgendwie äh von der KI übernommen wird und wir alle unterjocht werden, weil a haben wir bisher als Menschen, glaube
25:56 ich, immer ganz gut Probleme oder Lösung gefunden zu Problemen, die aufgekommen sind. Ich bin nicht in dem Fast Takeoff Camp. Also, ich glaube ich, wir sehen es
26:07 ja jetzt auch, wie die Modelle irgendwie Schritt für Schritt immer besser werden. Gemini 3 viel besser als alle anderen Modelle. Gem 3 ist aber trotzdem kein AGI, was jetzt übermorgen die Welt
26:17 übernimmt und ich glaube schon, ich habe diese Schritte, wie schnell viel besser diese Modelle werden, da bin ich auf dem AI 2027 Camp, also dass wir eine deutliche Verbesserung in der kurzen
26:31 Zeit der Modelle sehen werden. Aber ich glaube, dass wir immer noch an jeder Stelle genug Zeit haben zu reflektieren und einzuordnen und die Gefahren zu erkennen, die das nächste Modell
26:42 vielleicht alles mit sich bringt, sodass wir glaube ich schon die Möglichkeit haben an dem gewissen Punkt einzuschreiten und zu sagen, okay, wir werden jetzt ab jetzt müssen wir aufpassen,
26:52 was das Thema Einfluss auf unsere Gesellschaft angeht, kann ich mir schon vorstellen, dass es kurzfristig, also ich bin mittel bis langfristig sehr positiv eingestellt. Ich kann mir aber
27:05 schon vorstellen, ich jetzt die Fähigkeiten dieser ganzen Modelle sehe, nicht, dass die Modelle uns alle umbringen, äh weil sie irgendwelche Paperclips erstellen.
27:13 Klippi schlägt zurück. Genau. Sondern weil glaube ich ganz viele nicht komplette Jobs, aber Aufgaben aus Jobs mittlerweile KI einfach besser kann und bis es eine gesellschaft ankommt, dauert
27:27 das schon noch ein Moment, aber es wird ankommen. Dann ist die Frage, schaffen es die Leute ihre Rolle anders zu definieren, ihre Aufgaben zu definieren, sich damit auseinandersetzen, die Sachen
27:37 zu lernen, weil wenn nicht, dann glaube ich schon, dass es kurzfristig einen relativ starken Einfluss auf den Arbeitsmarkt haben kann für gewisse Jobs und Berufe, was dann natürlich wieder
27:48 ganz an der Gesellschaft die Folgen mit sich hat. Antik KI ähm Arbeitslosigkeit, Rückgang der Wirtschaft, was ja im Endeffekt dann auch wieder ein riesen Problem wird. Es glaube es muss
28:02 potenziell die Frage ist, wo wo bleibt denn der ganze Wert am Ende hängen? Ja, und wenn so wie es aktuell aussieht, geht der halt zu den ganzen KI Companys, die hal die Modelle haben, die halt die
28:13 Anwendung irgendwie entwickeln teilweise und muss es dann vielleicht irgendwie ein potenzielles ja Umverteilungsmechanismus geben, ne? Also nicht, dass alle Leute jetzt alles
28:22 umsonst bekommen und nicht mehr arbeiten müssen. Wer weiß im beste wird so viel Wert geschaffen durch die Modelle, dass wir dass wir alle eben halt potenziell nicht mehr arbeiten müssen oder weniger
28:32 arbeiten müssen oder wie auch immer. Aber ich glaube, es muss irgendein oder es wird irgendein Mechanismus geben müssen, um diese diese Veränderung in der Gesellschaft und den
28:43 den potenziell negativen Einfluss auf gewisse Gesellschaftsgruppen und Berufe irgendwo auszugleichen. Ich habe die Lösung nicht dafür. Ähm und das kann tatsächlich mal nach den nächsten 4 F
28:55 Jahren schon passieren. Ähm auch wenn es dann noch kein AGI gibt. Allein schon die Fähigkeiten, die KI heute hat und wir sehen das ja jeden Tag hat den Einfluss schon in den nächsten 4 F
29:05 Jahren dann massiven Einfluss zu haben und dafür müssen wir irgendwie Lösung finden. Ja, Teil der Lösung ist schon Bildung. Das machen wir ja beide. Sind beide irgendwie unterwegs in dem Bereich. Äh
29:15 und das ist auch ehrlicherweise, wenn ich jetzt mein Team frage, ist schon so ein auch ein why da zu sagen: "Hey, wir können uns nicht drauf verlassen, dass die Jobs, die es heute gibt, genauso
29:24 bleiben, wie sie vor 10 Jahren waren, sondern und das ist auch Aufgabe eines jeden einzelnes, eines jeden Individiums sich darum zu kümmern. Kann sich dich hinstellen, sagen lieber Start, lass
29:34 Wissen runter regnen und und sag mir Bescheid, was ich zu tun habe oder rette mich." glaube ich auch ein bisschen an die also natürlich einerseits auf an die Mechanismen, die Menschen helfen
29:44 dahinzukommen, aber andererseits auch an die ja persönliche Verantwortung alles jeden. Kann ich herprozentig unterschreiben. Das Traurige ist, glaube ich, nicht unsere Podcast Hörer und Hörerin, die
29:55 hören den Podcast ja auch, weil sie irgendwie sich selbst weiterentwickeln wollen, aber ich glaube einfach, dass leider sehr viele Menschen so im Kopf haben, der Start muss sich halt um mich
30:04 kümmern. Ähm und äh zu wenig Leute haben, glaube ich, das Mindset, continuous Learning, Lifelong Learning, dass man sich immer weiterentwickeln muss, neue Sachen annehmen muss und ja
30:18 damit wachsen muss und nicht sagen kann, so jetzt habe ich irgendwie meine Ausbildung oder meinen Uniabschluss gemacht und den Rest meines Lebens kann ich jetzt die Sachen genauso
30:26 weitermachen, wie ich sie damals gelernt habe. Und ist halt auch eine riesen Chance aus meiner Sicht, ne, wenn du halt irgendwas gelernt hast, worauf du eigentlich keine Lust hast, aber dich
30:32 drauf eingestellt hast, dass die nächsten 20, 30 Jahre zu machen und auch gar kein gar keine Horizont gesehen hast, da rauszukommen, dann ist das jetzt schon eine sehr spannende und
30:42 einmalige Zeit aus meiner Sicht, weil du halt genau das tun kannst. So, du kannst dich hinsetzen und du hast letzt mal erzählt, du hast mir jetzt in der Pause gezeigt hier dein Cover Jens hat sich
30:51 irgendwie ein eigenes Betriebssystem gebaut. Jetzt wüsste ich nicht, warum sich hier dein eigenes Betriebssystem baut, aber du kannst ja auch alles andere mögliche
30:57 bauen. Kannst dich hinsetzen und sagen, hier liebe KI, bau mir das. Das war vor 5 Jahren, vor selbst vor drei Jahren, selbst vor ein Jahr war das nicht möglich. Auf einmal ist es möglich
31:06 und wenn dich damit beschäftigst, kannst du das für dich nutzen. Ja, das meinste Thema. Das ist äh ja, ich glaube, da haben die Amerikaner und ähm wahrscheinlich auch die Chinesen
31:17 äh schon irgendwie ein bisschen anderes Mindset als wir und das ist, glaube ich, auch was, was wir alle versuchen müssen in die Gesellschaft zu treiben, vom Start aus, von den Schulen, vom
31:27 Unisystem, von den Podcastern und anderen Educatorn dieser Welt. Ähm, weil ohne Veränderung ähm wird's auf jeden Fall nicht gehen. Diskutiert gerne uns und wir freuen mit
31:38 uns. Diskutiert gerne mit uns. Wir freuen uns drauf. Schreibt uns Kommentare. Folgt uns gerne auf TikTok. Wir müssen die 1000 Follower knacken, damit wir auch den Podcast verlinken können.
31:49 Sprecht über uns. Wir sehen uns nächste Woche. Danke für eure Aufmerksamkeit. Tschü tschü. Cointelligence ist eine Produktion von The Key Academy in Zusammenarbeit mit
31:59 Snipkey. Produziert bei Studio Co in Berlin. Produktion und Regie. Christina Manuele, Fuat Sebadli und Elias Frobel. Creative Director Lukas Schelter. Redaktion und Moderation Benjamin
32:12 Wüstenhagen und Moritz Heininger. Abonniere uns auf Spotify, Apple Podcasts oder YouTube. Danke fürs Zuhören.