Co-Intelligence

// Transkript

#26: KI: Schlauer als wir? - Die nahe Zukunft der künstlichen Intelligenz

Vollständiges Transkript dieser Episode des Co-Intelligence Podcasts. 7.306 Wörter. · Auf YouTube ansehen ↗

0:00 Einleitung: Die Zukunft der KI

0:00 Unternehmen wie Meta nicht jeden Cent, den die in Free Cashflow haben, in diesen Ausbau der Infrastruktur investiert. Infrastruktur, die Personen, das ist quasi die Verantwortung ist, also ist

0:10 auch wenn es irgendwie komplett verrückt ist für uns, ne, dass jemand eine Milliarde an Gehalt kriegt, aber es ist das das rationale. Wenn man daran glaubt, dass

0:18 Wann ist die KI schlauer als wir Menschen?

0:19 man AGI entwickeln kann, dann muss ich eigentlich als CEO einer dieser Tag Companies genau das tun, um dieses Rennen zu gewinnen.

0:32 Willkommen zurück zu Cointelligence, eurem KI Lern Podcast mit Moritz Heiniger und wir wenhagen. Heute geht's noch mehr um die Zukunft als sonst, denn wir haben uns mit

0:43 Zukunftsszenarien von künstlicher Intelligenz beschäftigt und haben super interessante Dinge gefunden. Ja, mal eine ganz andere Folge als sonst. Sonst geht's ja darum, was zu

0:48 Was passiert, wenn KI uns übertrifft?

0:54 lernen über KI Konzepte, neue Tools, neue Themen und heute ist es eher so bisschen gesellschaftspolitisch, wo geht die Welt hin, wo wird die Welt in zwei oder vielleicht in drei oder

1:06 vier oder fünf Jahren stehen. Also wir schauen jetzt nicht 10, 20 Jahre in die Zukunft, weil die die Einschätzung der Experten und Expertinnen zum Thema wann ist die KI schlauer als wir Menschen und

1:19 zwar nicht nur in gewissen Aufgaben, wo sie ja heute schon schlauer ist als wir, sondern wirklich schlauer als wir Menschen. Also in der Forschung, im Wissen, ähm also in dem Finden neues

1:34 Wissens und was passiert dann und was passiert dann mit uns Menschen, was passiert mit unserer Gesellschaft, was passiert zwischen den Ländern und das sind alles sehr sehr spannende Themen.

1:45 Wir haben natürlich auch keine Glaskugel, wir sind noch keine Gesellschaftsforscher. Wir haben uns da einen Artikel zugrunde gelegt, den wir sehr sehr spannend finden. Der nennt sich AI 2020.

1:58 7, also KI 2027 und macht so ein bisschen oder schaut so ein bisschen voraus, was denn alles so passieren könnte in den nächsten zwei Jahren. Also zwei Jahre ist nicht lang und äh ja schon verrückt.

2:13 Das was du gerade eingangs gesagt hast oder beschrieben hast, wann ist KI an einem Punkt, wo es besser ist in allen möglichen Bereichen als der Mensch, wird oftmals so als AGI, als Artificial

2:24 General Intelligence beschrieben. Ähm, es gibt da keine hundertprozentige Definition, daran scheidert auch manchmal ein bisschen, aber so ungefähr along the lines heißt das, hey, AGI ist

2:34 dann erreicht, wenn die KI in allen Bereichen besser ist als der Mensch. Und da gibt's noch einige, die sagen und sich sozusagen selber weiterentwickeln, also selber weiter lernen kann und damit

2:46 die eben exponentiell besser wird. Und das Rennen um AGI ist heiß. Sam Ort Mman, der Chef von Open AI, das ist die Firma, die hinter Chat GPT steht, der sagt, sie möchten AGI erreichen,

3:00 Anthropic Bills genauso erreichen. Auch Mark Zakerberg von Meta spricht da drüber. Das ist also darum geht's und die großen Unternehmen stecken Milliarden und aber Milliarden da rein,

3:09 um eben dieses Ziel zu erreichen. Und die Autoren der Studie sind ja sind da drin geübt, Zukunftsszenarien zu entwickeln. Also, die machen so Wargames, die gucken sich verschiedene

3:21 Szenarien an, schauen sich gute Szenarien an, schlechte Szenarien, schauen sich geopolitische Aspekte an, soziokultureller Aspekte und haben also der Hauptautor Daniel muss ich ja mal nachgucken,

3:34 Kukutayo wahrscheinlich ist falsch ausgesprochen, aber er hört nicht zu, wahrscheinlich hört nicht zu, richtig? Das ist sozusagen der der leitende Autor dieser Studie gewesen und der hat schon mal

3:43 eine Studie gemacht, äh wo es die sehr sehr also die die hieß What 2026 looks like, jetzt ist 2025, vielleicht auch 2026, wenn ihr es schaut, aber höchstwahrscheinlich 2025 und die war

3:56 schon sehr sehr nah an dem, was dort vorausgesagt wurde. Von daher gab's dann ziemlich großes Presseecho. Es gabt noch ein paar andere Autoren. Es gibt auch noch andere Studien, die sich

4:05 mit dem Thema AGI beschäftigen, aber wir konzentrieren uns jetzt erstmal darauf und erzählen euch mal so ein bisschen, worum es da geht. Wir haben es natürlich auch in den Shows verlinkt, sowohl die

4:13 Studie als auch noch mal ein schönes YouTube Video für diejenigen, die nicht lesen würden. Genau. Also, das YouTube Video kann ich sehr empfehlen. Äh, macht Spaß. ist

4:22 glaube ich 20 Minuten lang oder so. Also kann man sich äh schön mal morgens beim Kaffee anschauen. Ähm und äh wir gehen gleich mal so bisschen durch die verschiedenen Stufen hindurch, die quasi

4:34 da vorausgesagt werden und die verschiedenen ja Zeitpunkte, dann die technologische Entwicklung, die geopolitische Dynamik, die gesellschaftliche Disruption und die

4:43 Veränderung ähm der Wohlstandsverteilung sind so die Elemente, die da bedient werden. Und da gehen wir gleich unsere ähm Tabelle durch. Vielleicht noch mal einen Kommentar oder ein eine

4:54 zusätzliche Information zu dem Thema. Warum fließt da eigentlich gerade so viel Kohle rein, ne? Ich meine, Mark Sackerberg zahlt gerade teilweise, also der der Meta oder Facebook Gründer und

5:05 CEO zahlt teilweise einzelnen Personen über die nächsten Jahre bis zu eine Milliarde US-Dollar. Das ist komplett verrückt, wenn man passiert selbst in Eintracht Frankfurt nicht, ne?

5:16 Das passiert selbst be Eintracht Frankfurt nicht. Frankfurt ist auch besser damit Spieler zu verkaufen als einzukaufen. Aber ähm wir können nicht je jede Folge jetzt wieder Mus

5:24 Kommentare machen. Muss muss ab sofort aufhören. Jetzt kriegen wir wieder fiese und böse Kommentare unter dem unter dem Podcast. Nee, aber warum fließt da so viel Kohle rein denn? Also sobald ich

5:37 eine AGI entwickelt habe, die AGI kann auf einmal Probleme lösen, alle Probleme dieser Welt besser lösen als wir Menschen, dann habe ich damit ein Tool in der Hand, was mich zur mächtigsten

5:51 Person oder zum mächtigsten Unternehmen der Welt werden lässt, weil ich jetzt auf einmal Software Lösung bauen kann oder Medikamente erforschen, entwickeln kann, die in

6:05 allen Belangen besser sind als das, was aktuell der nächst zu mir machen kann. Das ist die wirtschaftliche Sicht. Du kannst natürlich auch sagen, ich kann dann Verteidigungs oder Angriffssysteme

6:15 bauen, die unüberwindbar sind, ja, ähm und kann dann eine riesige äh militärische Macht ausspielen. Genau. Also, wer weiß, was diese verrückten Tech Egomanen sonst noch so

6:26 vorhaben, ne? Das weiß man ja nie. Aber ich würde sag auch die die Länder sich da drauf, ne? auch die Länder. Genau. Die Frage ja immer, was das was haben die Länder? Da kommen wir auch gleich

6:34 noch zu für Kontrolle über diese AI LABs, ne? Und und wir werden sehen, dass je mächtiger diese Systeme werden, desto wahrscheinlicher und relevanter ist es, dass auf einmal die Regierung damit

6:47 kontrollieren müssen. Da ist die Frage, genau, was passiert damit? Ich würde jetzt mal ähm unterstellen oder vermuten, dass auch wenn Mark Sackerberg jetzt äh sicherlich eine sehr streitbare

6:57 Figur ist, er wahrscheinlich vor allem die Macht und das wirtschaftliche quasi im Kopf hat, aber das ist der Grund, warum die sie sagen, okay, wenn wir das erreichen, dann sind wir mächtiger als

7:09 alle anderen. manchmal so bespringen als das beschrieben als das letzte Rennen, was gewonnen werden muss oder die letzte große wirtschaftliche Schlacht, die geschlagen wird

7:17 und wenn ich die halt nicht gewinne, dann habe ich verloren und jetzt sieht man, dass ein Unternehmen wie Meta nicht jeden Cent, den die in Free Cashflow haben, in diesen Ausbau der

7:27 Infrastruktur investiert. Infrastruktur, die Personen, also Köpfe auch die Daten, die haben ja letztens Scale gekauft, Datenleveling Unternehmen für weiß nicht wie viel Milliarden, 20

7:36 Milliarden oder was? Ja. Ja, und es ist quasi die Verantwortung ist ja, also ist auch wenn es irgendwie komplett verrückt ist für uns, ne, dass jemand eine Milliarde an Gehalt kriegt auch, na klar,

7:46 irgendwie mit Stockoptionen und sonst irgendwas, aber es ist das das rationale, wenn man daran glaubt, dass man AGI entwickeln kann, dann muss ich eigentlich als CEO einer

7:57 dieser TEA Companies genau das tun, um dieses Rennen zu gewinnen. Und diese dieser Horizont hättest du vor dre Jahren Leute gefragt, auch Wissenschaftler und Forscher. Ich sag

8:07 mal vor 5 Jahren, haben alle noch gesagt, das ist ungefähr 40 Jahre weg. Ja, heute ist der Konsens eigentlich bei diesen sehr smarten Leuten, dass es vielleicht 5 Jahre weg ist oder

8:16 vielleicht noch 10 Jahre oder halt eben diese AGI 2027 Forscher, die gesagt haben, es ist 2027 schon soweit. Dann fairerweise die haben das dann im Nachhinein noch mal korrigiert und haben

8:29 gesagt, sie denken, es ist jetzt nicht 27, sondern noch mal anderthalb Jahre später, aber 28 29 ist quasi richtig fast da, ne? Und es gibt auch andere, also Mogf da,

8:40 ich weiß gar nicht was was der war irgendwas hohes bei Google, ich habe vergessen was, aber der hat auch let ist tut gerade durch alle möglichen Podcast und sagt auch, er glaubt auch, dass AGI

8:49 in 2027 oder kurz danach möglich ist. Also jetzt nicht nur einer, sondern es wirklich viele Personen, die nah in dem Thema sind, die daran glauben. Ja, ich würde sagen, lass uns auch

8:59 einfach mal in diese diesen Zeitstrahl reingehen und mal ein bisschen darüber sprechen, was hier die Vorhersage ist eben. Genau. Also diese diese Studie, was macht die? die sagt im Prinzip, die die

9:11 schauen sich fast schon auf Monatsebene die nächsten Jahre an, beschreiben, was passiert technologisch und beschreiben dann, wie wirkt sich das aus in die Dimension, die wir gerade genannt haben.

9:22 Und das krasse ist halt nicht, wie du schon sagtest, dass wir jetzt über 10 Jahre sprechen, sondern wirklich über so Monate oder Quartale. Mhm. Ähm und sie reden jetzt nicht von

9:33 Unternehmen, die es gibt, sondern haben so Proxies, aber wenn man das liest, dann sieht man schon sehr, sehr viele Parallelen. Es wirkt jetzt nicht total ausgedacht.

9:42 Ja, und das Spannende ist, dass die vorhersagen, das sind nicht einfach irgendwelche fluff vorhersagen, die nicht irgendwie messbar oder über überwachbar wären. Also theoretisch in

9:52 diesen ganzen Entwicklungen, die jetzt hier erwähnt werden, die sind vorhersagen, die kann ich aber quasi validieren, ne? Also wir können in Monaten jahr schauen, ist das so

10:03 eingetreten oder nicht das ist spannend nicht so so typ so ein fluffy Future Piece irgendwie so was könnte in 30 40 Jahren sein, sondern wirklich das passiert und das kannst du

10:13 beobachten und ein Haken dran machen. Und den Haken können wir schon mal machen an der erst an dem an der ersten Aussage, die drin steht. wird du so gesagt in 2025 26 gibt es massive

10:23 Investitionen in Come. Das heißt in Infrastruktur, äh in in Mega Cluster, was ist das? Also wahnsinnig viele Chips, die man zusammenschließt und das Spannende ist heute, dass das dieser

10:34 Artikel wurde geschrieben, bevor diese ganzen riesen Investitions Entscheidungen getroffen oder veröffentlicht wurden. Das war bevor Meta gesagt hat, die bauen ein GPU

10:47 Cluster, was so groß ist, fast so groß ist wie Manhattan. War bevor May diese riesen Ankündigung gemacht hat, vor diesen 200.000 1000 Chipkleister von Grock von X

10:57 und das muss man quasi berücksichtigen, wenn man sich diesen Artikel anschaut, weil klar jetzt, wenn ich jetzt die Vorhersage machen würde, Moritz Hein vorhersage, es wird ich sage vor, dass

11:06 die großen Apps viel investieren werden in die Infrastruktur. Ja, toll. Ist ja jetzt schon so, aber das war vorher so. Und das ist quasi, wie du sagst, die erste Sache, wo wir jetzt schon den

11:14 Haken dran machen können, dass das passiert und sagen halt mit dieser Investition gibt's auch die ersten KI Mitarbeitenden, die so Teilaufgaben übernehmen, sei es jetzt in Code, in

11:25 Design oder in Marketing. Auch da würde ich ein Hak hinter machen. Ich brauchen nur unser Unternehmen anschauen bei Snipkey. Ihr werdet das ähnlich machen. Wir haben KI

11:35 Mitarbeitende, wenn man das so sagen möchte, ne? Und wir behandeln sozusagen neue Agenten und Systeme wie neue Mitarbeitende. Wir definieren erstmal, was ist die Aufgabenbeschreibung, eine

11:45 Jobbeschreibung, dann wird die KI eingestellt, dann wird die geonboardet und trainiert sozusagen, dann kriegt die Feedback und wird über Zeit besser und dann kriegt ihr auch ein Pullover von

11:55 euch so ein so ein so ein Snipkey Hoodie, die hat kriegt jain, denn z.B. Unser äh Voicebot, der in den Meetings ist, der Snippy, der hat ein Bild, der hat einen Stift, der sieht quasi ist Snipky

12:09 gebrandet. Ja. Und und das passiert immer mehr. Also diese diese erste Vorhersage, das ist immer mehr KI Mitarbeiter Mitarbeiterin gibt für gewisse Aufgabenbereiche. Ich glaub, da

12:19 können wir auch heute schon Haken dran machen. Das ist nicht jedes Unternehmen soweit, aber es ist so dass eher die Mitarbeitenden jeweils ihre kleinen KI Praktikanten haben. Ja. Ja.

12:29 Ja. selbst nimm GPT ist ein GPT ist, wenn ich es gut aufsetze ist es wie ein kleiner Praktikant oder Praktikantin, die mir wiederkehrende Aufgaben löst, ja, die ich heute vorher selbst gemacht

12:41 habe, die jetzt quasi die KI für mich übernimmt und das ist noch gar kein Agentensystem oder irgendwas, ne? Da sind wir noch weit weg. Überfordert vom KI Dschungel und täglich

12:49 neuen Tools. Snipkey macht Schluss damit. Als Deutschland größte KI Lernplattform zeigen wir dir in kurzen Mikrovide Tutorials, wie du KI wirklich anwendest. Schritt für Schritt zum

13:00 Nachbauen für Anfänger und Profis. Entdecke Lernfile, hol dir deine Zertifikate, tausch dich in unserer Community aus und starte jetzt auf snipkey.de und mache KI zu deinem

13:09 Vorteil. Nicht den Anschluss verlieren. Snipkey gibt's übrigens auch für ganze Teams und Unternehmen. Und dann in im Papier wird die geopolitische Dynamik so beschrieben,

13:18 dass man sagt, es gibt jetzt ein Beginn des Rüstungsrennen zwischen den USA und China. Und die EU probiert so ein bisschen äh hinterherzukommen aus einer Balance aus

13:29 Regulierung und Förderung und auch da können wir ein Haken machen, denn erst just vor wenigen Wochen hat Trump die Regulierung, die beiden eingeführt hat, in den USA per Executive Order sozusagen

13:41 ausgelöscht und gesagt: "Hey, wenn wir dieses Rennen gewinnen wollen gegen China, vor allen Dingen, dann dürfen wir nicht so viel regulieren." Und in die gleiche, also in den gleichen

13:51 Tonen blasen auch die großen WCs. Also so ein Mark and Reason meinte schon vor einiger Zeit, wir müssen das Rennen gegen China gewinnen und deswegen müssen wir hier unsere Firmen unterstützen. Und

14:02 du siehst halt, dass diese Tech Leute wahnsinnig viel Einfluss haben auf die US-Regierung mit JD Vans, mit Peter Teel, auch mit wie heißt er mit Sex, Namen vergessen, der

14:13 David Sex, der KI und Krypto Zar auch mit mitgründer von PayPal, ne? Ja. Und ich meine der Ton wird immer schärfer auch zwischen den USA und diese ganzen Export Controls,

14:27 richtig? Ja, klar. Export Controls auf Chips, dass Nvidia gar nicht die neuesten Tipps nach China senden darf, sondern nur die älteren Versionen. Genau. Und ja, also die die Stimmung

14:38 wird immer, ich sag mal, rauer und man sieht, wie beide, also auch sowas wie Andre ein amerikanisches AI Startup, was ganz vielen Themen, also Rüstungsunternehmen im Prinzip, aber

14:51 auch was Palantier macht und so weiter und so fort, was ja eher teilweise für die Kontrolle der eigenen Bevölkerung genutzt wird, aber man sieht quasi, dass die dass es ein Wettrüsten gibt, weil

15:01 natürlich die Nation die Nation, die zuerst AGI hat ja, ist genau wie mit dem Unternehmen, was irgendwie zuerst AGI hat, wird den Rest der Welt einfach dominieren in jeder Hinsicht, ne? Und

15:12 deswegen ist es so wichtig für diese große Nation da Rennen zu gewinnen. Und das Rennen ist tatsächlich zwischen den USA und China und Europa läuft da aktuell noch so ein bisschen mit, ob die

15:25 jemals richtig in das Rennen einsteigen. Sind wir glaube ich ein bisschen skeptisch. Ich würde's ja hoffen, weil ich mag ja Europa. Ich auch. Ich auch. Ja, also mich zieht

15:37 nichts in die USA, mich zieht nichts nach China, äh höchstens mal für den Urlaub und äh von daher, na ja, wer weiß, es gibt ja auch ein Szenario, dass am Ende die KI alle

15:49 reguliert und regiert und wir quasi wie in einem schönen Zoo happily ever bis zum Rest unseres Lebens leben. Aber das ist kein kein Thema bei AR 2027. Und ich würde sagen, wir springen noch mal

16:01 zurück und zwar zum ganzen Thema gesellschaftspolitische oder gesellschaftliche Disruption und das ist glaube ich was wir potenziell Mittel also hier ist die Vorsage auch

16:12 wieder 25 bis Anfang 26 sehen ist, dass das erste Jobverlagerung geben wird in insbesondere in quasi wissensiven Bereichen und das sehen wir auch jetzt schon. Also, ich habe gestern oder so oder

16:26 vorgestern äh ich weiß gar nicht was Handelsblatt, aber gab's eine schöne Grafik und da wurde gezeigt, wie gerade die Jobsituation ist von Menschen, die gerade ihr ein Abschluss machen, also

16:35 gerade aus der aus der Unicom und ersten Job suchen und die ist so bescheiden wie lange nicht mehr. Ich glaube, richtig gelesen habe, dass es gibt 45% in Q1 25 gab es 45%

16:49 weniger. Ich weiß nicht, ob es erst Jobinstellung waren oder offene Jobs für Job Anfänger. Also irgend also eine total verrückte Zeit als das der Medi der letzten vier Jahre. Ja, also ist total crazy

17:03 und ich habe auch eine anekdonische Evidenz, aber gestern bin ich mit dem Freund, der hat ein Sohn, der hat ein Superabschluss in Maßrich gemacht und sucht gerade Praktika.

17:12 Ja. Und probiert man Abschluss in Maastricht kriegt er kein Praktikum. Ja, und das ist tatsächlich ein Problem, ne, weil die KI jetzt die Aufgaben macht, die sonst die Praktikanten machen,

17:21 richtig? Ja, und ähm das ist gesellschaftlich ein Thema, was irgendwie gelöst werden muss. Ich glaube, als Unternehmen ist es auch ein bisschen, ich sag mal, kurzsichtig

17:31 zu sagen, wir ersetzen diese ganzen Positionen jetzt nur noch mit KI, weil irgendwann machst du mir keine Leute mehr nach und ich brauche ja irgendwie auch eine funktionierende Management

17:41 Pyramide und wenn am Ende meine Leute in Rente gehen und ich keine nach kein Nachwuchs habe, aber es, wenn du halt 10 Jahre ne Zeit hast und jetzt halt dein dein EBIT optimierst oder was? Na ja, also

17:52 dann haben wir noch das Thema Wohlstandsverteilung. Ähm, also der Wohlstandsvorteil schreiben die Autoren, ist in den Regionen, die einen starken AI Zugang haben.

18:02 Ähm, glaube, das sieht man noch nicht so stark, aber wo man es halt schon sehen kann, ist das, was du gerade sagtest, wenn jetzt ein Meter bis zu einer Milliarde Euro an Gehalt für eine Person

18:11 ausgibt, dann hast du halt schon mal eine krasse Verteilung dorthin, wo einfach diese Menschen sind. Man sieht jetzt auch am Silicon Valley, San Francisco ist zurück. Ja,

18:21 nachdem es unter Covid gelitten hat, aber alle, die irgendwas mit AI Startups machen, pilgern zur Zeit nach San Francisco und du siehst, dass natürlich auch AI gerade bei den Startups

18:32 viele Millionäre, zumindest mal Papiermillionäre und Papiermilliardäre in kürzer Zeit schafft wie sonst kaum. Also der anschaust, wie die Bewertung nach oben schnellen von

18:40 hier die Firma von Mira Murati, das war die CTO von Open AI. Mhm. Die hat eine Seedrunde auf einer Bewertung von 10 Milliarden gemacht. Na, 2 Milliarden auf 10 Milliarden

18:50 irgendwie, ne? Also total verrückt. Okay. Interessanterweise war das wohl ein der wenigen KI Kampanes, bei der es Max Sacherberg nicht geschafft hat, auch mit Milliarden angeboten für die für die

19:03 Mitarbeiter die Mitarbeiter zu klauen. Also, da sind wohl da arbeiten wohl noch relativ viele Missionaries, die quasi aufgrund der Sache da dran sind und nicht Mercenaries, also die, die es einfach

19:15 nur für die Kohle machen. Ja. Ähm, fairerweise werden die da auch alle nicht schlecht verdienen und die werden auf Papier auch alle schon Multimillionäre sein, so dass wenn man

19:25 quasi keine finanziell ohnehin schon ausgesorgt hat, ähm vielleicht irgendwann der Wert des Geldes abnimmt und äh der Wert der Moral und der Ziele ein bisschen steigt, aber ja, ähm man

19:36 sieht, dass die Länder, die einfach da weit vorne dran sind äh einfach ein größeren Wohlstandswachstum haben. Was man natürlich beachten muss, ist so ein bisschen, wo ist dieser

19:47 Wohlstandswachstum, wenn auch in diesen Ländern dann eben die jungen Leute nicht mehr nachkommen und es einfach massives Unterschied gibt zwischen den Unternehmen und Menschen, die die KI

19:55 kontrollieren und den Leuten, die halt dadurch im Endeffekt benachteiligt sind, weil sie abgehängt werden, muss man halt da natürlich noch mal überlegen ganz gesellschaftlich, wie machst du das mit

20:06 einer Umverteilung? Muss eine eher geben, ja, muss es ein bedingungsloses Grundeinkommen oder was? Also sind keine einfachen Antworten, ne? oder keine sind schwere Fragen mit keine einfachen

20:16 Antworten. Jetzt überspringen wir so ein paar Monate und sind dann schon im März 2027, also von heute was ist anderthalb Jahre. Mhm. Ähm und da sagen die Autoren voraus, da

20:28 gibt's den ersten Superhuman Coder, also eine KI, die besser, schneller, kreativer programmiert als jeder Mensch. Halte ich jetzt ehrlicherweise nicht für super abwägig.

20:39 Ja, weil heute mit dem ganzen Thema Vipe Coding auch mit den Möglichkeiten, die du heute schon Curser hast oder jetzt gerade in Gitub Spark ist noch nicht so gut wie ein Mensch,

20:50 aber ein guter Mensch kann damit deutlich besser werden. Ja, und ich haben wir letzte Woche über GPT5 gesprochen, was GPT5 Shot entwickeln kann als mit einem einzigen Prompt und

21:01 äh bei, ich sag mal vielen Standardaufgaben irgendwie so Codebased Refacturing und sowas ist KI schon besser und schneller und günstiger als der Mensch. St Amazon hat mal gesagt,

21:13 dass sie keine Ahnung 215 000 Mann/ Fraustunden irgendwie durch eine KI ersetzt haben, die irgendwelche Java Geschichten glaube ich auf aktualisiert hat, aber ja vorhersage ist es 2027

21:27 irgendein Unternehmen eine KI hat, die besser, schneller kreativer ist als jeder Mensch und das hört im im Bereich des Programmierens. Im Programmieren. Genau. Das heißt, die

21:38 haben jetzt ein Tool an der Hand. was ja unendlich skalierbar ist und mit der Rechenpower, die wir angesprochen haben, auf einmal Sachen machen kann, da kommt kein Mensch mehr hinterher. K

21:49 im Prinzip jeder Software programmieren, nachbauen innerhalb von Monaten, Wochen, Tagen. Genau. Und dann sind wir wieder im geopolitischen Thema. Was passiert denn

22:02 dann? Ja, also wenn ich jetzt die USA bin oder China bin, dann will ich ja nicht, dass diese Fähigkeiten in die Hand meines Wettbewerbs kommen. Unternehmen, was es entwickelt will das

22:15 natürlich nicht, aber die USA will auf jeden Fall vermeiden, dass die Chinesen, wenn sofern die USA sind, die es quasi zuerst entwickeln, die Möglichkeit haben, auf einmal auf Superhuman Level

22:27 Software zu schreiben, weil diese Software ja nicht nur für irgendwie schöne bunte Apps entwickelt werden kann, sondern eben auch für Angriffsysteme, Drohnenschwärme.

22:35 Drohnenschwärme. Ja, also ähm von daher ist die Vorhersage von diesem AI 2027, dass eben die beiden Länder sich immer mehr exklusiven Rechte an diesen Systemen, an diesen Modellen nutzen und

22:49 die Exportkontrollen sich immer weiter verschärfen, was übrigens auch was ist, was wir wieder quasi überwachen können am Markt, ne? Das sind auch keine äh keine wilden irgendwie Hypothesen, die

22:59 sich nicht prüfen lassen. Wir sehen jetzt schon, dass die Exportkontrollen immer schärfer werden und äh ja, wir gehen davon aus, dass es dann noch mehr wird und wir sehen es ja auch in anderen

23:07 Bereichen. Also, wenn ein Rheinmetall morgen irgendwie den Megapanzer baut, dann erlaubt Deutschland auch nicht, dass der nach Nordkorea exportiert werden kann. Ja, auch da probieren natürlich

23:18 Regierung die Finger drauf zu halten. Das wird natürlich jetzt bei dem KI Thema noch noch mal mehr. Äh und beim Thema gesellschaftliche Disruption sagen äh die Autoren der Studie für den März

23:29 2027 voraus, dass 30 bis 50% aller Jobs im Bereich IT und Digitalwirtschaft ähm automatisiert sein werden und die Umsch sprich ist dafür keine Menschen mehr benötigt, ne? Das kann man relativ

23:45 drastisch aus ausdrücken. Genau. 30 bis 50% der Jobs der gut bezahlten White Color, Homeoffice oder Büro Jobs mit Frucht mit Früchekorb sind dann einfach absol. Genau. Und weitere

23:59 Vorhersage ist das halt klar, die die Länder reagieren werden, die Unternehmen reagieren werden, vor allem aber die Länder, um die Leute quasi darauf vorzubereiten, aber es gar nicht

24:10 schaffen, die Menschen schnell genug umzuschulen und den Leuten schnell genug beizubringen, was das eigentlich bedeutet, wie die neue Welt aussieht, wie die KI funktioniert, was sie damit

24:20 machen können, welche Stärken sie haben. Ja, und es wird fast alle treffen, außer die Hörer von unserem Podcast, die sich heute anderthalb Jahre, bevor wir an diesem Punkt sind, schon mit dem Thema

24:31 auseinandersetzen, was unglaublich wichtig ist. Also deshalb machen wir den Podcast auch nicht nur, weil wir das Thema so spannend finden, sondern weil wir auch möchten, dass ihr darauf vorbereitet

24:43 seid und heute ihr könnt heute den Unterschied machen, deswegen bleibt dran am Podcast und ähm ja, wir versuchen auch gleich wieder gute Laune zu verbreiten. Passion, aber gut, wir sind

24:53 ja auch beide Teil sozusagen des Umschulungssystems, auch wenn wir nicht im System sind, aber ja, stimmt. Ja, mal gucken, ob wir auch überlastet werden oder ob wir es

25:01 irgendwie schaffen, die ganz Deutschland umzuschulen. K kommt nicht irgendwann. Sie ist schon da. Bist du bereit? Mit der Key Academy machst du dich fit für die Zukunft. Onlinekurse zur KI, digitaler

25:13 Zusammenarbeit, Leadership, praxisnah, flexibel, IHAK zertifiziert. Die Keypunkt Academy für alle, die mitgestalten wollen. Ähm, dann natürlich bei der Wohlstandsverteilung sieht man dann wird

25:23 man dann mehr sehen, dass sich der Wohlstand noch stärker in Richtung dort verschiebt, wo einfach starke AI für eine Nation sind. auch spannend ist, wenn man sich anguckt, was die Saudis

25:33 und auch die Golfstaaten in dieses Thema investieren. Die klar, die kaufen sich nach wie vor irgendwie teure Luxus Sachen und bauen sich hohe Hochhäuser und so oder die kaufen auch teure

25:43 Fußballspieler, das auch und verschenken Flugzeuge und so, aber sie investieren auch Milliarden und aber Milliarden des guten Ölgeldes in Rechenzentren, weil sie da natürlich auch mitspielen

25:53 wollen. Ja, also das Thema Daten sind das neue ähm Öl, was man schon seit Jahren sagt, zeigt sich da jetzt jemand verstanden? Irgendwann ist kann man kommt weniger Öl aus dem Boden und die

26:04 Wirtschaft will weniger abhängig von Öl, also brauchen sie irgendeinen anderen Weg äh Geld zu verdienen und da ist einfach die Hypothese, dass die Kapitalrenditen auf so IT-infrastruktur

26:13 Investitionen, die immer mehr und immer mehr werden, einfach äh extrem hoch ist und das haben die verstanden und deswegen waren die da eben Ökosystem und Infrastruktur eben auf und äh auch das

26:23 ist quasi sehr gut ähm ja überwachbar, überprüfbar sozusagen diese Vorhersagen. würde ich sagen, springen mal paar Monate weiter nach vorne oder wir sind dann im August.

26:33 August 2027, das ist ziemlich genau. Die Folge kommt wahrscheinlich im September raus. Ähm ziemlich genau, 2 Jahre von heute in die Zukunft und da ist die Voraussage, dass wir dann ein super

26:48 Human AI Researcher haben. Was ist das? Das ist ein äh ein KI System, was eigenständig Forschung betreibt und das ganze auf Nobelpreisniveau. Das heißt, ich habe jetzt nicht mehr nur noch

27:03 Encoder, sondern ich habe eine KI, die sagt: "Mensch, ich würde immer gerne folgendes Thema befor und rennt dann los." Dann ist natürlich die Frage, wie viel Forschungen kann ich

27:13 machen ohne wirkliche Reall life Experimente? Aber ich glaube wahnsinnig viel, also extrem viel, was äh was in der Physik, auch in der Chemie äh auch äh auch in der Medizin stattfindet, wird

27:25 ja heute schon größtenteils Computergestützt gemacht. Und da kann ich mir vorstellen, gibt's auf einmal eine KI, die losrennt und selber Dinge beforscht ohne irgendein Mensch, der

27:35 dazwischen steht oder irgendwas verhindert. Ja, und das kann Medikamente sein, das kann quasi was positives sein, das kann irgendwie die Heilung von den großen Krankheiten sein, das können

27:46 Waffensysteme sein, das kann alles sein, Energiethemen. Ja, vielleicht finde ich ja eine Möglichkeit, wie ich dann doch äh das Feld stabilisieren kann, damit ähm Kernfusion funktioniert.

27:56 Ja, und da ist dann aber dann auch die Frage wieder und das ist auch so bisschen die Prognose, wenn wir jetzt ein Unternehmen haben, ja, und dass es im Prinzip alles kontrolliert, was heißt

28:06 es denn? Wir haben auf einmal ein Unternehmen oder vielleicht ein Staat, der kann für sich die Energieematik lösen. Der hat für sich für seine Bevölkerung ähm die quasi Heilmittel für

28:20 Krebs und so weiter. Ja, der hat aber auch ganz viele Sachen, die kein anderer kein anderes Unternehmen, kein anderer Staat auf dieser Welt haben. Und die Hypothese ist, dass es

28:30 dann quasi auch erstmal alles zurückgehalten wird und überlegt wird, wie man das für sich oder für sein Land, für seine Nation maximal nutzt und dass es eben nicht in die ganze Welt

28:39 rausgetragen wird als irgendwie öffentlich als als Lösung aller Probleme, um die ganze Welt besser zu machen, sondern um sich selbst quasi ähm zu positionieren. Ja, ich meine, das ist eine, dass es

28:50 raustragen willst, andere ist auch die Frage, wie schnell kannst du das bauen? mal angenommen, du würdest jetzt eine eine Impfung gegen Krebs finden, gegen alle Krebsarten. Ja, sagst du dann,

28:58 okay, ich impfe jetzt nur erstmal alle Kinder oder wäre dann so ein Land wie Deutschland, wenn ich meine, wir haben es in der Pandemie gesehen, da gab's auch ein paar Länder, die Impfstoffe

29:06 hatten, aber da musste es erstmal relativ viel internationalen Druck geben, damit die dann auch überall verteilt wurden. Das wurde dann aber auch zu ein geopolitischen Spielen. Die

29:15 Russen hatten dann Impfstoff und haben gesagt: "Hey, wir sind hier die Kings." Und dann hatten die Europäer ein bisschen was, die Amerikaner hatten was. Also, man hat das da schon im kleinen

29:22 gesehen. Ähm ja, und das führt natürlich dazu, dass internationale Spannung steigen. Ähm, genau das bei in dem in dem Paper wird auch noch von tatsächlich diesen medizinischen äh Durchbrüchen

29:38 gesprochen, dass also einige Länder in der Lage sind, Dinge zu tun, äh über diese Forschungsmittel äh Therapien zu finden. Andere können es gar nicht bezahlen, weil sie die Kapazität

29:48 Kapazitäten der Produktion auch gar nicht haben. Ja, vor allem wird es halt einfach die, das ist auch eine Prognose hier, diese Schere zwischen Arm und Reich auf der Welt immer weiter erhöhen,

29:57 weil wenn natürlich wollen wir dann in Europa auch diese Technologien haben. Klar, wir haben sie aber nicht, weil wir haben sie nicht erfunden. Jetzt müssen wir also mit unserem Geld diese Therapien,

30:11 diese Lösung, diese Technologien bezahlen. Das heiß, es findet ein weiterer Transfer von quasi unserem Wohlstand zu den Amerikanern oder zu den Chinesen statt. Also im Prinzip alle,

30:23 die halt nicht diesen diese Durchbrüche selbst diese neuen Lösungen haben, die müssen natürlich dafür zahlen, wenn sie haben wollen, was einfach die den Unterschied zwischen dem Worth of

30:34 Nations sozusagen total erhöht und was einfach zu einer instabilen Situation führen wird oder zumindest zu einer ganz anderen ähm ja Powerdynamik zwischen den einzelnen

30:47 Ländern und Regionen. We das Spannende ist ja, dass eigentlich unser Geld heute schon viel von diesem Ausbau finanziert. Warum? Ja, wenn ich Online Werbung mache heute

30:58 in Deutschland, in Europa, ne, dann habe ich die Möglichkeit zu Google zu gehen, habe ich die Möglichkeit zu Meta zu gehen, zu Facebook oder Instagram zu gehen, WhatsApp, ne, alles ein

31:06 Unternehmen. Ähm und da gibt's nicht mehr so wahnsinnig viel Möglichkeiten. Das heißt, jeder, der heute online irgendwas verkauft, gibt ja nicht unsen Teil des Budgets an Meta oder an Alphabet.

31:20 Ja, und wir schaffen es noch nicht mal die hier zu besteuern. Genau. Und die nehmen die Kohle und investieren die in die AI Infrastruktur. Das heißt, heute zahlen wir im Prinzip schon unsere Tags.

31:28 Und auch wenn ich irgendwie meine 20 € pro Monat an Open überweise, ist das ja auch schon gewisserweise Lizenz dafür, dass ich diese Technologie nutzen kann. Ja, das wird nur noch

31:37 ja fairerweise ist irgendwo ist es ja natürlich auch fair, weil du hast ja auch den Wert daraus, aber und natürlich macht es und deswegen macht's auch jeder in unserem Fall auf Einzel Personensicht

31:48 Unternehmensicht ergibt es ja total viel Sinn. Klar, aber natürlich müssen wir überlegen, was heißt das denn, was die die Stärke der Länder angeht, ne? Und wo führt das dann in Zukunft

31:59 hin, ne? Und äh genau das wird quasi hier thematisiert. Dann geht's weiter im November. Wir sind wir sind dann also im November 2027 ein bisschen was über zwei Jahre, aber auch

32:10 nicht so wahnsinnig viel weiter. Äh und genau da gibt es dann den super intelligenten autonomen Researcher. Habe ich vielleicht gerade bisschen vorweggenommen. Erst hatte ich gesagt

32:20 den den Superhuman Air Researcher, der sozusagen eigenständig Forschung durchführt wie ein Mensch quasi so gut wie ein Mensch und jetzt zwei Monate später ist auf einmal besser als der Mensch. Genau,

32:29 er ist jetzt besser und da ist das Spannende dann, dass verschiedene Forschungsgebiete zusammengelegt werden. Also ich habe nicht nicht nur einen Researcher, der in einem Bereich

32:37 forscht, sondern der im Prinzip komplexe Systeme erforscht, Klima und Klima, Energie und so weiter. Und da sind eben einfach nur ein paar Monate dazwischen. Wir müssen uns

32:47 vorstellen, es hört sich jetzt vielleicht total crazy an, aber wenn wir uns anschauen, was in den letzten zwei Jahren passiert ist an exponentieller Entwicklung äh und wenn

32:56 man dann noch mal zwei Jahre auf diese Exponentialkurbe nach oben geht, dann ist man halt viel viel weiter und wir als Menschen kriegen es nie so richtig hin, so eine Exponentialkurbe richtig zu

33:05 verstehen. Ja, und jetzt sind auf einmal die Länder dabei, die verstehen jetzt, was da passiert. Ja, die verstehen auch was damit, was es für Gefahren gibt. Die wollen auf der einen

33:15 Seite irgendwie dieses Rennen gewinnen, auf der anderen Seite haben sie Angst, dass dass die Amerikaner am Schiss, dass die Chinesen gewinnen. Die Chinesen haben Schiss, dass die Amerikaner gewinnen

33:23 und jetzt merken sie auf einmal, dass es immer schneller geht und dass es vielleicht relativ schnell passiert, aber keiner eigentlich dafür für ein oder das andere Szenario in irgendeiner

33:33 Art und Weise vorbereitet ist. Also bekommen jetzt die Länder Panik und das ist die nächste Vorhersage. Es werden auf einmal Computer Limits verhandelt zwischen den großen Nationen,

33:45 weil die eben Angst haben, dass irgendwann diese Superinttelligenz ersteht, die vielleicht sich auch dann verselbständigt, ne? Also gar nicht mal nur, dass ein Land das bekommt und auch

33:56 kontrolliert, weil das ist ein Thema, was gleich noch kommen wird. Die Kontrolle ist ein großes Thema. Kann ich denn diese AGI, wenn ich sie irgendwann habe, kontrollieren und in die Richtung

34:07 steuern, dass sie eben die Sachen löst für mich, die ich gerne hätte, die meine Probleme löst? Eine gute AGI, die das Beste des Menschen quasi äh ja möchte oder entsteht ein AGI, die ganz eigene

34:20 Ziele hat und wir sind dann halt irgendwie im Weg. Genau. Und das ist eine reale Gefahr und aus dem Grund ist dann hier die Vorhersage, dass die Länder auf einmal Comput ähm

34:31 also Computel Limits heißt wie viel Rechenpower darf es eigentlich geben? Und die Idee ist, dass ab einer gewissen Rechenpower ich ein Punkt erreicht habe, wo ich quasi AGI entwickel, die sich dann

34:42 verselbständigen. Also sagen die Länder unter okay, was wollen wir vermeiden, also setzen wir irgendwie Limits. Das was ich was ich vielleicht im kalten Krieg an Limits hatte, als gesagt wurde,

34:51 okay, wir dürfen als Land nur so und so viele Atomsprengköpfe haben, ja, zwischen der UDSSA und den USA. Na, eine weitere Sache, die man überwachen kann, die vorher gesagt wird, ist, dass

35:01 die Spionage ähm Versuche zunehmen zwischen den Ländern, dass da immer mehr quasi rauskommt, was wir quasi auch teilweise wahrscheinlich öffentlich beobachten können.

35:12 Gibt's heute schon. Es gibt gibt eine Untersuchung letztens gelesen, dass äh Nordkorea probiert ja ganz gezielt äh nordkoreanische Mitarbeitende in Road Jobs zu vermitteln, die sich da bewerben, um

35:24 dann an Informationen ranzukommen. Wenn ich vorstelle, ja, ich habe irgendwie viele Interviews nur noch per Zoom und habe da eine AI und kann da sonst was reinsetzen, damit

35:33 auch schwierig, das zu kontrollieren. Wahrscheinlich werden wir einfach mehr Interviews in Persona wieder sehen. Ja. Ähm und das in der Wohlstandsverteilung heißt es dann noch mal konzentrierter.

35:45 Der Wohlstand konzentriert sich auf diejenigen, die AI haben. AI Clubs USA ganz vorne, China auch und in Teilen Europas in Thailand und alle anderen verlieren einfach krass an

35:56 Wettbewerbsfähigkeit. Ich Indien spielt Indien Papier keine Rolle. Würde mich auch mal interessieren, ob das wie die sich aufstellen hat Indien, also ich bin da einfach nicht

36:05 bewandert genug, aber gibt es irgendwelche großen relevanten KI Modelle aus Indien, die du kennst und irgendwie regelmäßig nutzt? Habe ich mich nicht mit beschäftigt,

36:15 ehrlicherweise, aber sie haben halt wahnsinnig viel gut ausgebildete. Ja, das wundert mich eigentlich. Ähm, aber wahrscheinlich ist es da auch wieder so, die Amerikaner haben halt so

36:24 eine hohe Anziehungskraft und ziehen halt sehr, sehr viele, sehr smarte Menschen aus äh aus Indien an, die entwickeln und ähm die sitzen wahrscheinlich viel in den amerikanischen Labs, weil da halt

36:36 einfach die Bedingungen besser sind, mehr Geld da ist, mehr Comput ist und oder sind CEO. Ja, schau sie dir an. Ja, also es sind extrem gut ausgebildete Menschen. Das ist Microsoft, Googlebischen

36:52 Background. Ja, dann noch eine Prediction für den November 27. Energiepreise sinken in führenden Ländern durch optimierte Systeme, während andere Länder einfach in

37:02 fossilen Abhängigkeiten bleiben und nach wie vor Kohle und Öl und Gas. K an, die überlegt sich, wie man irgendwie energieeffizienter arbeitet und optimiert alles und findet irgendwie

37:14 Lösungen, die dann eben den nicht zur Verfügung stehen, die eben die die KI Systeme eben nicht haben, die so smart sind. mit diesem Punkt noch mal als Reminder, wir haben

37:26 KI, die schlauer ist und Sachen erforschen kann und komplex Zusammenhange erforschen kann, die Menschen nicht mehr verstehen. Genau. Den Punkt haben wir laut der Vorhersage im November 27.

37:38 Jetzt sind wir viel weiter in der Zukunft und zwar im Dezember 27. Ein Monat weiter. Bum. Und da gibt's dann auf einmal diese Artificial Superinttelligence, die

37:47 nennen es hier ASI, vielleicht ist auch. Ja, General Super Intelligence sind verschiedene Begriffe für die gleiche Sache, die jeder ein bisschen anders definiert. Also quasi der Punkt,

38:02 wo die KI einfach uns weggelaufen ist. Die KI kann Dinge, versteht Dinge, erforscht Dinge, löst Dinge und wir können von außen zuschauen und verstehen nicht mehr, was passiert. Das ist dieser

38:15 Punkt. Genau. Und da scheidet sich dann sozusagen die Prediction einmal in global koordinierende oder auch rivalisierende Superintelligenzen, die dann entstehen. Das heißt, entweder Kooperation, das

38:29 wäre dann so das utopische Szenario, Star Trek oder eben äh das dystopische Szenario, dass es ein Machtmonopol oder vielleicht auch Machtoligopol gibt. Ähm und das Risiko einer KI gestützten

38:43 geopolitischen Dominanz entsteht. Ja, also entweder es sind so zwei Szenarien hier ist natürlich die Voraussage, ne, bisschen der Fokus zwischen den Ländern, aber auch sehr spannendes Buch, jeder

38:56 der sich für dieses Thema interessiert, ne? Ich find super spannend, was kann denn passieren mit der Welt und wo kommen wir hin? Welche Szenarien gibt es? Neben diesem AI 2027 gibt's ein

39:05 Buch, das nennt sich, ich glaube Human 3.0 oder Mensch 3.0 auf Deutsch von Max Techmark. Äh was auch ein sehr sehr spannendes äh Buch ist. Da geht's jetzt weniger um quasi so die politischen

39:20 Themen wie jetzt hier, sondern eher um quasi ist die KI gut zu uns, ist die schlecht zu uns, können wir sie kontrollieren? Wird sie sehr viel schneller, besser? Danke

39:34 und so weiter. Das ist auch sehr sehr sehr sehr sehr spannend interessiert. Äh genau und in diesen beiden Szenarien in der Utopie ist es dann wir haben die Automatisierung für vieler Sektoren, das

39:46 führt zu kürzeren Arbeitszeiten, das führt zu einer universellen Grund Grundversorgung, nicht nur einem Grundeinkommen Grundversorgung und in der dann distopie ist es halt irwie eine

39:54 Massenarbeitslosigkeit, eine Überwachung und politische Instabilität. Ähm, in der UTP schaffen wir es zu einer globalen zu einem globalen Wohlstandsangleich. In der Dystopie ist es halt ein extremer

40:09 Reichtum in wenigen Staaten und ansonsten eine globale Armut und Abhängigkeit. Auf jeden Fall ein real sind alles reale Szenarien. Also ich glaub, das ist das Spannende und

40:21 auch wenn man jetzt vielleicht nicht an diesen 2027 Horizont glaubt, die Autoren wie gesagt haben wir gesagt haben das um anderthalb Jahre nach hinten verschoben, aber dann ist halt 28 oder 29, ja,

40:33 was immer noch extrem nah ist, ne? Richtig muss man sich mit den Themen auseinandersetzen, glaube ich. nicht nur wir als normalsterbliche, sondern muss ich die Politik mit auseinandersetzen und ist

40:46 einfach wichtig, dass es Menschen gibt, die sehr genau diese Vorhersagen machen, die passieren könnten und das ganze eben an überwachbare Fakten eben knüpfen. Ich kann genau

40:59 überprüfen, ob die einzelnen Schritte eintreten, die ihr vorher gesagt werden oder nicht. Und äh das macht das ganze so spannend und nicht einfach irgend so ein ja ähm wilde un also un

41:11 kontrollierbare vorher sagen oder überprüfbare vorher sagen und ist sehr spannend. Der Artikel ist sehr lang. Wir haben das tolle Video drunter verlinkt. Ähm und ja, heute wollten wir euch

41:26 einfach mal zum Nachdenken anregen. Ähm das ist ein spannendes Thema. Das ist gesellschaftlich, das ist politisch, das ist technisch und äh keiner von uns weiß, wo es hingeht. Keiner von uns weiß,

41:31 Studien zur KI-Entwicklung

41:42 ob es ein positives Ende wird, ein negatives Ende. Was wir wissen ist, dass wir viel selbst mit beeinflussen können. Alle, die hier zuhören, sind die Personen, die sich mit dem Thema

41:53 auseinandersetzen, die das Thema verstehen wollen, lernen wollen und auch den Diskurs treiben. Und so endet tatsächlich auch dieses Video mit der Aufforderung, sich damit

42:03 auseinanderzusetzen, sich da Gedanken drüber zu machen, mit Leuten darüber zu sprechen und ähm das gleiche können wir an der Stelle auch nur tun. Ähm, sprecht darüber miteinander und beschäftigt euch

42:14 mit dem Thema, weil es wirklich relevant wird und wahrscheinlich schneller relevant wird, als viele von uns es sich heute vorstellen können. Wir sollten es auch in die Politik

42:23 tragen. Also, ich habe nicht das Gefühl, dass wahnsinnig viele Abgeordnete im Bundestag sich mit der Thematik tief beschäftigen. Ich habe nicht das Gefühl, dass das gerade in der Bundesregierung

42:31 irgendeine Rolle spielt. Hab mit zwar ein Digitalminister, aber ich glaube, der ist irgendwie gerade eher weiß nicht damit beschäftigt, den Personalausweis digital zu beantragen

42:41 oder so. Ja, auf jeden Fall nicht die Themen, die in ein paar Jahren relevant sind, richtig. Ja, es gibt noch ein paar andere Studien alle rund um dieses Thema, auch von der Rand Corporation,

42:51 auch von Mcinse, vom Global Institute, wie verlinken die alle in den Showotes. Die sind alle nicht so schön plastisch geschrieben, auch nicht so schön mit einer Timeline. Beschäftigen sich mit

43:00 Unteraspekten, aber in der Gesamtschau können wir sagen, wir stehen gerade an einem Moment, der wahrscheinlich einzigartig in der in der Schnelligkeit der Entwicklung in unserer ganzen

43:10 Zivilisation ist. Ja, und es gibt auch Stimmen und verlenken wir auch, die das weniger die Entwicklung weniger schnell sehen, ne? Und das sind auch legitime Stimmen, aber man sollte eben diesen

43:22 dieses Szenario nicht einfach zur Seite tun und wenn es nicht in zwei Jahren sind, sondern in 5 Jahren oder vielleicht in 10 Jahren, müssen wir uns damit auseinandersetzen und eine

43:32 Verantwortung von uns allen und aus dem Grund diese bisschen andere Folge diesmal. Wir hoffen, es hat euch trotzdem gefallen. Wenn ja, lasst ein Like da, schreibt gerne unter den Post.

43:44 Ähm, teilt Cointelligence mit euren Freunden, Freundinnen, Bekannten, Kollegen und Kolleginnen. Wir freuen uns auf das nächste Mal mit euch und bis bald. Bis bald. Cointelligence ist eine

43:56 Produktion von The Key Academy in Zusammenarbeit mit Snipkey. Produziert bei Studio Co in Berlin. Produktion und Regie: Christina Manuele, Fuat Sebadli und Elias Frobel. Creative Director

44:08 Lukas Schelter. Redaktion und Moderation Benjamin Wüstenhagen und Moritz Heininger. Abonniere uns auf Spotify, Apple Podcasts oder YouTube. Danke fürs Zuhören.

Zur Folgen-Übersicht