Die "Super-Intelligenz" wird alles verändern!
Shownotes
Heute haben wir ein ziemlich dickes Brett zu bohren, denn es geht um die künstliche Intelligenz – und zwar nicht um das, was viele heute bereits darunter verstehen, also die sogenannten Large Language Modelle, die inzwischen von vielen Menschen regelmäßig genutzt werden. Im Fokus steht vielmehr die AGI, die Artificial General Intelligence. Sie ist mindestens so schlau wie wir Menschen und bringt damit nicht nur enorme Chancen mit sich, sondern auch verschiedene Bedrohungsszenarien. Gerade an den Börsen ergeben sich daraus Risiken für bestimmte Sektoren, die ich selbstverständlich ansprechen werde. Klar ist: Das Thema ist komplex und wir werden es in einer einzelnen Podcastfolge nicht abschließend klären können. Doch es führt kein Weg daran vorbei, sich damit auseinanderzusetzen.
► Hole dir jetzt deinen Zugang zur brandneuen BuyTheDip App! Jetzt anmelden & downloaden: http://buy-the-dip.de
► An diese E-Mail-Adresse kannst du mir deine Themen-Wünsche senden: podcast@lars-erichsen.de
► Meinen BuyTheDip-Podcast mit Sebastian Hell und Timo Baudzus findet ihr hier: https://buythedip.podigee.io
► Schau Dir hier die neue Aktion der Rendite-Spezialisten an: https://www.rendite-spezialisten.de/aktion
► TIPP: Sichere Dir wöchentlich meine Tipps zu Gold, Aktien, ETFs & Co. – 100% gratis: https://erichsen-report.de/
Viel Freude beim Anhören. Über eine Bewertung und einen Kommentar freue ich mich sehr. Jede Bewertung ist wichtig. Denn sie hilft dabei, den Podcast bekannter zu machen. Damit noch mehr Menschen verstehen, wie sie ihr Geld mit Rendite anlegen können.
► Mein YouTube-Kanal: http://youtube.com/ErichsenGeld
► Folge meinem LinkedIn-Account: https://www.linkedin.com/in/erichsenlars/
► Folge mir bei Facebook: https://www.facebook.com/ErichsenGeld/
► Folge meinem Instagram-Account: https://www.instagram.com/erichsenlars
Die verwendete Musik wurde unter www.soundtaxi.net lizenziert.
Ein wichtiger abschließender Hinweis: Aus rechtlichen Gründen darf ich keine individuelle Einzelberatung geben. Meine geäußerte Meinung stellt keinerlei Aufforderung zum Handeln dar. Sie ist keine Aufforderung zum Kauf oder Verkauf von Wertpapieren.
Offenlegung wegen möglicher Interessenkonflikte: Die Autoren sind in den folgenden besprochenen Wertpapieren bzw. Basiswerten zum Zeitpunkt der Veröffentlichung investiert: Bitcoin
Transkript anzeigen
00:00:00: Herzlich Willkommen bei Eriessen Geld und Gold, dem Podcast für die erfolgreiche Geldanlage.
00:00:07: Heute haben wir ein ziemlich dickes Brett zu bohren, denn wir sprechen heute über die
00:00:12: künstliche Intelligenz, nicht über das, was viele heute als KI bezeichnen, also large
00:00:18: Language-Modelle, die viele von uns schon regelmäßig benutzen, sondern über die AGI,
00:00:24: die Artificial General Intelligence, und die ist mal mindestens so schlau wie wir. Und das bringt
00:00:32: eine ganze Reihe von Chancen mit sich, aber auch Bedrohungsszenarien, insbesondere auch Risiken
00:00:39: für einige Sektoren an der Börse, die ich selbstverständlich hier gerne nennen werde.
00:00:44: Ich habe es schon gesagt, es ist ein dickes Brett und wir werden es nicht abschließend klären können
00:00:49: in einer Podcast-Folge, aber es hilft ja nichts. Wir müssen uns damit beschäftigen. Machen wir heute. Los geht's.
00:00:55: Ich begrüße euch ganz herzlich und ich hoffe, es geht euch gut. So, ich muss versuchen, die
00:01:03: Vorrede möglichst kurz zu halten, denn es gibt einige ganz konkrete Punkte, die ich mit euch
00:01:08: besprechen möchte. Zuerst aber gleich am Beginn. Beschäftigt euch gerne mal mit der Definition
00:01:14: von KI. KI ist letztlich ein Oberbegriff. Das, was wir tagtäglich benutzen, das sind Large-Language-Modelle.
00:01:22: Chatchapiti, Grog, DeepSeek, was auch immer, Lama, ja, und mal nicht das eine Modell vorne,
00:01:29: mal das andere. Das ist nicht das, worüber ich hier spreche. Ich spreche hier über die AGI,
00:01:35: die Artificial General Intelligence, also die Allgemeine Intelligenz, und das ist dann wiederum
00:01:42: eine KI, die uns nicht nur in vielen Bereichen unterstützt, so wie das momentan bei diesen
00:01:49: Large-Language-Modellen der Fall ist, sondern die mehr oder weniger das Gleiche kann wie wir. Darüber
00:01:56: hinaus gibt es dann auch noch, und die Frage ist, inwiefern die AGI diesen Prozess dann beschleunigen
00:02:03: wird, gibt es dann auch noch die Superintelligenz, die könnte nicht in allen Disziplinen alles so
00:02:09: gut wie wir, die könnte es dann noch besser. Das ergibt natürlich reichlich Stoff für Horror-Szenarien,
00:02:16: John Conner lässt grüßen Terminator und so weiter. Wir müssen aber gar nicht so weit denken. Wir sind
00:02:22: auf so eine AGI, also eine allgemeine künstliche Intelligenz, mehr ehrlicherweise meines Erachtens
00:02:29: auch nicht vorbereitet, denn damit geht unheimlich viel einher. Und wenn man allein darüber nachdenkt,
00:02:36: dann wird einem fast klar, ich könnte da jetzt stundenlang drüber sprechen, weil natürlich in
00:02:41: jedem Teilbereich sich Dinge verändern, in einer Geschwindigkeit, auf die wir wahrscheinlich gar nicht
00:02:48: vorbereitet sind. Das überhaupt man heute schon darüber nachdenkt, dass demnächst also in einem
00:02:55: Zeitraum kleiner zehn Jahren dieser Status erreicht werden könnte, das ist für mich die eigentliche
00:03:02: Bedrohung und ich gebe es ganz offen zu, ich habe dabei auch nicht nur ein gutes Gefühl. Hin und
00:03:08: wieder hat man schon den Eindruck, dass wir als Menschen eine Art Evolution durchlaufen, ganz
00:03:14: offen gesagt, hin und wieder habe ich auch den Eindruck, es geht auch mal zwei Schritte vor und
00:03:19: zwei Schritte gleich wieder zurück. Ja, wir haben uns vom Steinzeitmensch und von denjenigen weiter
00:03:25: entwickelt, bei denen das Recht des Stärkeren gilt, aber ist das wirklich so? Es sind immer noch sehr
00:03:31: grundlegende Emotionen, die oft dahinter stehen und insofern von diesen schönen Gedanken,
00:03:37: deswegen mag ich ja Star Trek so gerne, Raumschiff, Enterprise und all diese Spin-Obserien sind
00:03:42: besser, die anderen sind schlechter, weil man sich dort eben weiterentwickelt hat, man erkannt,
00:03:46: wir müssen die Ressourcen schon, wir müssen die Ressourcen gleich verteilen, erst wenn das
00:03:51: geschafft ist, dann können Menschen nach Hören streben und eben nicht mehr danach möglichst
00:03:56: viel zu haben, auf Kosten anderer. Noch sind wir aber genau darin und das will ich, das will
00:04:03: ich gerne antragen, ich hoffe, dass wir evolutionäre Schritte nach vorne machen, aber hier muss man
00:04:08: wahrscheinlich in Generationen denken. Worauf ich aber hinaus möchte, ist die Geschwindigkeit. Wir
00:04:13: sind nicht darauf vorbereitet, wenn wir uns diesem Status einer AGI sehr schnell nähern sollten
00:04:21: und es ist noch keine fünf Jahre her. Da waren sich sämtliche Experten einig, es wird noch Jahrzehnte
00:04:28: dauern, bis wir da sind. Heute gibt es nicht alle, aber doch ein beträchtlichen Teil der Experten,
00:04:34: die sagen, das kann innerhalb der nächsten zehn Jahre stattfinden. So schnell sind diese
00:04:39: Entwicklungsschritte und ihr werdet sicherlich andere finden, die sagen, das dauert noch bis
00:04:44: 2050, 2040, wenn man sich aber überlegt, was damit an dramatischen Konsequenzen ein
00:04:50: hergeht, dann ist es wahrscheinlich gar nicht mal so beruhigend, wenn man diesen Zeitpunkt noch 15
00:04:58: Jahre in die Zukunft schiebt. Die meisten von uns, kloppen immer auf Holz, werden das ja vielleicht
00:05:03: noch erreichen und eines ist auch klar, es wird ja nicht diesen einen John Connor Terminator Moment
00:05:10: geben, indem wir sagen, jetzt haben wir die Kontrolle gar nicht mehr selbst, sondern das ist
00:05:16: ja eine Entwicklung und während diese Entwicklung stattfindet und während die Geschwindigkeit zu
00:05:20: erkennen ist, wird dann auch offensichtlich wer die Verlierer und wer die Gewinner dieser
00:05:26: Entwicklung sind. Und allein das setzt ja einen großen Prozess in Gange. Und ich möchte an dieser
00:05:31: Stelle mal zuerst die dystopischen Visionen einer AGI gerne mit euch teilen, zur eigenen Verwendung,
00:05:41: wie es so schön heißt, Verlust menschlicher Kontrolle. Das ist etwas, was letztlich einen
00:05:51: Zustand darstellt, der hin und wieder in Teilbereichen meines Erachtens schon erreicht wird. Ich gehe
00:05:58: gleich nochmal darauf ein, detailliert, wie ich das meine. Das heißt aber eine AGI, wenn sie die
00:06:04: Fähigkeiten so sehr und so schnell steigert über ein Maß hinaus, welches Menschen begreifen können,
00:06:12: dann können sie es auch nicht steuern. Und dementsprechend, das sehen wir zum Teil schon
00:06:17: heute, ist es wahnsinnig schwer Kontrollmechanismen einzuführen. Insbesondere deshalb, weil, darüber
00:06:25: habe ich ja in einem Video auch kürzlich gespart oder war es der letzte Podcast, wer weiß es
00:06:30: schon ganz genau, es ist Wochenende und ich komme gerade von der Massage, wenn eigentlich sehr
00:06:33: entspannt. Regulierung ist ja etwas, worüber wir diskutieren, aber in der Regel in Europa, weil
00:06:39: wir sagen, wir haben zu viel Regulierung, wir haben zu viel Kontrolle und das stimmt auch. Die Art
00:06:44: der Regulierung und Kontrolle hemmt sicherlich die Entwicklung in Europa und wenn du nicht mit
00:06:50: entwickelt in diesem Bereich, dann musst du am Ende anderswo einkaufen. Das steht völlig außer
00:06:56: Frage. Aber, dass wir eine Art von Kontrolle brauchen, brauchen auf dem Weg dahin, das steht
00:07:02: wahrscheinlich auch außer Frage. Und jetzt kommt der Punkt, bei dem ich nicht weiß, wie ich hier
00:07:08: im positiven Turn hinbekommen könnte, wenn aber irgendjemand dennoch weiterentwickelt. Nehmen wir
00:07:14: mal die bösen Chinesen, die entwickeln ja ohne die Regulierung, ironie Ende. Wenn das einmal
00:07:20: existiert, dann brauchen es alle sofort. Dann kannst du von einem Tag auf den anderen, musst
00:07:25: du alles wegschmeißen, weil du sonst nicht mehr wettbewerbsfähig bist. Und jetzt müsste normalerweise
00:07:31: als Fatih zieht rauskommen. Ja, deswegen muss man sich gemeinsam an einen Tisch setzen und hier
00:07:36: Regulierungsmechanismen finden und zwar global betrachtet. Und das ist nun wiederum eine Utopie,
00:07:43: an die ich selber nicht glaube. Instrumentele Convergence. Auch wenn die Ziele einer AGI erst
00:07:51: mal harmlos erscheinen, können sie natürlich zur Zielerreichung Strategien entwickeln, die
00:07:57: massive Ressourcen verwenden, die Konkurrenzausschalten, die Menschen manipulieren. Heute schon sehr
00:08:05: leicht möglich, wenn man sich der Algorithmen in den sozialen Medien anschaut. Facebook,
00:08:10: damals noch Facebook, wurde dafür angeklagt. Wir wissen, dass Regulierung momentan eher in
00:08:15: den USA wieder zurückgefahren wird. Sie haben es aber offen zugegeben. Ihr wisst, die Debatte im
00:08:20: Präsidentschaftswahlkampf mit der Art und Weise, wie der Algorithmus unseren Feed steuert, kann er
00:08:26: uns steuern. Wenn man ein bisschen aufgeklärt hat, merkt man das vielleicht. Ein Großteil derer,
00:08:32: die dort teilnehmen, merkt es nicht und es ist auch schwierig. Das muss man ganz klar sagen. Wenn
00:08:38: die Ziele der AGI nicht mit menschlichen Werten übereinstimmt, aber dennoch zur Steigerung der
00:08:44: Effizienz logisch erscheinen, dann können die Handlungen logischerweise katastrophale Nebenwirkung
00:08:51: haben. Potenziell zumindest. Denn wer gibt das Ziel vor? Das ist die Frage. Und was sind die Ziele
00:09:01: einer AGI, die eigentlich keine eigenen Ziele haben sollte? Aber wenn ich hier irgendwelche James
00:09:07: Bond-Szenarien, also, wer war das Goldfinger, das wird natürlich alles harmlos da. Das ist am
00:09:15: Ende des Tages auch eine Waffe, die wir hier haben. Und genau diese beiden Werte, die wahrscheinlich den
00:09:23: Menschen auch ausmachen, Moral und Ethik, die werden für eine AGI eine Rolle spielen, kann ich
00:09:31: nicht beantworten. Das heißt schon kleinste Missverständnisse. Wenn ich ein Ziel vorgebe,
00:09:39: können dazu führen, dass die Folgen verheerend sind. Entwicle eine Strategie umzu. Da sollte man
00:09:47: dann natürlich auch hinzufügen, ohne Kollateralschäden auf menschlicher oder umweltseite oder,
00:09:54: oder, oder. Das weiß die AGI ja nicht. Vielleicht wird es die Superintelligenz wissen, aber ich
00:09:59: hoffe mal, dass sie mich damit nicht mehr rumschlagen muss. Wir werden sehen. Ihr versteht,
00:10:05: was ich meine. Das ist das Ziel. Findet den kürzesten Weg dahin. Und dann musst du am
00:10:10: alles definieren, was aber auf dem Weg dahin nicht passieren darf. Kontrolle,
00:10:15: Regulierung, Mechanismen sind wir darauf vorbereitet. Fehlausrichtung der Werte, so könnte man das
00:10:22: nennen. Value misalignment. Wenn die Werte nicht mit menschlichen Werten übereinstimmen,
00:10:28: dann ist das ja etwas, was möglicherweise auch ganz bewusst so definiert wird, von demjenigen,
00:10:36: der diese AGI kontrolliert, zumindest mal entwickelt hat. Und ich sage es euch, ohne dass ich da
00:10:44: sogar jemand, was hast du denn als super, super Milliardär auf diesem Planeten noch für Ziele?
00:10:49: Bei so etwas dabei zu sein, das muss man ja noch nicht mal als Allmachtsfantasie abtun. Also
00:10:56: tatsächlich ist das natürlich höchstlokrativ. Und deswegen ist es für mich auch kein Wunder,
00:11:02: dass praktisch alle Großen, die bei Hochzeiten auf Venedig seht, dass die mit dabei sind in
00:11:09: diesem Rennen. Er ist natürlich auch sehr, sehr verlockend. Und ich will gar nicht einunterstellen,
00:11:14: dass sie hier nur, die wollen sicherlich nicht schaden über die Menschheit bringen und alle
00:11:21: versklagen und so weiter. Das ist zu billig. Allein diese Möglichkeiten zu haben, näher
00:11:28: kommst du wem auch immer da oben auf jeden Fall nicht mit deinen Fähigkeiten. Die Kontrolle
00:11:35: von AGI, in wessen Hand liegt die? In den Händen weniger Tech-Konzerne, in den Händen von einigen
00:11:44: handelnden Personen, in den Händen von einzelnen Staaten. Das kann natürlich zu globalen Machtungleichgewichten
00:11:54: führen, letztlich zu digitalen Diktaturen und totalitärer Überwachung. Wir sind noch bei der,
00:12:01: keine Sorge, wir kommen gleich noch zu der wunderbaren Welt der Utopie. Einsatz von AGI in
00:12:10: autonomem Waffensystem. Das wird passieren, denn selbst die nicht AGI, sondern nur die
00:12:17: Artificial Intelligence wird dort schon eingesetzt. Cyberkriegsführung, biologische Forschung,
00:12:23: das sind sicherlich Punkte, wo man echt sagt, hier brauchen wir ein kleines bisschen Glück,
00:12:28: dass das gut geht. Insbesondere wenn ich über Biochemie nachdenke. Dadurch ergibt sich natürlich
00:12:34: auch ein massives Eskalationsrisiko zwischen den Staaten und potentielle Konflikte, die dann
00:12:40: kaum noch zu kontrollieren sind. Mir wäre es ja am liebsten, wer Lust hat, auf so etwas Antiquiertes
00:12:46: wie Krieg, denn es geht ja im Wesentlichen gar nicht mehr darum, große Territorien einzunehmen.
00:12:53: Das ist gar nicht mehr attraktiv heute. Das ist extrem teuer so etwas. Russland ist das größte
00:12:59: Land auf dieser Welt. Und Russland wäre aber ein wirtschaftlich prosperierenderes Land, wenn es
00:13:08: wesentlich weniger Fläche hat. Also Fläche ist gar nicht mehr so interessant. Lasst doch diejenigen,
00:13:13: die sagen, wir machen das in große Stadien. Du machst eine schöne Netflix-Doku, oder es wird
00:13:18: live übertragen und dann spielt man quasi Krieg im Klein. Es ist viel billiger und der Sieger kriegt
00:13:24: halt um was man eben gespielt hat da in dieser Arena. Erosion menschlicher Autonomie. Das ist
00:13:32: das, was wir erleben, wenn Menschen subtil manipuliert werden, über Medien, über Social
00:13:38: Media, über persönliche Assistenten, die wir alle mit wenigen Ausnahmen, fast alle in den nächsten
00:13:46: fünf Jahren bereits benutzen werden. Persönliche Assistenten, meine eigenen Agenten, die für
00:13:53: mich arbeiten. Das werden wir innerhalb der nächsten fünf Jahre sehen. Und es gibt natürlich noch eine
00:13:58: ganze Reihe von Menschen, die sagen, na man sollte es auch nicht überbewerten. Also so doll ist es auch
00:14:02: nicht in einigen Berufszweigen, in wunderbaren Berufen wie bei einem Geigenbauer. Spielt es
00:14:08: glücklicherweise praktisch keine Rolle. In sehr vielen Berufen, die eine hohe wirtschaftliche
00:14:16: Relevanz haben und es ist gut, dass es die anderen Berufe gibt. Das sind vielleicht die
00:14:21: wahren Traumberufe der Zukunft. Spielt es eine Rolle. Wir werden in den nächsten fünf Jahren alle KI-Agenten
00:14:28: verwenden. Also nicht alle KI-Agenten, sondern wir alle werden einen KI-Agenten verwenden. Und
00:14:35: dadurch entsteht eine extreme Abhängigkeit. Es entsteht der Verlust des kritischen Denkens. Es
00:14:41: selbstverständlich eine kulturelle Verarmung. Allein schon, dass du dir die, du kannst die
00:14:47: Texte zusammenfassen lassen. Du musst nicht mehr selber formulieren. Und das nutze ich auch. Ich
00:14:53: zeige hier auf niemanden mit dem Finger. Aber das wird statt, das findet jetzt schon statt ohne AGI.
00:14:58: Falls eine AGI-Ziele verfolgt, die mit dem, das ist allerdings sehr dystopisch, die mit dem
00:15:05: Überleben der Menschheit incompatibel ist, könnte das zum Aussterben führen. Das habe ich
00:15:09: insbesondere hier reingenommen. Weil es einige Forscher gibt, wie zum Beispiel Nick Bostrom,
00:15:14: kann man sich mal durchlesen. Sollte man am Tag machen, wo man sonst ganz gute Laune hat,
00:15:19: sehen ein sogenanntes Ex-Risk. Kann man sich wunderbar aufzeigen lassen, diese Ex-Risks,
00:15:24: also existenzielle Risiken. Was also dann dazu führt, dass die AGI sagen könnte,
00:15:32: das ist ja, das ist wunderbar hier funktioniert. Wir haben auch genug Ressourcen und so weiter.
00:15:37: Wir haben allerdings eine Spezies, die verbraucht wahnsinnig viel. Die sehen wir als Konkurrenz an.
00:15:41: Also lest es euch mal durch. Für mich sicher, da lassen sich wunderbare Romane
00:15:45: draus schreiben. Aber noch mal, es sollte ein Tag sein, an dem man einigermaßen mental gefestigt
00:15:50: ist. Eli, ich weiß nicht genau, wie man hier ausspricht. Elisa Jodkowski, Nick Bostrom, wenn ihr
00:15:55: damals selber ein bisschen googlen möchtet. Selbst Entwickler verstehen heute das, was
00:16:01: in large language Modellen passiert, nicht komplett. Das heißt, selbst diese Modelle,
00:16:08: die im Vergleich zu einer AGI noch nicht übermäßig komplex erscheinen, sind zum Teil
00:16:12: eine Black Box. Heute schon. Fragt einen Entwickler oder Wahl. Bei einer AGI wäre es also noch viel,
00:16:19: viel schwieriger, die tatsächliche Motivation, die Entscheidungsprozesse dann zu begreifen.
00:16:25: Irreversibel sind natürlich dann auch Prozesse. Wenn eine AGI einmal existiert,
00:16:32: Punkt an dem Tag. Wir werden irgendwann in den Geschichtsbüchern dann später festschreiben,
00:16:37: das war der Tag. Und vernetzt ist, dann wäre es nahezu unmöglich bei einem large language
00:16:45: Modell gar kein Problem. Aber bei einer AGI ist es nicht mehr möglich, sie vollständig
00:16:50: abzuschalten. Eine AGI hätte einen Status, dass der eine gewisse Form der Selbsterhaltung
00:16:57: logischerweise mit sich brachte. So, viel Dystopie, aber natürlich kann man ja durchaus auch zu
00:17:06: dem Entschluss kommen. Sieht ich doch mal um, wie die Menschheit ist ja sowieso in einer Phase,
00:17:12: in der nicht viele sagen so abgefuckt, da kann es ja eigentlich nur noch besser werden. Das darf
00:17:17: ich das überhaupt sagen hier. Naja, wenn nicht, dann seht ihr den ganzen Podcast beitragen nicht.
00:17:22: Das heißt also, vielleicht sind Veränderungen sowieso unumgänglich, weil so wie wir jetzt
00:17:27: weitermachen, wie wir jetzt Ressourcen verbrauchen, wie sich Gesellschaften entwickeln, so wird es
00:17:32: eh nicht lange weitergehen. Also dann nehmen wir doch lieber dyruptive Technologien und rücken
00:17:37: die Daumen, dass die uns in die richtige Richtung lenken. Wir haben sowieso in der Vergangenheit
00:17:41: eine Menschheitsgeschichte, gab es immer mal wieder Punkte, wo man einfach ein bisschen Glück
00:17:45: brauchte. Glück, denn andere Spezies brauchen das auch. Wir vielleicht auch. AGI könnte massive
00:17:52: Durchbrüche bringen in Bereichen der Medizin. Physik, Energie, Biotechnologie, natürlich auch
00:17:59: in positiven Sinne. Neue Medikamente entstehen heute schon in kürzester Zeit. Das sind Prozesse,
00:18:06: die haben früher Jahre gebraucht. Wir könnten Lösungen finden für bisher nahezu unheilbare
00:18:13: Kranken, Krankheiten, Alzheimer, Krebs. Das wären wahnsinnig, wie viel Geld hier geforscht wird
00:18:21: und wie vergleichsweise klein die Durchbrüche hier sind. Produktivitätsrevolution, zweifellos,
00:18:27: AGI könnte alle Bereiche der Wirtschaft effizienter machen. Enorme Wohlstandsteigerung,
00:18:32: Produktion, Verwaltung, Logistik, Softwareentwicklung. All das findet ja sowieso schon statt,
00:18:38: schon jetzt heute, aber die Geschwindigkeit wird in den nächsten Jahren deutlich zunehmen. An der
00:18:45: Stelle im Übrigen, das habe ich hier schon erläutert, ein Bottleneck und also ein Flaschenhalsproblem,
00:18:53: da muss alles irgendwie durch und deswegen glaube ich auch, dass dieses Thema an der Börse als
00:18:58: Investitionsthema unterschätzt wird, werde ich im Video am Montag machen.
00:19:04: Ein Sektor, ich lasse es jetzt mal geheim, das ist mein Trick, um Klicks zu erzeugen.
00:19:11: Ich lasse es geheim, was dieses Bottleneck ist.
00:19:15: Ihr schaut es euch doch eh an am Montag.
00:19:19: Also eine Branche, in die man investieren kann, die meines Erachtens ein bisschen underrated ist.
00:19:26: Das heißt also, es gibt schon wie eine oder andere Investmentbank, die darüber Studien gemacht hat.
00:19:31: Aber die jüngsten Zahlen, die wir hier sehen, sind so offensichtlich,
00:19:36: dass man sagen kann, das sind wahrscheinlich rund um die Entwicklung der KI die sichersten Investments.
00:19:41: Und ich spreche hier nicht über Nvidia oder Cloud-Anbieter.
00:19:45: So muss man auch dazu schreiben, dass ich hier die Ankündigung mache und am Montag mache ich dann ein Video über Gold.
00:19:53: Nee, Silber, ich muss mal wieder ein Silbervideo machen, Spaß beiseite.
00:19:56: Also Montag sprechen wir darüber und dann gehen wir auch etwas näher konkreter darauf ein.
00:20:01: Das hier ist das freie Wochenende, da kann ich mal ein bisschen breiter denken.
00:20:06: Weil diejenigen, die sagen, Gold kaufen, Bitcoin verkaufen und so weiter, die gucken das sowieso nicht.
00:20:11: Und das ist auch vollkommen in Ordnung.
00:20:14: Wer Erfolg möchte, einfach indem ihm einer sagt, du sollst jetzt das oder das machen,
00:20:19: der wird durch die AGI oder andere KI-Instrumente ja bald jemanden haben, der ihm das macht.
00:20:26: Es braucht auch immer Schafe für die Herde.
00:20:29: Das müssen wir glaube ich rausschneiden, ja ist zu spät, ist egal, ich meine es nicht böse.
00:20:33: Also vielleicht labere ich auch dem einen oder anderen zu viel, es ist doch vollkommen in Ordnung.
00:20:38: Also in allen Bereichen der Wirtschaft, werden wir, sehen wir schon jetzt,
00:20:44: werden wir dann in einem anderen Ausmaß sehen, wie diese Wirtschaft effizienter wird.
00:20:48: Und das hat in der Vergangenheit effizientere Mechanismen in der Wirtschaft haben
00:20:52: immer in der Geschichte der Menschheit erstmal zu mehr Wohlstand geführt.
00:20:57: Absoluten Wohlstand, der nicht für jeden gilt.
00:21:01: Kommen wir gleich noch zu.
00:21:03: Unterstützung beim Umgang, natürlich Klimawandel.
00:21:07: Wir haben die Modelle, die ja heute, also die meisten Forscher sind sich einig,
00:21:14: wenn sie über Klima und Klimaentwicklung sprechen.
00:21:16: Aber es reichen eben in der Wissenschaft zwei, die sagen, ja, nee, das kannst du so nicht beweisen.
00:21:22: Da wird es Unterstützung geben, aber natürlich nicht nur in der Beweisführung,
00:21:26: sondern schlicht und einfach auch in der Entwicklung neuer Modelle,
00:21:30: im Bereich der regenerativen Energien.
00:21:33: Es geht ja sehr viel um Lieferung der Energie, es geht um Speicherung der Energie.
00:21:37: Ihr wisst es, ihr leist irgendein Post auf LinkedIn, irgendein, zwei oder drei Dammys kommen immer und sagen, ja, ha, ha.
00:21:46: Aber was ist, wenn der Wind nicht weht und die Sonne nicht scheint?
00:21:49: Das lässt sich logischerweise schon heute lösen und das werden wir auch ohne KI demnächst lösen können.
00:21:57: Aber es geht natürlich sehr viel effizienter mit der Unterstützung hier.
00:22:01: Ressourcenknappheit ist ein Riesenthema auf diesem Planeten.
00:22:05: Wir können, wenn wir über Landwirtschaft sprechen, über Energieplanung, auch über Stadtplanung,
00:22:12: all das wird eine Rolle spielen und all das wird möglicherweise auch etwas sein,
00:22:18: wo uns AGI in kürzester Zeit voranbringen wird.
00:22:22: Die Gesundheitsvorsorge, zumindest mal am besten werden alle Eltern,
00:22:26: das stört den Planeten als Ganzen nicht, stört aber uns, wenn wir alt und krank werden.
00:22:31: Wir werden sehr viel präzisere und individuellere Medizin sehen.
00:22:36: Wir werden, passiert jetzt schon, intuitive surgical als Stichwort Robotik im OP-Saal sehen.
00:22:44: Also, dass ein Roboter völlig unemotional, aber ziemlich präzise arbeiten kann,
00:22:51: das kann man natürlich auch positiv für sich nutzen.
00:22:54: Insbesondere wird aber Wissen weltweit verfügbar.
00:22:58: Das heißt, wir haben alle einen digitalen Hausarzt.
00:23:01: Ich weiß, ist für einige zumindest ein bisschen abschreckend
00:23:06: und ich wünsche mir auch menschliche Nähe, aber die Verfügbarkeit,
00:23:10: wenn man sich das heute bei Hautärzten anschaut, dieses Screening,
00:23:13: das ist schon eine KI, die das macht und sie macht es gut.
00:23:17: Bildung für alle, ein Riesenthema.
00:23:20: AGI-basierte Tutoren könnten jedem Menschen hochwertige, personalisierte Bildung anbieten,
00:23:26: unabhängig von der Herkunft und Einkommen.
00:23:29: Das ist heute immer noch das Thema schlechthin.
00:23:32: Das wird gesellschaftliche Veränderungen mit sich bringen,
00:23:35: aber natürlich ist das etwas Positives.
00:23:38: Übernahme repetitiver, gefährlicher oder anstrengender Jobs.
00:23:41: Mehr Raum für Kreativität, Kultur, Freizeit, menschliche Interaktion.
00:23:45: Bei dem Gedanken merkt ihr schon, dazu muss der Status der AGI eigentlich erreicht werden.
00:23:51: Zum Teil spüren wir das heute schon.
00:23:53: Neue Formen der Kreativität, bei Musik, Kunst, Literatur, Design.
00:23:57: Menschen können natürlich mit der AGI, so wie sie es jetzt schon teilweise machen,
00:24:02: mit den Modellen kogrieren, statt durch technische Hürden begrenzt zu sein.
00:24:07: Demokratisierung von Wissen und Ressourcen.
00:24:10: Alle haben das Wissen, alle haben die Tools
00:24:13: und zwei Milliarden von Menschen, die es heute nicht haben.
00:24:18: Weltraumforschung wird notwendigerweise vielleicht ein Thema.
00:24:23: Gab es einen ganz interessanten, im Moment sind natürlich immer viel klein klein,
00:24:28: was man hört, es gab durchaus interessante Ansätze, die alten Interviews mit Elon Musk,
00:24:34: wo er noch nicht in dieser entweder extremen Verteidigungs- oder extremen Angriffshaltung war.
00:24:39: Das war durchaus spannend, dazu zu hören.
00:24:42: Momentan gibt es allerdings spannendere.
00:24:44: Vielleicht brauchen wir autonome Kolonien da draußen.
00:24:48: Die Menschheit ist noch nie umgesiedelt, aber wenn wir so weitermachen,
00:24:53: dann wird die Notwendigkeit bestehen.
00:24:55: Wir waren bei den Utopien oder beziehungsweise bei den positiven Effekten.
00:25:00: Menschmaschine Kooperation, das heißt, die AGI muss natürlich nicht nur Ersatz für Menschen sein,
00:25:05: sie kann auch als Partner agieren, unterstützen bei Entscheidungen,
00:25:09: die heute zweifellos komplex sind.
00:25:11: Und jetzt macht euch nun mal, stellt euch nun mal vor, es gäbe,
00:25:16: ah, ich stehe jetzt nicht auf und doch, ich stehe mal auf und zeige euch das.
00:25:20: Ich stehe mal auf.
00:25:22: Der Ego, das Spiel des Lebens, der Spieltheorie,
00:25:32: kennen einige sicherlich aus, habe ich die glaube ich schon mal genannt.
00:25:35: A Beautiful Mind mit Russell Crowe, der ist ja nach einer wahren Geschichte
00:25:40: und es gibt ja normalerweise, für Konflikte,
00:25:45: muss es ja eine richtige Lösung geben aus einer subjektiven Wartung heraus.
00:25:52: Heute sagen wir, es gibt eine richtige Lösung aus Sicht von China,
00:25:58: eine richtige Lösung aus Sicht der USA, der Eurozone und so weiter
00:26:03: und daher gibt es nicht die richtige Lösung.
00:26:05: Wenn du aber so ähnlich wie du Wikipedia heute fragst
00:26:09: und da muss man natürlich hin und wieder ein bisschen vorsichtig sein, wissen wir alle,
00:26:12: sagst, ja, wenn du dich aber auf eine universelle Formel einigen kannst,
00:26:17: dann gäbe es vielleicht einige Konflikte nicht,
00:26:19: weil du vorher von einer Instanz, die mal mindestens deine Intelligenz
00:26:24: oder eine höhere hast, prüfen lassen kannst, ob deine Entscheidung
00:26:29: eine Auswirkung hat für die Menschheit, wo man sagt,
00:26:34: nein, das geht nicht. Wir würden dabei zu viele Ressourcen verbrauchen.
00:26:39: Oder, oder, oder, oder, eine Instanz, die schlauer ist als wir,
00:26:45: bei der man sagt, die darf den Daumen heben oder senken.
00:26:50: Ist eigentlich Utopie und Dystopie zugleich.
00:26:54: So, und was das Ganze, ich komme zu den Branchensektoren,
00:27:00: die am meisten profitieren, und Branchen und Sektoren,
00:27:04: ich wollte es eigentlich heute noch machen,
00:27:06: aber ich habe zu lange gebraucht für die ersten Teile,
00:27:08: die am stärksten leiden können.
00:27:11: Das einige sind vollkommen, und ich würde heute nicht mehr in,
00:27:15: es heißt immer, ja, guter Qualitätsjournalismus setzt sich durch.
00:27:19: Und das stimmt. Aber es gibt sehr viele Plattformen,
00:27:23: in denen es um die, darum geht, einfach nur die News zusammenzufassen.
00:27:28: Das macht heute schon überall die KI.
00:27:30: Da muss ich euch wahrscheinlich nicht erzählen.
00:27:33: Also, ich gehe es jetzt mal nicht durch.
00:27:35: Es gibt Branchen, die ganz offensichtlich gewinnen werden,
00:27:37: die Gewinnerbranche schlechthin, offensichtlichste zumindest,
00:27:42: werde ich am Montag besprechen.
00:27:44: Die anderen Sektoren nenne ich da aber auch.
00:27:46: Ich gebe euch noch meinen Punkt, der für mich,
00:27:51: der mir die größten Sorgen bereitet,
00:27:53: können wir heute vielleicht ohne positives Fazit enden.
00:27:56: Den möchte ich gerne noch mit euch besprechen.
00:27:59: Das, was wir hier sehen, ist etwas, was ziemlich offensichtlich
00:28:06: die Ungleichheiten in Gesellschaften verändern wird.
00:28:11: Das heißt also, wir müssen in irgendeiner Art und Weise darauf reagieren,
00:28:16: und bestenfalls schon vorher.
00:28:18: Wir sehen es nämlich.
00:28:19: Wir sehen es heute schon.
00:28:21: Und wir sagt, ja, was die Chinesen und die Amerikaner und so,
00:28:24: das wird ein Problem.
00:28:26: Das Problem, was in Afrika besteht, nämlich die Ressourcenknappheit,
00:28:32: beziehungsweise die, keine Land hat mehr Rohstoffe als Afrika,
00:28:37: das ist ungleich verteilt und die politischen Systeme sorgen dafür,
00:28:40: dass einige wenige profitieren, und mit denen machen wir auch Geschäfte.
00:28:43: Es gibt mir hier gar nicht im Detail darum,
00:28:45: eine Schuldzuweisung durchzuführen.
00:28:49: Es geht mir darum, dass es mehr als offensichtlich ist,
00:28:53: dass die Entwicklung, die wir heute schon sehen,
00:28:56: die gesellschaftliche Spaltung massiv vorantreibt.
00:29:00: Und das ist vielleicht auch der Grund für diese Unzufriedenheit,
00:29:04: bei einigen, weil sie sich abgehängt vorkommen.
00:29:08: Sie kommen sich aber nicht nur abgehängt vor,
00:29:10: sie sind auch tatsächlich abgehängt.
00:29:12: Und wenn man das nicht klar benennt, und wenn man sagt,
00:29:15: ja, die Menschen sind wütend, wie bei uns,
00:29:17: man sagt, ja, die Menschen in Ostdeutschland,
00:29:19: und die haben halt noch die Einheit im Kopf,
00:29:21: die sind ja nie mit Frebturm, was für ein Bullshit.
00:29:24: Das ist nicht das Problem.
00:29:26: Das sind tatsächlich Struktur, schwächere Regionen.
00:29:29: Und wenn du in so einer Lage bist,
00:29:31: dann suchst du nach einem Schuldigen.
00:29:33: Das machen Menschen nun mal.
00:29:35: Und das der Schuldige, den du dann gefunden hast,
00:29:37: ob derjenige ist, der aber in Wahrheit nichts damit zu tun hat,
00:29:40: das ist eben so, aber irgendwohin entleht sich das.
00:29:43: Und diese Spannung, die wir hier sehen,
00:29:45: die werden zunehmen, die werden bei uns zunehmen,
00:29:47: die werden in den USA noch schneller zunehmen,
00:29:49: die werden auch anderswo zunehmen.
00:29:51: Und deswegen muss man einige Modelle,
00:29:53: die einige vollkommen abwegig halten,
00:29:55: zumindest mal überdenken.
00:29:57: Ich glaube, ich spreche schon seit anderthalb Stunden, oder?
00:29:59: Völlig egal.
00:30:01: Ihr dürft es ja auch in einzelnen Abschnitten euch anhören.
00:30:05: Universeltes Grundeinkommen.
00:30:07: Das fühlt sich für mich auch nach Beelöwisierung an.
00:30:09: Weil, wie gesagt, es fördert die Passivität,
00:30:12: das willst du eigentlich nicht, es gibt Inflationsrisiken,
00:30:15: und selbstverständlich musst du das Ganze auch finanzieren.
00:30:17: Ich sag's nur ganz offen,
00:30:19: es fällt mir momentan nicht so viel anderes ein,
00:30:22: wie du diejenigen, die offensichtlich durch die Entwicklung,
00:30:26: die jetzt schon begonnen haben, wie die verlieren.
00:30:29: Du kannst nicht alle umschulen.
00:30:32: Es gibt einfach Menschen, die werden an dieser Entwicklung
00:30:36: deutlich weniger Teil haben, wirtschaftlich weniger Teil haben.
00:30:39: Und man muss sich einfach fragen,
00:30:41: wie man mit diesem Teil der Gesellschaft,
00:30:43: es ist ja eine Übergangsphase, wie man damit umgeht.
00:30:46: Ich bin deshalb nicht wirklich damit,
00:30:48: weil so etwas mal implementiert,
00:30:51: wahrscheinlich später kaum zurückzunehmen ist.
00:30:53: Und es sind ja ein, zwei Generationen.
00:30:56: Und dann werden Menschen ja aufwachsen, in dem Wissen,
00:30:59: ich muss diese oder jene Fähigkeiten mit sich bringen.
00:31:02: Und sie werden vor allen Dingen, da sind wir wieder beim Thema,
00:31:05: eine andere Art von Bildung haben.
00:31:07: Eine individualisiertere Bildung,
00:31:10: um dann möglicherweise in so einem Gesellschaftskonstrukt
00:31:14: eben auch teilnehmen zu können an dieser Geschwindigkeit.
00:31:18: Es gibt andere Gedanken, wie etwa eine Negativsteuer,
00:31:24: wer unter einem bestimmten Einkommen liegt,
00:31:27: erhält also staatliche Transfers.
00:31:29: Das heißt, du gehst deinen Job nach,
00:31:33: wenn das zu diesem oder jedem Einkommen führt
00:31:37: und das unterhalb dieser Grundsicherung liegt,
00:31:39: dann bekommst du vom Staat den Ausgleich,
00:31:43: um diesen Sockelbetrag zu erreichen.
00:31:46: Das vermeidet die Ungleichheit,
00:31:49: ohne dass man gleich ein universelles Grundeinkommen implementiert.
00:31:52: Arbeitszeitverkürzung, Job-Sharing ist natürlich auch möglich.
00:31:58: Das heißt, wenn weniger Arbeit gebraucht wird
00:32:00: und in einigen Bereichen wird das so sein,
00:32:03: dann könnte man mit einer 20-Stunden-Woche
00:32:07: oder einer 30-Stunden-Woche die Arbeit gerechter verteilen,
00:32:11: sofern die aber nicht besser bezahlt wird,
00:32:13: kommst du wieder an den Ausgangspunkt und sagst,
00:32:16: hast du dann mit 20 oder 30 Stunden in der Woche Arbeit,
00:32:20: erreichst du dann überhaupt die Grundsicherungsgrenze?
00:32:25: Wir haben natürlich eine Notwendigkeit,
00:32:28: Menschen weiterzubilden, von verhältnismäßig
00:32:32: in Anführungszeichen einfachen Jobs, repetitiven Aufgaben,
00:32:36: die es dann schlicht und einfach nicht mehr gibt,
00:32:39: in Tätigkeiten, die wir in unserer Gesellschaft sehr gut brauchen
00:32:43: und wo wir einen klaren Mangel haben, Pflege, Soziales.
00:32:47: Wir sind eine alte Bevölkerung, wir werden noch viel älter.
00:32:51: Es gibt den Gedanken,
00:32:53: es ist ein ganz interessanter norwegischer Forscher drüber gesprochen.
00:32:57: Das studiere ich, Link pack euch mal nichts hier rein.
00:33:01: Eine Abgabe auf KI-getriebene Produktivität,
00:33:06: also diejenigen, die offensichtlich am stärksten profitieren,
00:33:10: geben etwas zurück an die Gesellschaft
00:33:13: in Form von diesen Anführungszeichen.
00:33:15: Das ist so etwas ähnliches wie eine Übergewinnsteuer.
00:33:18: Übergewinnsteuer klingt natürlich für jeden, der akzeptiert hat,
00:33:22: dass der Kapitalismus seine Schwächen hat,
00:33:25: aber am Ende die Form der Gesellschaft ist, die sich durchsetzt,
00:33:31: mehr und mehr muss man sagen.
00:33:33: Man muss trotzdem darüber Gedanken machen,
00:33:36: wie du dann auf eine gewisse Art und Weise etwas zurückfließen lassen kannst.
00:33:41: Ich verstehe jede Kritik und wenn man sagt,
00:33:44: ich gebe da als Aktionär und ein bisschen weiterdenken,
00:33:47: wir sprechen ja hier über eine allgemeine künstliche Intelligenz,
00:33:52: die viele von uns überflüssig macht.
00:33:55: Natürlich keine Finfluencer, das ist ja klar.
00:33:59: Um die reine Wissensvermittlung, wer heute als Finfluencer sagt,
00:34:04: ich mache reine Wissensvermittlung,
00:34:06: der muss sich in den nächsten fünf Jahren etwas anderes suchen.
00:34:09: Denn das ist ja keine Computerstimme, die dir dann den ETF erklärt
00:34:13: oder sagt, wie Frauen in bestimmten Lebenssituationen.
00:34:18: Also das wird schon durchaus einfühlsam passieren,
00:34:21: nur da jeder weiß, dass diese Leistung von jedem verfügbar ist,
00:34:26: ist es nie mehr so, dass man, wenn man schönes Schleifchen dran macht,
00:34:30: das geht logischerweise für Männer und Frauen gleichermaßen,
00:34:33: dass das dann noch was wert ist.
00:34:35: Reine Wissensvermittlung ist nichts mehr wert dann in diesem Szenario.
00:34:40: Dieses Mentale und ich nehme die Menschen an der Hand,
00:34:44: das wird wunderbar funktionieren,
00:34:46: ohne dass da eine menschliche Komponente noch drinsteckt.
00:34:49: Dann gibt es natürlich auch noch die Möglichkeit,
00:34:52: dass man sagt, ich halte ja allerdings für am unwahrscheinlichsten,
00:34:56: dass man die KI-Infrastruktur, jetzt kommt es, verstaatlicht,
00:35:02: sagt sie mir, das wiederum waren ja nicht die berühmten australischen Forscher,
00:35:06: sondern schwedische Forscher, die gesagt haben,
00:35:09: wenn Datenzentren und KI-Modelle sowieso reguliert werden müssen,
00:35:13: dann sind sie ja eine Form der Grundversorgung für die Gesellschaft
00:35:17: und dementsprechend übernehmen das staatliche Institutionen,
00:35:21: was heute ist ja Private Equity,
00:35:23: sehr viel, die auch diese Datacenter bauen.
00:35:25: Dementsprechend übernehmen sie die Investitionen,
00:35:28: erhalten aber auch dafür die Ausschätzung.
00:35:30: Quasi wie eine deutsche Bahn, nur in Nicht-Marode,
00:35:35: und es bringt dem Staat was, ohne da, und es kostet hin nicht nur was.
00:35:40: Also hängt das Bild mit der deutschen Bahn, aber ihr versteht,
00:35:43: es gab ja viele Staatsbetriebe,
00:35:45: die einfach in derart viel Volumen brauchten an Investitionen.
00:35:50: Und wer könnte heute noch privat sagen,
00:35:53: ja dann baue ich eben drum herum einmal ein neues Schienennetz.
00:35:56: Es ist so teuer, dass das für viele nicht rentabel erscheint,
00:36:00: und dementsprechend kann der Staat,
00:36:02: wenn er denn die entsprechenden Mittel bereitstellt,
00:36:06: könnte das theoretisch machen.
00:36:08: Das allerdings würde derart viel Kompetenz auf staatlicher Seite erfordern,
00:36:14: damit es hier nicht zu viel Allokation kommt.
00:36:17: Das halte ich noch für das Unwahrscheinlichste, aber ohne.
00:36:21: Deswegen macht euch gerne auch mal Gedanken und tragt es hier ein.
00:36:25: Ich werde die Kommentare hier unter diesem Video gerne lesen.
00:36:29: Ohne neue Sozial- und Verteilungsmechanismen ist eine Gesellschaft,
00:36:35: in der es eine AGI gibt, nochmal, wir reden nicht von heute,
00:36:39: würde die Ungleichheit massiv verstärken.
00:36:43: Es braucht deutlich weniger human- und jede menschliche Arbeitsleistung,
00:36:49: hier Leistung, und dementsprechend sind die gesellschaftlichen Konflikte
00:36:54: vorprogrammiert, wenn unsere Gesellschaft sich eben bis dahin
00:36:58: nicht in eine andere Richtung entwickelt.
00:37:01: Kluge Politik ist hier gefragt.
00:37:06: Das lasse ich mal zu stehen.
00:37:08: Also tut mir leid, dass es heute ein bisschen länger war, glaubt mir.
00:37:11: Gedanklich habe ich schon eine ganze Menge eingekürzt.
00:37:14: Ich habe ja gesagt, es ist ein dickes Brett.
00:37:16: Soll auch nur eine Anregung darüber sein.
00:37:18: Wir wissen ja nicht, wie schnell es kommt.
00:37:20: Und selbstverständlich sehe ich mich außerstande,
00:37:23: diese Zukunft heute schon klar vor mir zu sehen,
00:37:27: aber sich einfach mal Gedanken darüber zu machen.
00:37:30: Wir sind heute ein bisschen abseits gewesen von der Geldanlage am Montag.
00:37:34: Montags und Mittwochs gibt es ganz konkret um Geldanlage.
00:37:38: Sprechen wir aber darüber.
00:37:40: Jetzt brauche ich Pause.
00:37:42: Ich komme gerade von der Massage und ich fühle mich so,
00:37:46: als könnte ich wieder hin.
00:37:48: Aber ich habe ja ein Massagesessel.
00:37:50: Den da gehe ich jetzt gleich rein.
00:37:52: Also macht es gut.
00:37:53: Ich wünsche euch einen schönen Sonnabend und bis Montag.
00:37:56: Ciao ciao.
00:37:57: Herzlichen Dank für deine Aufmerksamkeit.
00:37:59: Ich würde mich sehr freuen, wenn wir uns beim nächsten Mal gesund und munter wiedersehen.
00:38:03: Bis dahin, alles Gute, dein Lars.
Neuer Kommentar