Anmelden

goodpods headphones icon

Um auf alle unsere Funktionen zuzugreifen

Öffne die Goodpods App
Close icon
Der Weg nach KAI - Ilya Sutskever, SSI, OpenAI, Google und NVIDIA: Die KI-Wette auf eine sichere Superintelligenz (Teil 2)

Ilya Sutskever, SSI, OpenAI, Google und NVIDIA: Die KI-Wette auf eine sichere Superintelligenz (Teil 2)

04/22/25 • 17 min

Der Weg nach KAI
Der Weg nach KAI – Episode 54: Ilya Sutskever, SSI, OpenAI, Google und NVIDIA: Die KI-Wette auf eine sichere Superintelligenz (Teil 2)
Im zweiten Teil steht die massive Investition von Google und NVIDIA in Ilya Sutskevers SSI im Fokus : Nach einer ersten Finanzierungsrunde über 1 Milliarde US-Dollar im September 2024 folgten im April 2025 weitere 2 Milliarden, was SSI auf 32 Milliarden US-Dollar bewertet – ohne Produkt und mit nur rund 20 Mitarbeitenden.Diese Bewertung beruht im Prinzip auf einer Wette: dem Vertrauen in Sutskevers Kompetenz und den strategischen Wert einer sicheren Superintelligenz, kurz ASI. Das Interesse großer Technologiekonzerne wie Google und NVIDIA zeigt: KI-Sicherheit wird zur eigenen Investitionskategorie und strategischem Faktor im globalen KI-Wettbewerb.Wir untersuchen auch die möglichen disruptiven Folgen einer ASI: radikale Fortschritte in Wissenschaft, Medizin und Industrie durch automatisierte Forschung, Hyperautomatisierung und kognitive Überlegenheit. Zugleich rücken Fragen nach gesellschaftlicher Organisation und ethischer Kontrolle in den Fokus. SSI könnte hier eine Schlüsselrolle übernehmen – als Pionier einer kontrollierten digitalen Superintelligenz.
plus icon
bookmark
Der Weg nach KAI – Episode 54: Ilya Sutskever, SSI, OpenAI, Google und NVIDIA: Die KI-Wette auf eine sichere Superintelligenz (Teil 2)
Im zweiten Teil steht die massive Investition von Google und NVIDIA in Ilya Sutskevers SSI im Fokus : Nach einer ersten Finanzierungsrunde über 1 Milliarde US-Dollar im September 2024 folgten im April 2025 weitere 2 Milliarden, was SSI auf 32 Milliarden US-Dollar bewertet – ohne Produkt und mit nur rund 20 Mitarbeitenden.Diese Bewertung beruht im Prinzip auf einer Wette: dem Vertrauen in Sutskevers Kompetenz und den strategischen Wert einer sicheren Superintelligenz, kurz ASI. Das Interesse großer Technologiekonzerne wie Google und NVIDIA zeigt: KI-Sicherheit wird zur eigenen Investitionskategorie und strategischem Faktor im globalen KI-Wettbewerb.Wir untersuchen auch die möglichen disruptiven Folgen einer ASI: radikale Fortschritte in Wissenschaft, Medizin und Industrie durch automatisierte Forschung, Hyperautomatisierung und kognitive Überlegenheit. Zugleich rücken Fragen nach gesellschaftlicher Organisation und ethischer Kontrolle in den Fokus. SSI könnte hier eine Schlüsselrolle übernehmen – als Pionier einer kontrollierten digitalen Superintelligenz.

Vorherige Episode

undefined - Ilya Sutskever, SSI, OpenAI, Google und NVIDIA: Die KI-Wette auf eine sichere Superintelligenz (Teil 1)

Ilya Sutskever, SSI, OpenAI, Google und NVIDIA: Die KI-Wette auf eine sichere Superintelligenz (Teil 1)

Der Weg nach KAI – Episode 53: Ilya Sutskever, SSI, OpenAI, Google und NVIDIA: Die KI-Wette auf eine sichere Superintelligenz (Teil 1)
Diesmal untersuchen wir die Entwicklung hin zu sicherer Superintelligenz (ASI), ein Ziel, das über die aktuelle Jagd nach Künstlicher Allgemeiner Intelligenz hinausgeht und besonders durch das neue Unternehmen 'Safe Superintelligence Inc.' (SSI) verkörpert wird.
Im Zentrum steht Ilya Sutskever, Mitbegründer von OpenAI und Pionier des Deep Learning (AlexNet). Nach internen Konflikten bei OpenAI über die Priorisierung von Sicherheit gründete er SSI. Unterstützt von Investoren wie Google (Alphabet) und NVIDIA, verfolgt SSI das erklärte Ziel, ausschließlich sichere Superintelligenz zu entwickeln. Das Unternehmen betont seine Unabhängigkeit von kurzfristigem kommerziellem Druck und Produktzyklen, ein Ansatz, der als "Straight-Shot"-Strategie bezeichnet wird.
ASI beschreibt eine hypothetische KI, die menschliche Intelligenz in praktisch allen kognitiven Aufgaben übertrifft. Die zentrale technische Herausforderung ist das Alignment-Problem: Wie stellt man sicher, dass eine ASI zuverlässig menschliche Werte und Absichten verfolgt, um katastrophale Fehlinterpretationen oder gar "deceptive alignment" (trügerische Anpassung) zu vermeiden?

Kommentare zur Episode

Badge generieren

Erhalte ein Badge für deine Webseite, das auf diese episode

Typ & Größe auswählen
Open dropdown icon
share badge image

<a href="https://goodpods.com/podcasts/der-weg-nach-kai-559931/ilya-sutskever-ssi-openai-google-und-nvidia-die-ki-wette-auf-eine-sich-89807662"> <img src="https://storage.googleapis.com/goodpods-images-bucket/badges/generic-badge-1.svg" alt="listen to ilya sutskever, ssi, openai, google und nvidia: die ki-wette auf eine sichere superintelligenz (teil 2) on goodpods" style="width: 225px" /> </a>

Kopieren