Page de couverture de If Anyone Builds It, Everyone Dies

If Anyone Builds It, Everyone Dies

Why AI Is on Track to Kill Us All—and How We Can Avert Extinction

Précommander avec l'offre Précommander pour 0,00 $
L'offre prend fin le 30 avril 2025 à 23 h 59, heure du Pacifique.
Logo de Prime Exclusivité Prime: 2 titres gratuits à choisir pendant l'essa. Des conditions s’appliquent.
Choisissez 1 livre audio par mois dans notre collection inégalée.
Écoutez à volonté des milliers de livres audio, de titres originaux et de balados.
Accédez à des promotions et à des soldes exclusifs.
Après 3 mois, Premium Plus se renouvelle automatiquement au tarif de 14,95 $/mois. Annulation possible à tout moment.
Choisissez 1 livre audio par mois dans notre incomparable catalogue.
Écoutez à volonté des milliers de livres audio, de livres originaux et de balados.
L'abonnement Premium Plus se renouvelle automatiquement au tarif de 14,95 $/mois + taxes applicables après 30 jours. Annulation possible à tout moment.

If Anyone Builds It, Everyone Dies

Auteur(s): Eliezer Yudkowsky, Nate Soares
Précommander avec l'offre Précommander pour 0,00 $

14,95 $/mois après 3 mois. L'offre prend fin le 30 avril 2025 à 23 h 59, heure du Pacifique. Annulation possible à tout moment.

14,95$ par mois après 30 jours. Annulable en tout temps.

Précommander pour 25,24 $

Précommander pour 25,24 $

Confirmer la précommande
Payer avec la carte finissant par
En confirmant votre achat, vous acceptez les conditions d'utilisation d'Audible et la déclaration de confidentialité d'Amazon. Des taxes peuvent s'appliquer.
Annuler

À propos de cet audio

An urgent warning from two artificial intelligence insiders on the reckless scramble to build superhuman AI—and how it will end humanity unless we change course.

In 2023, hundreds of machine-learning scientists signed an open letter warning about our risk of extinction from smarter-than-human AI. Yet today, the race to develop superhuman AI is only accelerating, as many tech CEOs throw caution to the wind, aggressively scaling up systems they don't understand—and won’t be able to restrain. There is a good chance that they will succeed in building an artificial superintelligence on a timescale of years or decades. And no one is prepared for what will happen next.

For over 20 years, two signatories of that letter—Eliezer Yudkowsky and Nate Soares—have been studying the potential of AI and warning about its consequences. As Yudkowsky and Soares argue, sufficiently intelligent AIs will develop persistent goals of their own: bleak goals that are only tangentially related to what the AI was trained for; lifeless goals that are at odds with our own survival. Worse yet, in the case of a near-inevitable conflict between humans and AI, superintelligences will be able to trivially crush us, as easily as modern algorithms crush the world’s best humans at chess, without allowing the conflict to be close or even especially interesting.

How could an AI kill every human alive, when it’s just a disembodied intelligence trapped in a computer? Yudkowsky and Soares walk through both argument and vivid extinction scenarios and, in so doing, leave no doubt that humanity is not ready to face this challenge—ultimately showing that, on our current path, If Anyone Builds It, Everyone Dies.

©2025 Eliezer Yudkowsky and Nate Soares (P)2025 Little, Brown & Company
Histoire et culture Informatique Politique Politiques publiques

Ce que les auditeurs disent de If Anyone Builds It, Everyone Dies

Moyenne des évaluations de clients

Évaluations – Cliquez sur les onglets pour changer la source des évaluations.