Un llamamiento inaplazable para poner freno a la carrera hacia la superinteligencia.Desde hace unos años, cientos de expertos en inteligencia artificial vienen advirtiendo que esta supone un grave peligro de extincion para la humanidad. Sin embargo, la carrera no ha dejado de intensificarse: empresas y paises compiten por crear maquinas mas inteligentes que cualquier persona, y el mundo no esta preparado. Durante decadas, Yudkowsky y Soares han estudiado como pensaran estas inteligencias, y su conclusion es cristalina: basta una minima desviacion para que desarrollen objetivos propios en conflicto con los nuestros. Si llega el momento, no habra marcha atras, pero aun estamos a tiempo de frenar y diseñar politicas que garanticen nuestra seguridad. La solucion esta clara: debemos actuar ahora para que la IA sea una aliada, no una amenaza.Este libro explica por que es importante que nos protejamos de la IA, como podrian sucederse los acontecimientos y que debemos hacer para evitar que nos domine.