De nombreux chercheurs en intelligence artificielle pensent que dans quelques décennies, l'intelligence artificielle sera en mesure de faire non seulement certains de nos travaux, mais également tous nos emplois, transformant à jamais la vie sur Terre. La raison pour laquelle beaucoup considèrent cela comme de la science-fiction est que nous avons toujours considéré l'intelligence comme quelque chose de mystérieux qui ne peut exister que dans les organismes biologiques, en particulier les humains. Mais un tel chauvinisme carbone n'est pas scientifique. En tant que physicien et chercheur en intelligence artificielle, l'intelligence est simplement un certain type de traitement de l'information effectué par des particules élémentaires qui se déplacent, et aucune loi de la physique ne dit qu'on ne peut pas construire des machines plus intelligentes que nous. Cela suggère que nous n'avons vu que la pointe de l'iceberg de l'intelligence et qu'il existe un potentiel incroyable pour débloquer l'intégralité de l'intelligence latente dans la nature et l'utiliser pour aider l'humanité à s'épanouir - ou à patauger. Si nous y parvenons, le potentiel est énorme: puisque tout ce que nous aimons la civilisation est le produit de l'intelligence, amplifier notre propre intelligence avec l'IA a le potentiel de résoudre les problèmes les plus épineux de demain. Par exemple, pourquoi risquer la mort de nos proches dans des accidents de la route que des voitures autonomes pourraient prévenir ou succomber à des cancers pour lesquels une IA pourrait nous aider à trouver des remèdes? Pourquoi ne pas accroître la productivité et la prospérité grâce à l'automatisation et utiliser l'IA pour accélérer notre recherche et développement d'énergie durable et abordable? Je suis optimiste sur le fait que nous pouvons prospérer avec l'IA avancée tant que nous gagnons la course entre la puissance croissante de notre technologie et la sagesse avec laquelle nous la gérons. Mais cela nécessite d'abandonner notre stratégie obsolète consistant à tirer les leçons des erreurs. Cela nous a aidés à gagner la course de la sagesse avec une technologie moins puissante: nous avons bousillé le feu, puis nous avons inventé les extincteurs, et nous nous sommes égarés avec les voitures, puis les ceintures de sécurité. Cependant, c’est une stratégie terrible pour des technologies plus puissantes, telles que les armes nucléaires ou l’IA superintelligente - où même une seule erreur est inacceptable et nous devons bien faire les choses du premier coup. Étudier le risque lié à l'IA n'est pas un alarmisme Luddite, c'est une technique de sécurité. Lorsque les responsables du programme Apollo ont soigneusement réfléchi à tout ce qui pouvait mal tourner lors de l'envoi d'une fusée avec des astronautes sur la Lune, ils ne se sont pas montrés alarmistes. Ils faisaient précisément ce qui a finalement conduit au succès de la mission.