Poutine et Musk ont ​​peut-être raison: les experts de l’industrie disent qu’il est théoriquement impossible de s’assurer que l’IA ne nuira pas aux humains

Alors que les chercheurs continuent à faire des progrès dans l’intelligence artificielle, ou l’intelligence artificielle, plus les appels deviennent de plus en plus fréquents, non pas simplement à la légère avec la technologie, mais pour l’abandonner complètement.

Et pourquoi? Parce que beaucoup craignent que la technologie se transforme un jour en humains et nous efface tous.

Elon Musk, entrepreneur et fondateur de Tesla, qui, avec le scientifique Stephen Hawking, a écrit une lettre ouverte à l’industrie de la technologie en 2015 avertissant qu’AI mettrait non seulement des dizaines de millions de personnes au chômage, a déclaré l’un des plus ardents défenseurs de cette théorie. mais rendra probablement les robots d’auto-apprentissage beaucoup plus intelligents que les humains à long terme. Et quand cela arrive, disent-ils, nous serons menacés d’extinction par des robots tueurs.

Cet avertissement a été récemment réitéré, quoique de façon un peu moins dramatique, par le président russe Vladimir Poutine, qui a déclaré à un million d’écoliers russes via une liaison vidéo satellite en septembre que l’IA « est l’avenir » de « toute l’humanité ».

« Celui qui devient le leader dans cette sphère deviendra le chef du monde », a-t-il dit.

Il s’avère que ces hommes peuvent avoir exactement raison.

Dans un essai publié sur le site de l’IMDEA Networks Institute – une organisation de recherche en réseau avec une équipe de recherche multinationale engagée dans la recherche scientifique fondamentale de pointe – «contenir» une superintelligence est «théoriquement impossible», ce qui signifie qu’elle ne peut pas être «enseigné» ou «forcé» de protéger ou de défendre les humains.

«Les machines qui« apprennent »et prennent des décisions par elles-mêmes se multiplient dans notre vie quotidienne via les réseaux sociaux et les smartphones, et les experts réfléchissent déjà à la façon de les concevoir pour qu’ils ne se fâchent pas» médian.

Parmi les suggestions faites jusqu’ici, on peut citer la « formation » des machines à auto-apprentissage pour ignorer des types de données et d’informations qui pourraient leur permettre d’apprendre le racisme ou le sexisme et de les coder pour qu’elles manifestent de l’empathie et du respect.

« Mais d’après de nouveaux travaux de chercheurs de l’Universidad Autónoma de Madrid, ainsi que d’autres écoles en Espagne, aux États-Unis et en Australie, une fois qu’une IA deviendra » superintelligente « – pensée Ex Machina – il sera impossible de la contenir, « L’essai dit.

À quoi ressemblerait un programme de «superintelligence»? Ce serait probablement un programme qui comprendrait tous les autres programmes, avec la possibilité d’obtenir de nouveaux programmes dès qu’ils seront disponibles. (Connexe: Elon Musk prévient que l’IA pourrait éliminer l’humanité.)

Là encore, puisque l’IA est autodidacte, à ce stade, le robot, l’ordinateur ou l’appareil «superintelligence» serait capable de produire son propre codage et programmation, et en temps réel. C’est la vitesse à laquelle ces machines apprendraient – puis produisent et réagissent.

En ce moment, la pensée que les machines peuvent gouverner le monde n’est rien de plus qu’une théorie. Mais c’est un qui a des gens très intelligents très préoccupés par où l’IA nous prendra, et pas trop longtemps dans le futur.

Poutine n’a peut-être pas fait allusion aux applications militaires de l’IA dans ses discussions avec les écoliers russes, mais ne pense pas un seul instant qu’il ne pense pas à la façon d’adapter la technologie aux systèmes d’armes existants (et futurs).

Plutôt que de construire des robots «tueurs» capables d’apprendre à une vitesse accélérée, imaginez des systèmes d’armes standards qui réfléchissent et s’adaptent à la volée.

Prenez des ICBM, par exemple. À l’heure actuelle, les missiles ont une certaine capacité à s’ajuster en vol, grâce aux liaisons de données par satellite. Cela les rend plus difficiles à atteindre pour les systèmes anti-missiles.

Mais que se passerait-il si les ICBM entrants pouvaient détecter les menaces et s’y adapter en temps réel, sans intervention humaine? Ils deviendraient beaucoup plus mortels et précis – et beaucoup plus difficile à défendre contre.

« La recherche sur l’IA est susceptible de révolutionner la technologie militaire au même titre que l’invention des avions et des armes nucléaires », écrit Gregory Allen pour CNN. « En d’autres termes, Musk a raison de dire que chaque pays recherche la supériorité de l’IA et que cette poursuite comporte de nouveaux risques. »

J. D. Heyes est un correspondant principal du réseau de sites Natural News et éditeur de The National Sentinel.