Faut-il craindre les risques liés à l’intelligence artificielle ?
Sommes-nous en train de développer des machines qui dépassent nos capacités de compréhension et serons-nous capables de contrôler indéfiniment ces mêmes machines ? Les avancées technologiques pourraient-elles, à terme, provoquer la fin de l’humanité ?
La question n’est pas neuve et a souvent alimenté l’imaginaire des écrivains et autres cinéastes. Mais la science-fiction va-t-elle nous rattraper ? Pour tenter de répondre à la question, le journaliste Matt Miller du Washington Post s’est inspiré de Ray Kurzweil qui fait valoir que ce qui distingue notre époque de toutes les précédentes est l’accélération du rythme du progrès technologique – via la numérisation de tout. Du coup, nous ne serions qu’à quelques décennies de la prise de pouvoir des ordinateurs sur l’humain, supposant qu’il sera alors possible de télécharger des versions numérisées de nos cerveaux pour qu’une certaine manifestation de notre être soit immortelle.
Il n’en fallait pas plus pour que certains y voient une véritable menace pour l’humanité. Pour eux, le mélange de la robotique aux biotechnologies et nanotechnologies pourrait faire bien plus de dégâts que l’arme atomique. Et n’allez pas croire que seuls quelques ahuris pensent de la sorte, ils sont nombreux à le croire, y compris Jaan Tallinn qui a contribué à créer Skype et qui craint désormais que la puissance technologique fera bien plus de ravages que le cancer. Il a même créé avec Martin Rees, auteur notamment d’un ouvrage peu optimiste Our Final Century (Notre dernier siècle), un centre dédié à l’étude des risques liés à l’intelligence artificielle.
Matt Miler s’appuie ensuite sur la position de James Barrat et de son livre Our Final Invention: Artificial Intelligence and the End of the Human Era (Notre invention finale : l’intelligence artificielle et la fin de l’ère humaine), qui fait le constat que de nombreux spécialistes sont au courant des risques d’un emballement incontrôlable de l’intelligence artificielle, mais que personne n’en parle. Pourquoi ? Tout le monde se baserait sur le fait que puisque rien de terrible ne s’est produit jusqu’à présent, il ne devrait probablement rien se produire à l’avenir.
Ainsi, de nombreux chercheurs préfèrent se dire que nous nous limiterons à construire une intelligence artificielle amicale avec des systèmes programmés sur base de certaines valeurs et avec le respect de l’être humain. Mais, Matt Miler, d’ajouter : Une fois que nos machines seront des millions ou des milliards de fois plus intelligentes que nous ne le sommes (en termes de puissance de traitement et des capacités que cela induit), comment empêcher ces machines de nous considérer autrement que comme des fourmis ou des animaux de compagnie ?
Sans oublier que les applications militaires de cette intelligence artificielle pourraient bien provoquer une nouvelle course aux armements, bien plus dangereuse que celles développées jusqu’à présent. Des dromes autonomes seraient ainsi déjà capables de décider de l’utilisation de la force, et ce, sans intervention humaine. Le président Obama lui-même devrait lancer d’ici peu une commission présidentielle sur les dangers de l’intelligence artificielle afin d’engendrer un débat national sur la question.