Est-il inévitable que nous finissions par créer des machines plus intelligentes que nous ?

L’hypothèse selon laquelle nos systèmes sociaux, hyper-concurrentiels, ne seront pas capables d’empêcher, dans un avenir indéterminé, une domination par des super-intelligences artificielles, cette hypothèse agite beaucoup le monde des futurologues. Je vous recommande la conférence donnée par Sam Harris dans le cadre des TED, « Pouvons-nous construire une Intelligence Artificielle sans finir par en perdre le contrôle ? »
Sam Harris est un essayiste à succès, auteur de 4 best-sellers, très appréciés des lecteurs du New York Times. Pour lui, cela ne fait aucun doute : à force de perfectionnement technologique, il est à peu près inévitable que nous finissions par créer des machines plus intelligentes que nous. Des machines qui n’auront plus besoin de programmeurs humains pour améliorer elles-mêmes leurs performances. Elles seront plus compétentes que nous. Et elles excèderont notre intelligence dans une mesure que nous ne pourrons même pas imaginer. C’est, dit Sam Harris, le plus grand défi auquel sera confronté notre espèce. Certes, concède-t-il, personne ne peut prédire quand cela va se produire. Mais ceux qui croient nous rassurer en nous garantissant qu’en tous cas, c’est dans longtemps sont des plaisantins. Imaginez, poursuit Sam Harris, que nous recevions le message suivant : « Peuples de la terre, nous sommes des membres d’une civilisation extérieure au système solaire et nous arriverons sur votre planète dans cinquante ans… Notre réaction serait-elle : hé bien tant mieux, nous avons encore le temps.
Mais ce pessimisme est-il universellement partagé ? Non. Luciano Floridi, philosophe italien, qui enseigne l’éthique de l’informatique à Oxford, renvoie dos à dos ceux qui croient et ceux qui ne croient pas à l’apparition de cette « machine ultra-intelligente », destinée à poursuivre ses propres finalités, sans plus d’égard pour les effets qu’elles pourraient avoir sur les vies humaines que nous n’en avons pour les fourmis. Les premiers feraient mieux de réfléchir à ce qui se passe ici et maintenant, plutôt que d’inquiéter les gens avec des hypothèses invérifiables : l’effet que les robots sont en train de produire sur le marché du travail – où ils remplacent y compris la main d’œuvre qualifiée ; l’usage militaire des drones que certains verraient bien éliminer des cibles sans plus de surveillance humaine ; les risques pesant sur la cybersécurité, etc.
Rien ne dit que la loi de Moore, selon laquelle le nombre de transistors sur les circuits intégrés double tous les deux ans ne va pas atteindre une limite, car l’illimité n’existe pas, poursuit Floridi. Quant aux « non-croyants », qui se contentent d’affirmer qu’une machine ne peut pas penser et n’a pas de conscience, ils devraient se méfier. Bien des experts estiment qu’une machine pourra passer le Test de Turing dans les cinq ans qui viennent. C’est-à-dire qu’il sera impossible de voir une différence entre la réponse verbale posée à une question par un humain ou par une machine. Toutefois, poursuit Luciano Floridi, la véritable intelligence artificielle, c’est-à-dire littéralement une machine qui pense est « logiquement impossible et complètement invraisemblable ».
Cela n’empêche pas que la jonction entre d’énormes quantités de données et des programmes hyper-sophistiqués rendent nos comportements de plus en plus prévisibles. Nous ne sommes plus le centre de l’infosphère. C’est une révolution conceptuelle comparable à celle provoquée par Copernic…
Brice Couturier est journaliste à France Culture. Tous les jours, à 11h55, dans "Le tour du monde des idées", Brice Couturier fait la synthèse des nouvelles parutions sur les 5 continents : livres, revues, articles, imprimés ou numériques.