jeudi 19 janvier 2017

Faut-il avoir peur de l’intelligence artificielle ?

En se fiant à l’imagination des scénaristes d’Hollywood on jurerait que la généralisation des logiciels et machines intelligents est le pire des périls menaçant la planète. On peut pourtant facilement arguer que les intelligences artificielles soulèvent une problématique bien plus vaste et subtile que se demander si elles représentent un écueil pour notre monde

La sortie de la première saison de “Westworld”, la nouvelle série événement de la chaîne HBO qui avait déjà produit Games of Thrones, a relancé le débat autour de l’intelligence artificielle. Cette série, créée par Jonathan Nolan et Lisa Joy,  inspirée du film du même nom de 1973, nous plonge dans un parc d’attraction futuriste, recréant l'atmosphère du Far West grâce à des robots extrêmement réalistes. Ces humanoïdes, marchent, parlent, interagissent les uns avec les autres, et sont même capables d’empathie et de sentiments. Ils semblent ainsi plus réels qu’il n’est possible de l’imaginer. Si ce scénario est clairement une fiction, quelles sont les avancées scientifiques dans le domaine de l’intelligence artificielle ? Sommes-nous proches d’atteindre la perfection des machines de Westworld ? Et surtout, faut-il avoir peur de ces progrès ?

Mettons tout de suite les choses au point : non, l’intelligence artificielle ne présente pas un danger pour l’humanité et il faut laisser aux scénaristes de « Terminator » la vision d’un super-ordinateur qui déciderait d’éliminer la race humaine. Ce n’est pas parce que vous parlez avec Siri que vos jours sont comptés. Les technologies d’intelligence artificielle connaissent bel et bien des progrès concrets et elles sont déjà omniprésentes autour de nous mais sans présenter de menaces dans un avenir proche.

On aurait tendance à l’oublier, mais il n’existe pas une « intelligence artificielle » et l’expression désigne avant tout la discipline scientifique, aux questionnements hétéroclites, et non pas une entité unique et polyvalente. En vérité, il s’agit plutôt de logiciels, machines et robots conçus dans des buts - et donc ayant des designs et des habilités - très différents. Apprentissage automatisé, recognition visuelle, reconnaissance de la parole ou traduction automatique forment autant de domaines de recherche bien distincts, plus ou moins avancés. Par exemple, le robot Curiosity, conçu pour récolter et analyser des échantillons du sol martien après reconnaissance visuelle, pèse 900 kilogrammes pour une longueur de 2.7 mètres, tandis que le robot ApriPetit, qui a été imaginé pour aider et communiquer avec les personnes âgées, ne mesure que 16 centimètres de haut. Il existe autant de robots que de tâches à accomplir, et rares sont ceux qui manient la pluridisciplinarité avec virtuosité. Il y a de quoi rassurer les inquiets, le pire que puisse faire une IA de nos jours c’est d’envoyer ce SMS enflammé à votre mère alors qu’il était destiné à votre nouvelle conquête, et nous sommes bien loin de la révolte des machines qui a lieu dans I-Robot.

Malgré tout, la généralisation de l’IA autour de nous peut provoquer un certain malaise. Cela est lié au fait que nous leur préposons une part de nos capacités typiquement humaines. Plus un automate nous ressemble, plus nous ressentons de l’empathie pour lui.
Il existe cependant un degré de ressemblance à partir duquel la perception des détails révélant qu’il ne s’agit pas d’un humain provoquerait un profond trouble. Le robot ne serait plus jugé comme une machine se comportant comme un humain à quelques défauts près, mais comme un humain se comportant de façon étrange. Cette théorie, développée par le roboticien japonais Masahiro Mori, est appelée la théorie de la vallée dérangeante.
Afficher l'image d'origine
Le scientifique utilise le terme de “vallée” car selon lui il ne s’agirait que d’un cap à passer. Une fois la ressemblance proche de la perfection, les humains seraient beaucoup plus à l’aise avec l’aspect mimétique d’une machine. Ainsi, les logiciels et robots créés aujourd’hui sont encore bien loin de cette “vallée dérangeante”, mais considérant les avancées faites en recherche, notamment dans le domaine des machines moléculaires ou des calculateurs quantiques, on peut facilement imaginer qu’ils atteindront très rapidement ce stade.


Cependant, l’étude menée l’université de Stanford « ARTIFICIAL INTELLIGENCE AND LIFE IN 2030 » récapitulant plus de cent ans de recherche en intelligence artificielle donne une conclusion claire : il n’y a pas lieu de s’inquiéter dans l’avenir immédiat. Finalement, la crainte que peuvent susciter les IA tient (presque exclusivement) à leur niveau d’autonomie. La question n’est plus de décider si nous acceptons d’être entourés de machines et de logiciels intelligents et autonomes, mais de déterminer jusqu’à quel point nous souhaitons qu’ils le soient. C’est pourquoi le panel de chercheurs précise également qu’il faudra veiller à ce que le but de l’intelligence artificielle reste celui de créer de la valeur pour nos sociétés. Il faudra pour cela, selon eux, améliorer l’expertise des gouvernants, ne pas freiner la transparence et surtout financer des études d’impact afin d'adapter dès aujourd'hui nos politiques publiques à cette révolution en marche, estiment les experts de Stanford. 

Loïcia Bluteau

Sources :

Aucun commentaire:

Enregistrer un commentaire