X

Les robots sont-ils l’avenir de l’Homme ? Une conférence de Jean-Claude Heudin

Invité par DaVinciBot, l’association robotique du  Pôle Léonard de Vinci, Jean-Claude Heudin a donné une conférence sur le thème « Les robots sont-ils l’avenir de l’Homme ? ». Le professeur et chercheur en IA a abordé l’histoire des créatures artificielles, la robotique actuelle ainsi que les perspectives d’avenir de ce domaine.

L’approche de la robotique de Jean-Claude Heudin ne se limite pas à la science et à la technologie, il accorde également une importance majeure à son aspect culturel et historique.

Des premières représentations de créatures au mythe de Pygmalion

Les premières représentations de créatures, humaines ou animales, remontent à la Préhistoire. Les créatures artificielles sont nées en deux dimensions, sur une fresque rupestre ou en trois dimensions grâce à la sculpture. Dès cette époque, ce qui différencie le vivant du non vivant, ce sont la forme et le mouvement. Les Grecs sont les premiers à mettre au point des automates, via des techniques héritées des Egyptiens. Le vocable grec « automatas » signifie « qui se meut par lui-même ». La représentation humaine est alors capable de mouvements, initiés par des mécaniques simples.

L’intelligence du système est le stade suivant la capacité à se mouvoir sans intervention extérieure.

Jean-Claude Heudin cite les Métamorphoses d’Ovide et plus particulièrement ce qui sera nommé le » mythe de Pygmalion » comme étant la fondation de toute l’histoire des créatures artificielles.

Le roi Pygmalion, las de ne trouver une femme qui réponde en tout point à ses nombreux critères physiques et moraux sculpte son idéal féminin. Il en tombe amoureux. Aphrodite lui donne la vie. Jean-Claude Heudin souligne que le mythe de Pygmalion a une issue heureuse, Pygmalion et Galatée se marient et ont une fille. Dans les représentations ultérieures, la créature artificielle est une jeune femme attrayante, rappelant invariablement ce mythe.

Les représentations autour des créatures artificielles sont sources de  fascination, mais aussi d’interrogations sur nos origines. Jean-Claude Heudin explique que ces histoires sont aussi signes de transgression, car la création et l’animation de ces créatures sont des interdits forts dans les religions du bassin méditerranéen.

De Frankenstein aux robots chirurgicaux

Contrairement au mythe fondateur de Pygmalion, bon nombre d’histoires autour de la créature artificielle finissent mal. La transgression des tabous, en grande partie religieux, aboutit à une malédiction. Avant même les succès de science-fictions des décennies passées, Jean-Claude Heudin évoque Frankenstein de Mary Shelley. Paru en 1816, ce classique amorce la réflexion autour de la science. Les artistes romantiques se sont emparées de la créature artificielle, encore appelée « automate », pour développer des récits haletants en introduisant néanmoins des raisonnements éthiques.

Le perfectionnement de la mécanique horlogère fait naître des automates reproduisant le vivant. Citons notamment les travaux de Vaucansson. En revanche, c’est la révolution industrielle, et plus particulièrement le déploiement de l’électricité, qui fait avancer les technologies autour des créatures artificielles.

Saut dans le temps, en 1950. William Grey Walter, neurophysiologiste britannique présente deux tortues se déplaçant de manière autonome. Celles-ci sont capables de comportements complexes, de se recharger, ou de se déplacer vers la lumière. On assiste à cette époque à deux grandes tendances de la robotique : vers une représentation humanoïde ambitieuse, et vers une représentation plus pragmatique qui mime autre chose que l’humain, comme la tortue.

En 1971, l’invention des premiers microprocesseurs, change considérablement la robotique car ils peuvent enfin être embarqués sur les robots. L’intelligence n’est plus déportée.

Rodney Brooks, robotocien du MIT a utilisé les microprocesseurs pour créer des robots insectoïdes. Il est également à l’origine de l’architecture de subsomption, paradigme qui a changé la manière dont on envisageait l’intelligence dans les robots.

« Jusqu’alors on avait une approche traditionnelle, c’est-à-dire que l’on mettait des capteurs, qu’on faisait des calculs et qu’une action se déclenchait derrière. Plus les calculs sont intelligents, plus le robot l’est. Le problème, c’est que les temps de calcul peuvent être tels que le robot perd en réactivité. L’architecture de Rodney Brooks est une succession de couches, du réflexe jusqu’aux niveaux de comportements les plus avancés », explique Jean-Claude Heudin.

Cette avancée technologique permet de déployer des robots plus petits, plus nombreux, moins chers et capables de coopérer. En ligne de mire, la conquête de l’espace. Les années 80 voient la mise en service de robots d’interventions tels que Curiosity, envoyé sur Mars, planète très éloignée de la terre et peu accueillante pour les hommes. Les drones sont aussi utilisés dans l’armée, bénéficiant d’une certaine autonomie mais dont les grandes fonctions demeurent téléopérées.

Enfin, les robots chirurgicaux ont constitué une avancée de taille dans le domaine de la santé, en permettant les opérations à distance et la répétition de mouvements avec la meilleure expertise possible.

Du deep learning à la remise en cause de la singularité technologique

A partir de 2012, l’avènement du du deep learning modifie la perception de l’IA et la robotique. Auparavant les scientifiques utilisaient majoritairement des systèmes à base de règles, mais cette approche montre rapidement ses limites car il faut un nombre considérable de règles pour aborder la complexité du réel. En outre, le système n’est pas capable d’apprendre lui-même ces règles.

« La nouveauté réside dans la création de réseaux de neurones qui sont capables d’exécuter ce qu’on leur a appris et surtout qui sont capables d’apprendre. A partir de 2014, les résultats obtenus par les machines sont de l’ordre de ce qu’un humain serait capable de faire, parfois même meilleurs », précise Jean-Claude Heudin.

Deux explications à cette amélioration spectaculaire : l’accès à un très grand nombre de données est considérablement facilité par Internet. Dans le cadre de reconnaissance d’images, si on donne énormément d’images au réseau, il les reconnait beaucoup mieux. Deuxième chose, les calculs sont facilités par les cartes graphiques (GPU). On arrive enfin à mettre une centaine de couches de neurones dans chaque réseau, améliorant ainsi leur efficacité.

Jean-Claude Heudin aborde la « grande convergence » des nanotechnologies, biotechnologies, sciences de l’information et sciences cognitives. L’alliance de ces technologies donnera lieu à des champs d’application que l’on ne peut encore imaginer. Notamment, nous serions capables de faire des systèmes à l’échelle moléculaire dotés de capacités extrêmement développées. La robotique en essaim pourrait en faire partie.

Le professeur et chercheur en intelligence artificielle est revenu en détail sur la singularité technologique, théorisée par Ray Kurzweil. Ce dernier, chercheur au MIT et notamment connu pour ses travaux sur la reconnaissance optique de caractères considère que notre intelligence nous permet de créer de la technologie mais que la technologie augmente notre intelligence en retour. D’après lui, ce cercle vertueux va s’accélérant. En 2045, nous attendrions la singularité technologique. La machine sera tellement intelligente qu’elle dépassera l’intelligence de l’ensemble des humains d’une part, et sera capable de s’améliorer seule d’autre part.

Jean-Claude Heudin fait partie des détracteurs de cette théorie. Il considère qu’elle est basée sur la loi de Moore, qui a montré ses limites depuis 2004, notamment car les microprocesseurs ne s’améliorent plus autant que lors des premières années de leur création. De plus, la courbe infinie d’augmentation des capacités ne tient pas compte des ressources. Enfin, Jean-Claude Heudin objecte que la puissance de calcul n’est pas l’intelligence.

En conclusion, Jean-Claude Heudin considère que tout un chacun doit se préoccuper du développement de l’intelligence artificielle et de la robotique dans les domaines du transport, de la santé, etc. Il ne faut pas laisser la main aux scientifiques et aux politiques uniquement, comme cela a été le cas pour les drones de guerre. Il précise que la communauté scientifique s’est mise d’accord pour adopter des règles éthiques dès les début, comme en médecine, pour ne pas arriver à des extrêmes que l’on pourrait regretter ensuite.

Jean-Claude Heudin est professeur et chercheur en Intelligence Artificielle. Il est titulaire d’un doctorat et d’une habilitation à diriger des recherches de l’Université Paris-Sud. Il est l’auteur de nombreux articles scientifiques au niveau international ainsi que plusieurs ouvrages dans les domaines de l’IA et des sciences de la complexité aux éditions Odile Jacob, puis Science eBook dont il est le fondateur. Il intervient régulièrement dans les entreprises souhaitant intégrer l’IA dans leur stratégie ainsi que dans les médias et conférences grand public à propos de l’IA et des robots. Il a également été récompensé par l’obtention du premier prix de recherche et d’innovation.

http://www.jcheudin.fr/

L’association DaVinciBot regroupe tous les passionnés de robotique du pôle Léonard de Vinci (PULV). Elle est née suite à l’initiative d’un groupe d’étudiants voulant participer à la Coupe De Robotique (CDR), événement phare dans le monde de la robotique française. Par la suite, une volonté de faire grandir l’association a vu le jour, afin de pouvoir développer de nombreux nouveaux projets et de gagner de nouveaux membres. Aujourd’hui, l’association tend à devenir une association orientée vers la mise en place de projets étudiants. Afin de pouvoir inscrire cette volonté dans le cursus scolaire du pôle, l’association fait la distinction entre deux catégories : les projets personnels à l’initiative des élèves et les projets rentrent dans le cadre des projets annuels de l’ESILV (PIX, le PING et le PI²).

http://davincibot.org/

Categories: Recherche
Related Post