Accueil > La Médiathèque > Collections > Paroles de chercheurs > L’intelligence artificielle en question

Enregistrer au format PDF

Paroles de chercheurs

L’intelligence artificielle en question

Vidéo et compte-rendu du Paroles de chercheurs du jeudi 24 novembre 2016 sur l’intelligence artificielle.

Longtemps domaine réservé de la science-fiction et de l’imaginaire utopique, l’intelligence artificielle envahit aujourd’hui nos vies, nos travaux comme nos loisirs. On la trouve dans nos ordinateurs et nos téléphones, mais aussi dans les transports, les entreprises, les services publics, la santé ou les banques. Rien de ce qui est humain ne semble lui être étranger.

Dans son sens le plus large, elle désigne une machine capable non seulement de mimer l’intelligence humaine, mais aussi dotée d’une conscience, d’émotion et d’empathie. Elle réaliserait le prodige de l’assemblage d’un fonctionnement et d’une conscience.

Mais qu’est-ce au juste que l’intelligence artificielle ? Quelles sont ses applications ?
Quels imaginaires, quels fantasmes porte-t-elle ?

Avec :

Étienne KOECHLIN, directeur du Laboratoire de Neurosciences Cognitives, Institut National de la Santé et de la Recherche Médicale / Ecole Normale Supérieure

Antoine PETIT, président directeur général, Institut national de recherche en informatique et automatique, Inria

Avec le témoignage de Flora FISCHER, chargée de programme de recherche au Cigref, pilote du groupe de travail sur l’Intelligence artificielle en entreprise.

Et la participation de M. Claude de GANAY, député, et de Mme Dominique GILLOT, sénatrice, rapporteurs de l’étude en cours de l’OPECST sur « L’intelligence artificielle ».


Transcription

Michel ALBERGANTI : Pourquoi parler d’intelligence artificielle aujourd’hui ? Il suffit de regarder ce qui se passe dans la presse pour constater à quel point le débat fait rage. Aux Etats-Unis par exemple, de nombreux experts commencent à réfléchir aux éventuelles limites à imposer (ou pas) à l’industrie de l’intelligence artificielle. Au pays du libéralisme, on commence à s’inquiéter : certains se sont par exemple réunis pour demander un moratoire sur l’utilisation des armes utilisant l’intelligence artificielle.

A l’opposé, l’intelligence artificielle concerne des objets, beaucoup plus pacifiques, comme la voiture automatique. Elle permet aussi l’analyse de radiographie pour la santé. Nombreux sont donc les domaines concernés par l’intelligence artificielle. Une des grandes questions qui se posent aujourd’hui est la suivante : l’intelligence artificielle va-t-elle progressivement occuper de plus en plus de place dans le monde du travail, et ce, au détriment des être humains ? Des décisions politiques comme celles touchant au revenu universel sont peut-être le prémisse d’une évolution vers autre chose que la rémunération du simple travail.

C’est en tout cas ce sur quoi nous allons réfléchir avec nos deux participants : Etienne KOECHLIN qui est directeur d’un laboratoire de neuroscience cognitive dépendant de l’INSERM et de l’Ecole Normale Sup ; Antoine PETIT, qui est président directeur général de l’Institut National de Recherche en Informatique et Automatique. Vous allez tous deux nous expliquer ce que signifie pour vous l’intelligence telle qu’on la connaît et l’intelligence artificielle qui est en train de gagner du terrain et des fonctions tout autour de nous. Nous écouterons ensuite Flora FISCHER et Dominique GILLOT.

Étienne KOECHLIN

Je ne crois pas que l’intelligence naturelle soit plus connue que l’intelligence artificielle. Pour introduire mon propos, je reviendrai sur deux événements qui se sont déroulés cette année.

1) Pour la première fois au mois de mars, une intelligence artificielle a battu le champion de Go. Le jeu de Go, considéré comme l’un des jeux les plus complexes, était le dernier jeu qui résistait encore à l’intelligence artificielle.

2) Autre domaine : le véhicule automatique. A l’inverse, nous ne savons toujours pas faire aujourd’hui une voiture conduisant en ville aussi bien que nous pour qui c’est naturel.

Il est intéressant de constater que ce qui nous semble naturel n’est pas forcément ce qui est simple. C’est d’ailleurs exactement l’inverse : ce sont en général des problématiques extrêmement complexes. Nous n’avons par exemple aucune idée de la manière dont nous parvenons à réaliser la tâche extrêmement complexe consistant à conduire une voiture en ville.

L’intelligence naturelle, que nous appelons cognition humaine, pourrait être caractérisée comme une interaction entre 4 systèmes : un système de perception ; un système de motricité ; un système émotionnel ; un système de jugement et de prise de décision.

La perception (auditive, visuelle, etc.) est quelque chose de très complexe. Nous ne savons pas reproduire la perception de l’œil en intelligence artificielle. La motricité est elle aussi quelque chose de complexe. Nous ne savons pas reproduire en robotique ce dont est capable une main. Les systèmes sensori-moteurs sont extrêmement sophistiqués. Ces derniers correspondent à toute la partie postérieure du cerveau humain, autrement dit aux 2/3 du cerveau.
A cela s’ajoute le système émotionnel. Les émotions humaines sont décrites selon trois axes : un axe peur – colère (la peur étant plutôt la fuite, et la colère le combat) ; un axe joie-tristesse ; un axe du dégoût. Chacun de ces axes a une pertinence. L’axe joie-tristesse revient à savoir ce qui est bon ou non pour l’individu. L’axe colère-peur permet de savoir s’il vaut mieux faire face ou fuir. Quant au dégoût, il concerne tout ce qui est lié à la nutrition.
Ce sont là les trois systèmes que l’on retrouve chez tous les mammifères et qui sont la base du comportement et de la cognition humaine. Quand je parle de « base », nous devons nous méfier des termes. Ce sont en effet précisément ces systèmes particulièrement sophistiqués que nous ne parvenons pas aujourd’hui à créer ni à simuler de façon artificielle. Courir est par exemple une action d’une sophistication incroyable.

Le quatrième système est celui du jugement. Il concerne environ un tiers du cerveau humain, à savoir les lobes frontaux particulièrement développés chez l’homme. C’est à ce système de jugement que sont associés le raisonnement, la planification, la prévision, etc. Si ce système de jugement n’a pas évolué pour le raisonnement en tant que tel, il a évolué en revanche pour quelque chose de plus fondamental : la constitution de répertoire de comportements.
Une des questions extrêmement complexe qui se pose pour un organisme qui veut se constituer un répertoire de comportements pour être en mesure de faire face à différentes situations, est de savoir si, dans une situation donnée, il vaut mieux persévérer et améliorer un comportement déjà appris, ou au contraire changer radicalement de stratégie soit en essayant de récupérer en mémoire à long terme une autre stratégie éventuellement apprise dans un autre contexte soit en générant de nouveaux comportements. Cette tâche est d’une complexité incroyable dans notre vie quotidienne réelle.
Pour mémoire, on dit de la vie réelle qu’elle a trois caractéristiques la rendant particulièrement complexe : le caractère aléatoire ; le caractère changeant ; le fait que ces environnements naturels sont ouverts et qu’il est donc impossible d’avoir d’eux une représentation exhaustive. Compte-tenu de ces trois caractéristiques, la problématique de savoir si je dois persévérer dans un comportement pour l’améliorer, basculer sur un autre comportement ou créer de nouveaux comportements, est un problème que nous savons aujourd’hui poser mathématiquement. Nous disposons en effet d’objets mathématiques nous permettant de décrire précisément mais hors de portée des calculs. Nous ne savons pas résoudre ce problème de façon calculatoire. Ce problème de calculatoire s’est donc également posé à la nature. Dans notre cerveau, la nature a fait des heuristiques qui ont évolué avec nous et qui nous permettent de simplifier le problème.

Cette capacité de jugement qui est la nôtre, simplifie considérablement le traitement de certains problèmes dans notre cerveau. De plus, par rapport aux trois autres systèmes décrits, cette capacité est vraiment la plus simple. Aujourd’hui avec des machines, il est possible de faire mieux. Cette capacité de jugement qui a précisément pour fonction de persévérer, de basculer, etc., est recyclée dans nos activités culturelles en capacité de raisonnement, de planification, etc. Mais elle n’est fondamentalement pas faite pour ça. Nos capacités de raisonnement, de planification sont donc très limitées.
C’est pourquoi aujourd’hui l’intelligence artificielle fait beaucoup mieux. Il existe ainsi aujourd’hui des algorithmes qui font la démonstration automatique de théorèmes. De même qu’il existe des logiciels qui jouent au jeu de go, aux échecs, etc., et qui sont bien plus performants que l’intelligence humaine. Culturellement, nous avons tendance à considérer le jugement et le raisonnement comme étant les capacités les plus complexes, alors que c’est précisément là que nos capacités sont les plus limitées. Inversement, motricité et perception concernent des capacités extrêmement sophistiquées qui aujourd’hui sont encore hors de portée de la robotique et de l’intelligence artificielle.

Antoine PETIT

Mon propos a pour objet de vous apporter un éclairage complémentaire, plus focalisé sur les aspects techniques et informatiques de l’intelligence artificielle.
Pour mémoire, l’intelligence artificielle est née en 1956 dans une conférence donnée par John McCarthy à laquelle participaient une vingtaine de scientifiques. Le moins que l’on puisse dire c’est que ces derniers avaient vraiment sous estimé la difficulté de la tâche, ce qui explique sans doute qu’au cours des premières années de son existence l’intelligence artificielle ait connu beaucoup de bas et seulement quelques hauts. Elle a souvent été brocardée en France parce qu’elle promettait monts et merveilles sans pour autant permettre des avancées suffisamment significatives et pratiques. Finalement, ce n’est que très récemment, grâce à quelques exemples scientifiquement très élaborés et à quelques succès très médiatisés, qu’elle a finalement prouvé son intérêt. La victoire l’été dernier au jeu de go a notamment beaucoup frappé les imaginations. D’autres systèmes ont mérité notre attention, comme la voiture automatique, la fameuse Google car, le système de traduction automatique de Skype ou des logiciels conversationnels type SIRI. Pourquoi ces grands succès se produisent-il aujourd’hui ?

Pour trois raisons complémentaires.

1) Le fait que l’on ait accès à une puissance de calcul sans précédent grâce à des machines de plus en plus puissantes.
2) Le fait que l’on ait accès à des données massives qui facilitent l’apprentissage.
3) Le fait que l’on ait affaire à des logiciels de plus en plus élaborés.

N’oublions jamais que derrière l’intelligence artificielle se cache surtout beaucoup de l’intelligence humaine. Aussi spectaculaires que soient ces succès, l’intelligence artificielle ne fonctionne pas aujourd’hui. La Google Car ne fonctionne pas aujourd’hui en cas de pluie et de brouillard. Si vous essayez d’avoir une vraie discussion avec votre iPhone via SIRI, vous risquez d’être rapidement frustré. Idem si vous comptez sur un logiciel de traduction pour échanger avec vos collègues étrangers. Tout cela n’est en rien condamnable. Cela veut simplement dire qu’il y a encore énormément de recherches à mener. Nous devons donc prendre conscience que nous en sommes à la préhistoire de l’intelligence artificielle. On a dit que la motricité ne fonctionne pas aujourd’hui : c’est vrai, sauf qu’il y a déjà des mains artificielles qui fonctionnent un peu. La difficulté est de comprendre que nous ne pouvons pas estimer le temps nécessaire pour qu’aboutissent les nombreuses recherches que nous démarrons aujourd’hui. Tous ceux qui font des promesses sont simplement des gens qui ne savent pas.

Quels sont les grands verrous scientifiques ? Quels sont les grands domaines dans lesquels il est important de poursuivre des recherches ? Il est compliqué d’être exhaustif. Je vous conseille la lecture d’un rapport du groupe AI 100, lancé par l’université de Stanford, qui vise à faire porter un effort de 100 ans pour étudier et prévoir comment l’intelligence artificielle va impacter l’ensemble de nos vies. Ce rapport liste 6 grands sujets chauds.

. 1er sujet : l’apprentissage, également appelé machine learning et deep learning. Les challenges dans ce domaine sont assez techniques. L’un de ces challenges consiste à passer de l’apprentissage supervisé à l’apprentissage non supervisé. L’apprentissage supervisé peut se comprendre ainsi : vous prenez 500 000 photos de chats (actus, photos, BD) ; vous dites à la machine que ce sont des chats ; vous prenez 500 000 photos de chiens ; vous dites à la machine que ce sont des chiens. C’est cela la supervision : le fait de dire à la machine quels sont les chats, quels sont les chiens. Imaginez maintenant que vous donniez une image supplémentaire à la machine, et qu’elle vous dise si c’est un chat ou un chien. Les applications sont alors extraordinaires. Aujourd’hui, avec ces mêmes techniques, la machine est capable de détecter les mélanomes cancéreux des mélanomes non cancéreux, avec une probabilité d’erreur qui est plus faible que celle des meilleurs spécialistes. J’en reviens au chat et au chien. Il faut être conscient du fait que grosso modo la machine n’a aucune idée de ce que c’est qu’un chat, et aucune idée de ce qu’est un chien. Elle n’a d’ailleurs aucune idée du fait qu’il peut s’agir d’animaux. Simplement, elle a appris, on ne sait pas très bien comment, à distinguer les chats et les chiens. C’est cela que l’on appelle l’apprentissage supervisé. L’apprentissage non supervisé reviendrait quant à lui à donner le million de photos à la machine sans avoir rien à lui dire pour qu’elle distingue toute seule les chats et les chiens. C’est évidemment plus compliqué, mais c’est aussi source de promesses plus importantes.
Un autre domaine essentiel dans l’apprentissage concerne le lien entre modèle et apprentissage. Les modèles aident à l’apprentissage et l’apprentissage permet d’améliorer les modèles.

. 2ème sujet : la vision par ordinateur et la perception des machines. Aujourd’hui la vision par ordinateur est probablement l’un des sujets sur lequel nous avons fait le plus de progrès. La voiture sans conducteur voit son environnement, à savoir les véhicules en mouvement, les piétons, les véhicules arrêtés, etc. Cela étant, contrairement à l’homme qui ralentit lorsqu’il voit des enfants un peu turbulents sur le bord du trottoir, une machine est encore loin d’atteindre ce niveau de raisonnement. De manière plus générale, outre la vision, d’autres sens commencent à se développer. Demain une machine sera par exemple capable de comprendre non seulement notre voix, mais aussi nos émotions, nos sentiments, notre humeur, voire même notre odeur. Les robots compagnons pour les personnes âgées font ainsi partie des avancées en train d’être développées. Si percevoir est important, comprendre est encore mieux. Un important travail doit donc être mené sur le traitement automatique des langues et sur la reconnaissance automatique de la parole. Ce travail devrait permettre à termes à deux personnes parlant deux langues différentes de disposer d’une traduction en temps réel. Une autre application clé concerne les agents conversationnels.

3ème sujet : les interfaces, autrement dit tout ce qui permet à la machine et à l’homme d’interagir. Cela inclut la réalité augmentée ainsi que la question de la visualisation des données qui est aujourd’hui un problème essentiel.

4ème sujet :
la robotique. C’est un sujet très compliqué. C’est aussi une plateforme d’intégration d’un certain nombre de recherches qui étaient jusqu’à maintenant essentiellement cantonnées à des problématiques industrielles. La robotique va nous envahir, tant dans nos activités professionnelles que dans nos activités personnelles. J’ai déjà parlé des robots compagnons pour les personnes âgées. On peut également penser à la robotique médicale ; aux robots pédagogiques en mesure de répondre, sans se lasser, à toutes les questions des enfants, avec une connaissance supérieure à la plupart des humains ; aux questions de véhicules, qu’il s’agisse de voitures, de drones, ou de bateaux ; et plus généralement à une robotique de services, une robotique personnalisée.

5ème sujet : les systèmes collaboratifs. Ces derniers peuvent être de deux sorte.(s) D’abord des machines qui vont collaborer entre elles, comme par exemple les flottes de drones ou des robots au sein d’une usine. Mais aussi des coopérations entre l’être humain et les machines.

6ème sujet : la sécurité et les bugs informatiques. Plus les systèmes reposent sur du logiciel, plus le risque de bug augmente. Il faut donc développer des méthodes qui permettent de garantir le fait qu’il n’y a pas de bug, en particulier pour des questions d’acceptabilité.

Au-delà de toutes ces questions scientifiques, la montée en puissance de l’intelligence artificielle pose également des questions éthiques, économiques et sociales qu’il faut traiter, mais en faisant attention à ne pas tout mélanger. J’ai par exemple souvent entendu dire que l’algorithme post-bac était injuste. Cette affirmation est absurde. Il s’agit juste d’un choix politique qui a été fait par le concepteur de l’algorithme, un choix qu’il doit décrire et assumer. Ce n’est pas l’algorithme qui décide tout seul.

Autre exemple : les débats sur les voitures sans chauffeur qui vont décider d’écraser un enfant ou une vieille dame. Là encore, ce n’est pas l’algorithme qui décide. Le principe est le suivant : il existe différentes situations possibles ; pour chaque situation on explique à l’algorithme quel score il doit atteindre ; l’algorithme ne fait donc que choisir la situation avec le score le plus élevé. Choisir si vous préférez sacrifier votre passager plutôt que les piétons est très difficile. Ce n’est pas l’intelligence artificielle toute seule qui va le décider. C’est juste nous qui allons concevoir un algorithme qui va aboutir à des décisions. Ce qui est un peu compliqué c’est que, alors même que l’on peut être confronté dans la vie de tous les jours à ce genre de situations en tant que conducteur, on ne s’interroge jamais, par anticipation, sur le comportement que l’on privilégierait.

Comme l’a dit Michel, certaines personnes se déclarent très inquiètes du pouvoir prochain des machines. Grâce à l’intelligence artificielle, on pense qu’il y a aura un jour des super machines intelligentes qui vont prendre le pouvoir sur l’homme. C’est ce que l’on appelle la théorie de la singularité. C’est un sujet de controverse, y compris parmi les experts. Dans le rapport de Stanford dont je vous parlais, il est écrit que contrairement aux prédictions les plus fantastiques sur l’intelligence artificielle que l’on trouve dans la presse populaire, il n’existe aucune raison de croire que cette dernière constitue une menace imminente pour l’humanité. Cela ne clôt évidemment pas le débat. Il est indispensable de conduire une réflexion éthique dans le domaine, mais ce n’est probablement pas au niveau national que cela a un sens de mener une telle réflexion. A l’instar des GAFA et d’IBM qui ont officialisé très récemment un partenariat pour l’intelligence artificielle au bénéfice des citoyens et de la société, c’est incontestablement au niveau international (ou à la rigueur européen) qu’il faut conduire les discussions et les échanges.

Parmi les points à traiter, la question du respect de la vie privée apparait essentielle. Autre question clé : celle de l’emploi. Dire que l’intelligence artificielle ne va pas supprimer des emplois serait malhonnête. En même temps, il serait incomplet de na pas rajouter qu’elle va en créer. En créera-t-elle plus qu’elle n’en supprimera ? C’est un débat d’experts. Une des questions clés pour la France est de savoir comment faire en sorte qu’une partie des emplois appelés à être créés le soient en France au bénéfice de notre économie.

Cette indispensable réflexion éthique doit par ailleurs s’accompagner de développement de solutions techniques et de recommandations. C’est par exemple le cas de la loi sur le numérique qui vise à encourager l’ouverture de la transparence des algorithmes. Il faut privilégier l’open source, de sorte que chacun puisse avoir accès au code des logiciels qui le gouvernent. Il faut également éduquer. Je trouve anormal que le système éducatif ne fournisse pas aujourd’hui à tous les futurs citoyens les clés pour comprendre le monde numérique dans lequel ils vont vivre. Pour reprendre une formule choc, je dirais que « programmer ou être programmé, il faut choisir ». C’est vrai que des progrès ont été faits mais il est temps de passer à la vitesse supérieure. D’autant plus que nombre de pays ne nous attendent pas et ont déjà commencé à développer des systèmes des formations pour tous. C’est grâce à cette éducation de base, pour tous, que nous parviendrons, par ailleurs, à former un certain nombre de professionnels.

Pour conclure, je dirais que l’intelligence artificielle, de mon point de vue, est avant tout une formidable chance à saisir et que la France a toutes les cartes en main pour jouer un rôle majeur et créer de la valeur et des emplois. Prenons deux exemples : lorsque Facebook a décidé l’an dernier d’ouvrir une antenne de son laboratoire d’intelligence artificielle à Paris, le communiqué officiel disait : « nous avons choisi Paris parce que la France abrite certains des meilleurs chercheurs dans le monde ». Autre exemple : la semaine dernière, j’ai signé en Corée un partenariat avec Samsung. Les grandes compagnies internationales veulent travailler avec les équipes françaises. C’est formidable, mais il serait quand même dommage que nous devenions le centre de R&D des grands groupes internationaux et que la richesse se crée ailleurs. Plusieurs pays se sont récemment emparés de la problématique de l’intelligence artificielle. Selon certains rapports récents, les investissements qui vont être faits dans ces pays sur la thématique de l’intelligence artificielle se chiffrent en centaines de millions de dollars. Je pense que la France doit aussi se donner les moyens d’agir. Nous devons prendre notre place dans la création de valeur, d’emplois et de richesses en créant des écosystèmes dans lesquels nous allons pouvoir faire émerger de nouvelles start-up – qui restent la clé de l’IA, plus que les grands groupes. Collectivement, nous devons par ailleurs faire en sorte que l’intelligence artificielle profite au plus grand nombre et ne soit pas confisquée au bénéfice d’une minorité.

Flora FISCHER

Le CIGREF est un des clubs informatiques des grandes entreprises françaises. C’est une association de grandes entreprises qui travaillent sur leur transition numérique. Dans ce contexte, en partenariat avec le cabinet Alain Bensoussan, le CIGREF a créé l’an passé un cercle Intelligence Artificielle pour faire un état de l’art de la question de l’IA dans les grandes entreprises françaises. Mon propos a pour objectif de vous livrer très rapidement cet état des lieux, quelques opportunités et les défis qui se présentent.

Quel est l’état de ces entreprises ?
C’est un sujet qui est éminemment émergent mais qui n’est pas du tout encore un sujet stratégique en ce sens qu’il n’est pas suffisamment opérant pour permettre de réfléchir à une transformation globale. C’est donc un sujet qui est prospectif mais qui a néanmoins toute son importance.
Il est intéressant de noter la prise de conscience des grandes entreprises. Suite à leur transition numérique, ces dernières se trouvent naturellement confrontée à une transition qui est dite « intelligente ». Comment se préparer à cette transition intelligente ? Dans la continuité de la transition numérique, en n’oubliant pas que de nombreuses opportunités sont dégagées. L’intelligence artificielle repose sur l’analyse de données.

Pour autant, il ne faut pas confondre la matrice Big data avec l’intelligence artificielle. Si le Big data permet de corréler des données avec des connaissances dont nous disposons déjà et donc d’améliorer ces connaissances, l’intelligence artificielle permet quant à elle de comprendre des choses nouvelles. Par exemple, dans une application entreprise, l’intelligence artificielle peut permettre d’améliorer la relation client dans le sens non pas comme on le faisait avec le Big data en mettant le client dans une catégorie pour faire des recommandations, mais en facilitant la compréhension, l’individualité, de la personnalité, de la personne et donc en repérant l’atypisme qu’en catégorisant la personne. Cette démarche constitue un avantage majeur pour l’économie mais présente également des risques.

Dans les entreprises, la question du moment est celle de l’accompagnement du changement. L’intelligence artificielle peut en effet libérer du temps, débarrasser de tâches chronophages, améliorer le back office. Il faut donc introduire, à l’instar de la Société Générale dans son projet de transformation intelligence, la notion d’empathie envers les collaborateurs de l’entreprise. Essayer de faire comprendre l’idée que l’introduction d’agents intelligents ne doit pas avoir pour conséquence d’introduire une complexité supplémentaire dans leur travail mais, au contraire, leur faciliter la décision et leur permettre de consacrer plus de temps à des tâches à forte valeur ajoutée, à la qualité de l’interaction avec leurs clients.

Autre exemple : le fonctionnement par scénario de l’équipe de prospective d’AXA. Cette équipe a établi trois scénarios émergents d’ici à 2030 sur l’adoption de l’intelligence artificielle.

. 1er scénario : une adoption limitée dans la sphère sociétale de l’intelligence artificielle telle qu’on la voit aujourd’hui, avec beaucoup de réticences et de questions autour de l’emploi. Dans ce scénario, ce serait surtout les Etats et les grandes entreprises qui bénéficieraient des avancées de l’intelligence artificielle.

. 2ème scénario : le machine learning encadré. Autrement dit des systèmes de machine learning acceptés plus globalement dans la sphère privée et dans les services publics, mais avec une forte importance de la régulation (innovation encadrée).

. 3ème scénario : le scénario dit « agent intelligent », avec une intelligence artificielle forte. Dans ce scénario, emprunté à la culture asiatique, la robotique et l’intelligence artificielle deviendraient omniprésentes dans la société européenne. Nous partagerions cette vision un peu taoïste selon laquelle tous les objets ont une âme et font partie de notre société.

Voici donc, brossées à gros traits, les réflexions qui sont actuellement enclenchées dans les entreprises. Ces dernières ne vont pas sans soulever un certain nombre de défis éthiques aussi bien que géopolitiques. Pour développer l’intelligence artificielle, il va en effet falloir disposer de grandes masses de données. Or qui possède ces données ? Aujourd’hui évidemment ce sont les GAFAMI (GAFA, Microsoft et IBM). Laurent Alexandre a publié hier un article sur l’intelligence artificielle dans lequel il disait que nous sommes les idiots utiles de l’intelligence artificielle dans la mesure où nous nourrissons toutes ces bases de données et que les entreprises sont aujourd’hui dominées par les grands groupes. Il proposait l’idée, que je vous soumets, d’un service public de l’intelligence artificielle pour éviter cette monopolisation des grands groupes.

Dominique Gillot et Claude De Ganay

Nous sommes les rapporteurs désignés pour élaborer un premier rapport sur l’état de l’intelligence artificielle de manière à éclairer la réflexion et la décision des politiques. Le rôle de l’OPECST est en effet, comme vous le savez, de préparer la décision de nos élus sur les questions scientifiques que ces derniers ne maitrisent pas forcément.

En ce qui me concerne, cela fait plusieurs années que je m’intéresse à cette question du développement d’une intelligence artificielle à côté de l’intelligence humaine. C’est dans le cadre des auditions que j’ai eu à réaliser que j’ai rencontré mon maitre à penser en intelligence artificielle en la personne d’Antoine PETIT. Il me semble important que l’on puisse avoir un début de réflexion politique sur l’évolution de la science dans ce domaine. J’en ai parlé plusieurs fois à l’OPECST. Nous avions d’ailleurs des auditions à l’OPECST qui portaient sur ces sujets là mais dans des domaines variés tels que les biotechnologies, l’évolution des sciences médicales, la robotique en santé, etc.

L’intelligence artificielle en tant que telle en complémentarité de l’intelligence humaine nous est donc progressivement apparue comme un sujet intéressant. Puis le président de la commission des affaires économiques du Sénat a saisi l’OPECST sur cette question et nous avons été désignés tous les deux comme rapporteur. Claude est député et moi je suis sénatrice. Nous n’appartenons pas à la même famille politique, ce qui est une règle de l’OPECST. Nous avons d’ores et déjà commencé un nombre important de visites et d’auditions qui infirment ou qui confirment le pressentiment que nous pouvions avoir. A ce stade de notre étude, en ce qui me concerne, je me sens confortée dans ma position : l’intelligence artificielle est effectivement l’occasion d’opportunités fabuleuses pour le développement de notre société.

Étant par ailleurs présidente du conseil national consultatif des personnes handicapées, je suis également très attentive à ce que la robotique va pouvoir apporter en terme de mobilité et de participation à la vie de la société, aux personnes qui vivent avec handicap et qui sont très en attente de ces progrès. Dans son exposé, Mme Fischer a rappelé les enjeux en termes de remplacement des emplois, de substitution, de complémentarité. Il est important de rappeler que les métiers qui sont aujourd’hui portés par des humains ont une valeur ajoutée en termes de relation humaine. Je suis d’accord avec Mme Fischer sur la nécessité de rassurer les équipes de management sur le fait qu’il ne s‘agit pas de supprimer des postes mais bien de libérer les fonctions les plus répétitives pour donner plus de temps à la qualité de vie au travail et à la relation. C’est là un des enjeux importants auxquels nous allons devoir nous confronter.
Nous sommes ravis de pouvoir échanger sur ces sujets avec vous auditeurs de l’IHEST.

Claude de GANAY : L’OPESCT représente une opportunité forte pour le parlement d’apporter un éclairage scientifique. Outre l’aide à la décision, les études que nous menons ont également pour but de créer un lien avec la communauté scientifique. Dans le cadre de cette étude, nous avons ainsi déjà fait plus d’une dizaine d’auditions, rencontré plus de 70 personnes, effectué plusieurs déplacements (Lausanne, Belgique, prochainement Etats-Unis et Royaume-Uni). Nous allons rencontrer les auteurs américains des rapports sur le sujet et les GAFA. Nous sommes engagés dans cette aventure sans a priori. Nous allons faire l’état des lieux et formuler des recommandations.

Dominique GILLOT : Même si nous avons eu la prétention d’être les premiers, nous sommes déjà dépassés. Nombreux sont déjà les réseaux et collectifs qui travaillent sur ces questions, échangent et partagent. La culture scientifique et technique et industrielle doit être partagée, s’appuyer sur la vérité scientifique et élever le niveau de connaissance de l’ensemble de nos concitoyens.

Claude de GANAY : Nous voulons aussi enrichir le débat dans le cadre des élections 2017. Nous souhaitons que les candidats s’emparent de ce sujet.

Questions / réponses

Question de la salle : Qu’est-ce que l’intelligence artificielle peut apporter à l’innovation pédagogique ?

Antoine PETIT  : C’est une question à laquelle il est difficile de répondre rapidement. Je vous invite à aller voir les petits robots qui sont placés dans les classes et qui discutent avec des enfants de primaire. Je pense également au phénomène des MOOCs. De mon point de vue, l’intelligence artificielle va tout révolutionner, y compris la pédagogie. Cela ne signifie pas que l’on va mettre tous les enseignants à la poubelle, mais que l’on va les décaler par rapport à ce qu’ils ont l’habitude de faire. Pour autant, nous ne devons pas avoir peur de l’intelligence artificielle.

Etienne KOECHLIN : Je crois que l’intelligence artificielle change également le rapport à la connaissance et donc le rapport à la pédagogie, ce que l’on souhaite transmettre à nos enfants. L’érudition n’a par exemple plus de sens aujourd’hui. En termes de stockage et d’accès à l’information, l’intelligence artificielle joue aujourd’hui un rôle essentiel. Passer son temps à transmettre des connaissances n’est donc plus pertinent dans la mesure où la connaissance est accessible très facilement sur Internet. Il y a là, a à mon sens, une modification de la pédagogie qui doit s’opérer dans le système scolaire.

Antoine PETIT : Pour les 40 ans d’INRIA, nous avions invité Michel Serres qui expliquait que si avant il fallait une tête bien pleine, aujourd’hui, il faut une tête bien faite.

Dominique GILLOT : Dans les écoles supérieures de professorat de l’éducation, les chercheurs en pédagogie utilisent l’intelligence artificielle pour étudier les comportements des enfants grâce à des capteurs, des caméras, etc. Ils sont donc en train d’alimenter des bases de données qui vont leur permettre de comprendre à quel moment un enfant décroche, pourquoi il décroche, quel est son système de curiosité, d’accrochage à la connaissance, etc. C’est intéressant non seulement pour la pédagogie générale, mais aussi pour la prise en charge et l’apprentissage des enfants présentant des différences cognitives ou des différences d’attention. Je pense que là, grâce à l’IA, nous allons faire de grands progrès en matière de pédagogie.

Question de la salle  : Je rebondis sur cette idée d’une révolution de la pédagogie où l’on abandonnerait l’érudition et l’accès exhaustif au savoir. Cette idée n’a rien de neuf. Cela existe depuis 100 ans : cela s’appelle les écoles de design. Ces dernières sont des lieux d’expérimentation de la pédagogie que je vous invite à visiter. Vous parliez, M. Petit, de l’excellence de la recherche française en matière d’intelligence artificielle. Mais je rappellerai que nous sommes aussi les spécialistes de la fuite de ce savoir à l’étranger. On invente ici des choses qui créent de la valeur ailleurs. Ma question s’adresse donc aux parlementaires : je suis sûr que, dans le cadre de vos auditions, vous avez rencontré des scientifiques, des sociologues, etc. Mais avez-vous rencontré des designers, autrement dit des gens qui travaillent sur les usages et non plus sur les technologies ? Comment fait-on en sorte d’intégrer dans la recherche elle-même, mais aussi dans l’ingénierie et dans la mise en œuvre des produits, une démarche qui n’est pas celle des scientifiques, des sociologues, etc., mais celle du design ?

Antoine PETIT : Permettez-moi un petit correctif sur la fuite des cerveaux. A INRIA, la moitié de nos chercheurs sont étrangers. 90 nationalités présentes sont représentées dans nos rangs parce que des gens de tous les pays viennent travailler chez nous parce qu’ils savent qu’ils vont intégrer les meilleures équipes. La fuite des cerveaux dans nos domaines n’est donc pas un sujet. En revanche, vous avez raison sur le fait que bien souvent la richesse va être plutôt exploitée par des entreprises étrangères. Là, c’est un vrai sujet. Sur le design je n’ai pas d’avis. Nous, en tant que mathématiciens et informaticiens, nous développons une technique générique. Ce n’est donc pas notre métier premier de savoir dans quel domaine et comment cette technique sera utilisée. Chacun son métier.

Etienne KOECHLIN  : Sur le design, une remarque. Quand on voit le succès des tablettes, on comprend que l’acceptabilité d’une nouvelle technologie repose essentiellement sur le côté naturel de son utilisation. Le fait par exemple de pouvoir naviguer simplement en faisant appel à sa motricité naturelle est très important dans la naturalisation de l’intelligence artificielle.

Thierry GAUDIN : A la fin des années 70, j’ai été à l’origine du développement des enseignements sur le design. La référence au design était donc centrale dans les politiques d’innovation dont nous étions à l’époque les promoteurs au sein du ministère de l’industrie. Cela dit, permettez-moi une observation. On s’interroge souvent sur ce que l’homme va faire faire aux machines. Or nous devons comprendre que les machines ne servent que d’intermédiaires entre les hommes. Le grand projet de domestication de l’homme par l’homme se sert actuellement des machines. Certains observateurs s’interrogent actuellement sur les conséquences en termes d’éducation et de fonctionnement du mental des machines. C’était Sherry Turkle du MIT, dans son livre intitulé en français Les enfants de l’ordinateur, qui rappelait que la manière de raisonner des humains est transformée par l’existence de ces intelligences artificielles. Les institutions sont elles aussi transformées. Nous sommes ici au Sénat. Que sera le Sénat dans 20 ans ? Allons-nous continuer à fonctionner avec des élections qui seront les mêmes ? Ou le processus de consultation du peuple et de décision collective est-il appelé à évoluer ?

Claude de GANAY : Dans le cadre de notre étude, nous avons eu l’occasion d’aller à Jussieu rencontrer une équipe de designers. Et nous allons continuer ce type de démarches. Je rappelle que l’intelligence artificielle est complètement pluridisciplinaire. Si certains considèrent qu’ils ont des choses importantes à nous dire, qu’ils nous appellent.

Dominique GILLOT  : La question qui se pose est celle du bipartisme. Je pense que nous sommes tous emportés par la nécessité d’élargir les modes de consultation des citoyens. C’est une question de cohésion sociale. Dans le cadre de mes autres responsabilités, notamment en matière de diffusion de la culture scientifique, technique et industrielle, je rencontre beaucoup d’équipes pluridisciplinaires. Ces dernières m’ont enseigné l’intérêt de constituer des équipes plurielles pour réfléchir aux usages et permettre qu’une découverte contribue à l’amélioration des conditions de vie. Je crois donc effectivement qu’au cours de la dernière décennie, le design est revenu en pointe dans la constitution des équipes pluri et inter disciplinaires nécessaires à l’exploitation de la science.

Question de la salle : On a beaucoup entendu parler de la nécessité d’aller voir comment se passaient les choses à l’étranger. Je suis étonné que l’on n’ait pas cité Sophia Antipolis qui pendant plus de 40 ans a mis au point la base de l’intelligence artificielle. J’ai par ailleurs assisté hier à la BNF à une conférence sur les 20 ans d’Internet. On y rappelait que la plupart des informations sont stockées à l’étranger. Comment faire pour que ces big datas reviennent chez nous ?

Antoine PETIT  : On pourrait effectivement parler de Sophia, comme de beaucoup d’autres écosystèmes. Sur les données, vous savez ce que l’on dit : les données sont le pétrole du XXIe siècle. Ce pétrole, nous l’avons et, je suis d’accord avec vous, il est un peu dommage de le laisser raffiner par d’autres. D’un autre côté, il faut savoir que la France est l’un des pays dans lequel le taux d’utilisation de Google est de loin le plus élevé, avec près de 93%. Ceux parmi vous qui ont des adresses gmail et acceptent donc que leurs données soient la propriété de Google, sont d’une certaine manière de mauvais français.

Claudie HAIGNERE : J’ai été interpellée par une remarque de Flora Fischer sur la différence de vision de l’intelligence artificielle que nous avons par rapport à la culture asiatique. Vous avez notamment évoqué le taoïsme. Je pense qu’effectivement, dans la mondialisation, c’est là une donnée importante à avoir en tête.

Flora FISCHER : Dans les entreprises, ce n’est pas encore un sujet. Pour l’instant, ce sont des questions qui sont en suspens et que l’on ne sait pas bien comment adresser.

Antoine PETIT : Je pense que les mentalités changent en France et en Europe par rapport à il y a 15 ans. Il faut adapter les robots à ces cultures. Au Japon, il y a, il est vrai, une forte recherche en robotique humanoïde, mais pas seulement. Les japonais font par exemple des robots compagnons pour les personnes âgées : ils se sont rendus compte qu’il ne fallait pas faire des petits chats ou des petits chiens qui rappelaient aux personnes âgées des animaux qu’elles avaient déjà eus. C’est pourquoi, ils font des petits phoques ! Et cela fonctionne.

Dominique LACROIX : Je suis très sensible aux mots absents. On fait souvent référence aux acteurs économiques présents dans notre quotidien, à savoir le Japon, la Corée, les Etats-Unis, comme si nous étions enfermés dans une bulle géopolitique. Et on ne pense pas au reste du monde à savoir la Russie, la Chine, les pays arabes, l’Iran qui sont pourtant très actifs dans ces domaines et ont aussi une vision du monde. Le réflexe le meilleur n’est pas forcément de dire « et la France ? » mais peut-être de réfléchir à une manière de se redéployer au niveau européen en rééquilibrant nos relations internationales. On peut par ailleurs se demander ce qui, dans le contexte économique actuel, inciterait une entreprise à améliorer le bien être de ses salariés devenus inutiles au lieu de les licencier ? N’a-t-on pas un problème ?

Dominique GILLOT : Je pense que nous sommes dans la construction d’une responsabilité sociétale que nous devons partager les uns et les autres. Quand on voit la prise de conscience des GAFA pour mettre en place une forme d’éthique, on peut considérer que ce revirement est à leur profit. Néanmoins, on ne peut pas continuer à faire n’importe quoi vis-à-vis de l’humanité. A nous donc également d’être suffisamment forts, de poser suffisamment de questions pour que le progrès profite effectivement à tout le monde. Il y a beaucoup de domaines où l’on voit que le progrès scientifique lié à ce que l’on appelle l’intelligence artificielle pourrait apporter des améliorations dans les conditions de vie, de travail, d’apprentissage ou de partage de la culture. C’est à nous aussi d’en décider.

Antoine PETIT : La recherche sur l’intelligence artificielle est totalement mondiale. Tout le monde sait parfaitement où sont les bonnes équipes et les bons chercheurs - et il y en a à peu près partout.

Claude de GANAY  : Je confirme que nous avons des contacts avec la Chine, le Japon, la Corée du Sud.

Michel ALBERGANTI : il faut rappeler que l’informatique avait également pour but d’améliorer la vie de tout le monde. Or on se rend compte que la société n’a jamais compté autant de pauvres qu’aujourd’hui.

Jean-François CERVELLE : Je reviens sur la question de la formation. Pensez-vous qu’à l’heure actuelle, dans le dispositif que vous évoquiez, il existe une relation efficace entre les les lieux où se fait la recherche en matière d’intelligence artificielle et la formation des formateurs qui vont former les générations futures ? Les liens sont-ils suffisants pour que cette culture passe et diffuse chez les formateurs à destination des formés ?

Etienne KOECHLIN  : Il est évident que la réponse est non. Par exemple à l’Ecole Normale sup, il existe un département d’études cognitives, qui a été créé en 2002, et dans lequel notre laboratoire est partie prenante. Dans ce département, une réflexion est menée sur le rapport entre le développement des recherches en sciences cognitives et la pédagogie. Mais cette réflexion est totalement embryonnaire. Il n’y a pas encore du tout de lien suffisant entre tous ces éléments du dispositif. Cela reste quelque chose à développer.

Dominique GILLOT : C’est une excellente question que celle de la formation des formateurs. Il est vrai que le rapprochement entre la formation professionnelle progressive et la recherche pose problème dans l’ESPE. Mais la loi a voulu que l’ESPE soit une école construite dans et avec l’université. Dernièrement j’ai auditionné un responsable du PIA avec qui je parlais du financement des recherches en matière de pédagogie. Ce dernier ne connaissait pas l’existence des ESPE.

Antoine PETIT  : La question qui se pose aujourd’hui est à mon sens celle de savoir s’il faut continuer à former des professeurs mono-disciplinaires, spécialisés dans la transmission des savoirs. C’est une vaste question. Il est clair qu’aujourd’hui l’informatique au sens large est absente du système éducatif français.

Marie-Françoise CHEVALLIER-LE GUYADER : Permettez-moi de vous faire part de ce que nous vivons actuellement avec une autre catégorie de personnels de l’éducation nationale à savoir les proviseurs de lycées. Nous avons monté une formation sur « Les mots du numérique », avec INRIA. Par le biais d’un ancien auditeur qui préside le réseau de syndicats des proviseurs de lycée, nous avons diffusé l’invitation à cette formation : dès la première journée, nous avions 40 retours d’inscription. Certains participants nous ont dit l’enfermement dans lequel ils étaient astreints. Le fait de se confronter à des visions autres, en dehors du système éducatif, était pour eux une opportunité extraordinaire.

Question de la salle : Je reviens sur l’idée selon laquelle il n’y aurait plus besoin d’érudition. Il faut quand même à ne pas, à force d’être éduqués par des machines, finir par penser comme des machines. Jusqu’où peut-on aller ? Où se situe la frontière ?

Etienne KOECHLIN  : Vous avez raison. Lors de l’introduction du livre dans l’humanité, on aurait pu se dire qu’avec les dictionnaires on n’aurait plus besoin de connaître les mots. C’est l’histoire de l’humanité. Notre pensée co-évolue et la manière dont on l’utilise co-évolue avec les outils dont on dispose. Donc c’est une vraie réflexion. Après évidemment que le savoir est important ne serait-ce que pour trier les informations. Cela étant, je pense que la nature de ce savoir est appelée à changer. C’est moins des connaissances exhaustives que d’autres types de capacités qui seront nécessaires dans le monde de demain.

Antoine PETIT : Je ne crois pas avoir dit que l’érudition était inutile. Simplement, les choses ont changé. Avant l’apparition du livre, les gens avaient certainement une mémoire plus importante. Nos grands-parents apprenaient par cœur les sous préfectures et les préfectures. Aujourd’hui, nous apprenons d’autres choses. Nous avons besoin de gens qui ont une forme d’érudition plus élaborée. Nous avons besoin de gens de plus en plus intelligents pour programmer les machines

jeudi 9 février 2017, par HUCHERY Mélissa