• Le FUTUR

    Le FUTUR

     

    LE FUTUR EXISTE

    il est là

    A CHAQUE INSTANT

    &

    nous le créons.

    Le FUTUR

  • Futurs de l'intelligence artificielle

     

     

    Yann LeCun

     

     

    Futurs de l'intelligence artificielle

    Jean Ponce

     

     

     

    Futurs de l'intelligence artificielle

     

    Alexandre Cadain

     

     

     

     

    Fictions et réalités des futurs de l'intelligence artificielle Conférence du 3 octobre 2016 à l'ENS

     

     

    L’accélération des nouvelles technologies semble avoir rapproché le futur. La science-fiction d’hier se réalise sous nos yeux et souvent, le progrès technologique anticipe l’horizon de nos imaginaires. Dans ses Amazing Stories, Hugo Gernsback voulait inspirer les scientifiques de son temps, les pousser à l'exploration. Martin Cooper, inventeur du téléphone portable, cherchait à reproduire le communicator du Capitaine Kirk dans Star Trek, au lieu de construire la radio portable pour laquelle Motorola l'avait engagé en 1973.

    Qu’en est-il des fictions de notre ère hypertechnologique ? Comment notre imaginaire dessine-t-il de possibles futurs, utopies à construire, dystopies à fuir, au coeur d’une révolution technologique si intense qu'elle brouille nos capacités d'anticipation ?

    Les plus grands technologues présentent l’intelligence artificielle comme l’ultime révolution technologique, anticipant une singularité proche où l’intelligence des machines et logiciels dépassera dans tous domaines notre intelligence humaine et collective. Quand des artistes imaginent déjà les premières séparations amoureuses entre l’homme et la machine, quels sont les véritables résultats d'une intelligence artificielle dont les premiers travaux académiques sont aujourd’hui centenaires ?

    Intervenants :

    Yann LeCun
    Directeur de Facebook AI Research (FAIR) et professeur à New York University (NYU), où il est affilié au Courant Institute of Mathematical Sciences, et au Center for Data Science. Diplômé de l’École supérieure d’ingénieurs en électronique et électrotechnique (ESIEE) de Paris et de l’Université Pierre et Marie Curie. Il devient chercheur aux Bell Laboratories en 1988 et est nommé directeur de département à AT&T Labs-Research en 1996. Il rejoint NYU en 2003 et Facebook fin 2013.

    Ses recherches ont porté principalement sur l'intelligence artificielle, l'apprentissage machine, la vision artificielle et la robotique. Il est un des chefs de file de l’apprentissage profond (deep learning) qui depuis quelques années a révolutionné l'intelligence artificielle, notamment la reconnaissance visuelle et vocale et le traitement de la langue naturelle. Une des techniques qu'il a développée, le réseau convolutif, est utilisée par toutes les grande sociétés pour la reconnaissance d'image et de parole et pour l'assistance à la conduite des voitures.

    Il a publié près de 200 articles et a reçu le Neural Network Pioneer Award et le PAMI Distinguished Researcher Award de l'IEEE. Il est titulaire de la chaire annuelle "Informatique et sciences numériques" au Collège de France pour l'année 2015-2016.

    Jean Ponce
    Directeur du département informatique de l’ENS.
    Enseignant-chercheur, il dirige l’équipe Willow qui a pour ambition d’émuler chez l’ordinateur les capacités visuelles de l’être humain. Le département comprend 36 permanents, 8 équipes de recherche et est structuré par le Laboratoire d’informatique de l’ENS (LIENS), une unité mixte de recherche CNRS/ENS/Inria.

    Alexandre Cadain
    Ancien de l’ENS Ulm, Alexandre Cadain explore les ressorts de l’innovation radicale.
    Il est le co-fondateur et dirigeant d’ANIMA, un moonshot studio qui aborde les grands défis de notre époque à l'aide de technologies de rupture. Alexandre est l'ambassadeur européen du IBM Watson AI XPRIZE, en charge de l’accompagnement des équipes européennes sélectionnées pour impacter positivement, par l’intelligence artificielle, un milliard d'individus d'ici 2020.
    A l'Ecole normale supérieure, il mène depuis 2015 avec Béatrice Joyeux-Prunel, le séminaire Postdigital où sont explorés nos imaginaires technologiques, à l'intersection de l'art et des sciences. Pour les années 2017-2019, le programme recherche l'Imagination Artificielle.

     

    *****************************************

    En complément ,

    Le 08/11/201 par Charlotte Laurent
    Le magazine Harvard Business Review Décembre 2018-janvier 2019 Mag Digital
     
     
     

     

     

    Progrès et perspectives de l’intelligence artificielle selon Yann LeCun, directeur scientifique de la recherche en IA de Facebook

    Futurs de l'intelligence artificielle

    Considéré comme l’un des pères du « deep learning », Yann LeCun a rejoint Facebook en 2013 pour créer et diriger Facebook Artificial Intelligence Research (FAIR). Un laboratoire qui compte aujourd’hui cinq antennes à travers le monde, dont une à Paris, et environ 170 chercheurs et ingénieurs. La même année, il créait le Center for Data Science à l’université de New York, où il enseigne depuis 2003. Un pied à l’université, l’autre en entreprise, Yann LeCun a passé près de quinze ans chez le géant des télécoms AT&T où il a, entre autres, développé des systèmes de reconnaissance de chèques et de compression. C’est grâce à sa détermination et à la « conspiration des réseaux de neurones », lancée à la fin des années 1990 avec deux autres chercheurs pour convaincre du potentiel de ces réseaux, que l’apprentissage profond s’est aujourd’hui largement imposé. 

    HBR : En 1967, le scientifique américain Marvin Minsky, cofondateur du groupe d’intelligence artificielle du MIT, affirmait : « Dans une génération, le problème de la création d’une IA [sera] pratiquement résolu. » Trois ans plus tard, il réitérait : « Dans trois à huit ans, nous aurons une machine avec l’intelligence générale d’un être humain ordinaire. » Aujourd’hui, vous risqueriez-vous à une telle prévision ?

    YANN LECUN : Non, pas du tout, parce que nous avons tendance à surestimer ce que nous pouvons faire à court terme, et à sous-estimer ce que nous pouvons faire à long terme. Le progrès vers une intelligence artificielle « générale », de niveau humain, va nécessiter des bouleversements technologiques, mais, surtout, scientifiques et conceptuels. Or nous ne savons pas quand ils surviendront. Nous avons des idées, mais nous ignorons si elles vont marcher. Il y a aussi de nombreux obstacles que nous n’identifions pas encore, car plus les systèmes seront complexes, plus ils seront instables. Au temps de Marvin Minsky, c’était la belle époque : il n’y avait pas d’apprentissage automatique. On imaginait qu’on allait pouvoir compiler tout le savoir humain en écrivant des règles dans les ordinateurs et des programmes qui pourraient raisonner à partir de ces règles. Et on s’est aperçu que c’était extrêmement difficile. L’histoire du progrès en IA a consisté à découvrir que les problèmes qu’on croyait difficiles étaient plus faciles à résoudre que prévu, et que ceux qu’on croyait simples étaient plus difficiles à résoudre que prévu. Ainsi, des choses que seuls quelques humains peuvent bien faire, comme jouer aux échecs ou au go, sont complètement maîtrisées aujourd’hui. Mais d’autres, très simples, comme la vision, ne le sont que depuis quelques années, sans que l’ordinateur soit aussi performant que l’humain.

    Vous avez déclaré à plusieurs reprises qu’aujourd’hui les meilleures IA ont moins de sens commun qu’un rat. Quel est le principal défi à relever pour doter les machines d’une intelligence dite « générale » ?

    Le défi, c’est ce que j’appelle l’apprentissage autosupervisé. Dans les premières semaines ou les premiers mois de leur vie, les animaux et les humains apprennent une quantité absolument gigantesque de savoirs de base sur le fonctionnement du monde : c’est ce que nous ne savons pas, aujourd’hui, reproduire avec les machines, même avec les techniques d’apprentissage automatique. Ces techniques, pour l’instant, peuvent servir à entraîner un système à percevoir – c’est-à-dire à reconnaître des images ou de la parole, par exemple – mais pas encore à vraiment raisonner ou à planifier des actions, ni à en prévoir les conséquences. Or nous voudrions entraîner des machines à construire des modèles du monde qui leur permettent justement d’anticiper les conséquences de leurs actions, de prévoir ce qui va se passer ensuite. Autrement dit, de remplir les trous. En effet, lorsque nous percevons le monde, nous ne disposons pas de toutes les informations : nous les complétons avec notre bon sens, avec notre connaissance de celui-ci. C

    Vous avez confié que l’« adversarial training » était une technique que vous trouviez particulièrement séduisante. En quoi se différencie-t-elle de l’apprentissage supervisé et de l’apprentissage par renforcement ?

    Dans le cadre de l’apprentissage supervisé, nous indiquons à la machine la réponse correcte. Par exemple, pour classifier des images, nous lui montrons une image d’avion et nous lui disons que c’est un avion. Si elle ne dit pas que c’est un avion, elle se corrigera pour dire la prochaine fois que c’en est un. Dans le cadre de l’apprentissage par renforcement, nous donnons beaucoup moins d’informations à la machine. Nous la laissons agir et nous lui disons simplement si ce qu’elle fait est correct ou pas, en la récompensant ou en la punissant. Ce faisant, la machine apprend, mais c’est inefficace, parce qu’il faut que la machine interagisse avec le monde des milliers, voire des millions de fois, pour apprendre quelque chose. Cela fonctionne bien dans les environnements virtuels comme les jeux, mais pas dans le monde réel. Si on veut utiliser cette méthode pour entraîner une voiture à se conduire toute seule, par exemple, il va falloir qu’elle se plante dans un ravin ou dans un platane des milliers de fois avant d’apprendre à éviter cela, alors que les humains peuvent apprendre à conduire une voiture en vingt heures d’entraînement environ, sans provoquer d’accident. Nous ne comprenons d’ailleurs toujours pas comment cela est possible. Mais c’est justement grâce à notre modèle prédictif du monde que nous apprenons rapidement. Il nous fait nous dire : « Si je sors de la route et que je me plante, je sais ce qui va se passer, ce n’est pas bon. » Plus les machines auront un modèle complet du monde, plus elles feront preuve de bon sens. Le problème, pour les y entraîner, c’est que le monde n’est pas entièrement prédictible. Par exemple, si avec mon doigt je maintiens, posé sur la table, un stylo à la verticale et que je lève le doigt, le stylo va tomber, mais nous ne pouvons pas prédire exactement dans quelle direction. Nous ne pouvons donc pas utiliser les méthodes d’apprentissage supervisé, parce que celles-ci présupposent que la réponse correcte que nous donnons au système est unique. Or il faut que la machine puisse représenter l’ensemble des possibilités. C’est l’apprentissage en présence d’incertitude qui est compliqué. L’entraînement adversaire est une des pistes pour apprendre à un système à prédire. Prenons l’exemple de la prévision vidéo : nous donnons à un système un court extrait vidéo et nous lui demandons ce qui va se passer ensuite. Pour l’entraîner à prédire l’un des futurs possibles, il faut qu’on lui dise si sa réponse est plausible. Pour ce faire, nous entraînons un deuxième réseau à distinguer les futurs plausibles des futurs non plausibles. Celui-ci ne fait pas de prédiction, il peut simplement évaluer une prédiction. Et ces deux réseaux s’entraînent l’un l’autre. C’est en effet une des techniques les plus prometteuses.

     
     
    *****************************************

    Partager via Gmail

    votre commentaire


    Suivre le flux RSS des articles de cette rubrique
    Suivre le flux RSS des commentaires de cette rubrique
Tweets by cardinales1