Apprentissage profond & réseaux de neurones : nouvel horizon-limite du traitement massif de données ? Champ des possibles et freins actuels du Deep Learning pour l’industrie.

Mardi 5 Décembre 2017, de 16h30 à 18h

Les récents succès scientifiques remportés dans  les domaines de deep learning, tels la victoire d’AlphaGo face à Lee Sedol, ont largement contribué à exposer le potentiel de l’apprentissage profond et des architectures en réseaux de neurones pour faciliter le développement d’IA de plus en plus autonomes. Dans l’industrie, le deep learning concentre les investissements pour permettre aux acteurs de se démarquer dans la course au traitement massif de données. Les attentes du marché sont énormes, au risque de décevoir si les promesses ne devaient pas être tenues ou si, comme le redoutent déjà certains experts,  « l’effet-bulle »  alimenté par cette effervescence devait se confirmer. Souvent présentées comme un nouveau graal, ces approches sont pourtant hautement consommatrices en ressources et leur démocratisation reste subordonnée à la diminution des coûts liés à l’acquisition de données, à l’entrainement des modèles et au « bug fixing » des programmes pour les nouveaux entrants. Souvent comparés à des « boites noires », ces algorithmes posent également des problèmes de contrôle sur les données et de traçabilité susceptibles d’entraver le développement du marché selon la criticité des décisions qu’ils sont amenés à prendre, ceci alors que l’évaluation de leurs performances n’est pas stabilisée. In fine, le deep learning s’avère difficilement généralisable à tout type de données et de problème.

Quelles sont les principales approches du deep learning, comment fonctionnent-elles et quels sont les points qui les différencient des autres approches de l’IA ? Sur quelles données et pour quels usages ces architectures sont-elles efficaces, et a contrario, quels sont les cas où elles ne le sont pas ? Quels sont les possibilités et les limites actuelles pour industrialiser les déploiements ? Quel est enfin l’horizon prospectif de l’apprentissage-profond, l’accélération actuelle permettra-elle l’émergence d’IA « plus fortes » ?

Animateur : Antoine Raulin, co-animateur du Groupe de travail du GFII « technologies de la connaissance / IA » et Directeur d’études, Bureau van Dijk Information Management

Intervenants :

  • Le machine-learning pour le traitement de données textuelles et l'information retrieval  : principes, enjeux et perspectives
    Benjamin Piwowarski, chercheur au  DAPA (département "données et apprentissage artificiel"), Laboratoire d'Inofrmatique de Paris 6 (LIP6), Université Pierre et Marie Curie.
  • Les architectures neuronales pour la transcription de parole : quels progrès amènent-elles? pour quels usages ?
    Ariane NABETH-HALBER, Director, Speech solutions strategic line, Bertin IT /Vecsys
  • Comment le deep learning optimise l'imagerie médicale au service du diagnostic des maladies de l’œil
    Nicolas Meric, PhD & CEO, DreamQuark
    La start-up DreamQuark, l'intelligence artificielle au service du diagnostic

  • Vers la traduction multimodale avec les réseux de neuronnes
    Jean Senellart, Directeur Technique & Innovation, Systran