Apprentissage profond & réseaux de neurones : nouvel horizon-limite du traitement massif de données ? Champ des possibles et freins actuels du Deep Learning pour l’industrie.

Mardi 5 Décembre 2017, de 16h30 à 18h

Les récents succès de l’apprentissage profond (deep learning), comme la victoire d’AlphaGo face à Lee Sedol, ont largement contribué à exposer le potentiel des architectures en réseaux de neurones pour mieux traiter l’information non-structurée et résoudre des problèmes complexes. Dans l’industrie, le deep learningconcentre  les investissements pour permettre aux acteurs de se démarquer dans la course au traitement massif de données. L’accélération est indéniable et les attentes du marché sont énormes, au risque de décevoir, si les promesses ne devaient pas être tenues ou si, comme le redoutent déjà certains experts, « l’effet-bulle » alimenté par cette effervescence devait se confirmer. Souvent présenté comme un nouveau graal, ledeep learnings’avère de facto difficilement généralisable à tous types de données et de problèmes. Sa démocratisation auprès des nouveaux entrants reste subordonnée à la diminution des coûts liés à la consommation du temps-machine, à l’entraînement des modèles ou au « bug fixing » des programmes. De même, la difficile auditabilité de ces systèmes en « boîtes noires » peut freiner les développements dans les secteurs les plus sensibles à la conformité, ceci alors que le cadre juridique de même que les protocoles d’évaluation de ces algorithmes ne sont pas encore stabilisés.  En quoi le deep learning repousse-t-il la frontière du traitement avancé de l’information et des données ? Quelles sont les grandes approches et les  principaux terrains d’applications actuels (traitement de l’image, de la voix, traduction automatique, etc.) ? Quel est l’horizon prospectif du deep learning et verra-t-on émerger des IA « plus fortes » à mesure que s’améliore la connaissance du monde des systèmes ?   Cette session illustrera le champ des possibles et les limites actuelles du deep learning à travers des cas concrets (traitement de données textuelles, visuelles, sonores, etc.).

Animation :
Antoine Raulin, co-animateur du Groupe de travail du GFII « technologies de la connaissance / IA » et Directeur d’études, Bureau van Dijk Information Management

Intervenants :
- Le machine-learning pour le traitement de données textuelles et l'information retrieval  : principes, enjeux et perspectives
Benjamin Piwowarski, chercheur CNRS au DAPA (département "données et apprentissage
artificiel”) du Laboratoire d'Informatique de Paris VI (LIP6), Université Pierre et Marie Curie.
PRÉSENTATION (PDF)
- Les architectures neuronales pour la transcription de parole : quels progrès amènent-elles? Pour quels usages ?
Ariane Nabeth-Halber, Director, Speech solutions strategic line, Bertin IT /Vecsys
PRÉSENTATION (PDF)
- Comment le deep learning optimise l'imagerie médicale au service du diagnostic des maladies de l’œil
Nicolas Meric, PhD & CEO, DreamQuark
PRÉSENTATION (PDF)
- Élevage et évolution d'IA en traduction automatique
Christophe Servan, Ingénieur Recherche, Systran
PRÉSENTATION (PDF)