Historiquement, l’Intelligence Artificielle (IA) avait pour but de donner à la machine la capacité de résoudre des problèmes ou d’accomplir des tâches de « haut niveau » habituellement dévolues à l’être humain. A cette fin, une partie de la recherche s’est orientée vers la modélisation des connaissances et des raisonnements, souvent réalisée sous l’étroite supervision d’experts des domaines d’application concernés. Depuis quelques années, de nombreux problèmes relevant de l'IA sont attaqués avec un certain succès par une voie semblant différente de cette approche traditionnelle. La disponibilité de grandes quantités de données, combinée au développement des techniques d’apprentissage automatique et de fouille de données, permettent ainsi la reconnaissance d’objets et de scènes dans les images et les vidéos (avec le deep learning), la compréhension du langage naturel (avec les avancées en traitement automatique des langues), la recherche d’information dans de vastes lacs de données (avec les efforts combinés en base de données et en recherche d’information), etc.
La journée organisée conjointement par l’AFIA et la GdR MaDICS (CNRS) entend poser la question de l’articulation entre les problématiques posées par l’Intelligence Artificielle (IA) et celles posées par l’arrivée des données massives (big data) et le développement de la Science des Données (SD), avec un accent mis sur la place de la modélisation des connaissances. En particulier, l’IA ne constitue-t-elle qu’un « terrain d’application » fertile aux techniques développées dans la SD, ou bien les réflexions menées en IA peuvent-elles impacter la manière dont les recherches en big data sont menées ? Les dernières avancées en SD (deep learning, apprentissage de représentation...) sont-elles promises à résoudre la question difficile du sens traitée par les chercheurs en IA depuis de nombreuses années ? Rendent-elles obsolète l’intervention d’experts lors de la constitution de ces modèles ? Cette notion de « modèle », centrale en informatique, va-t-elle disparaître au profit de systèmes uniquement bottom-up basés sur l’accumulation des données ? En tout cas, il paraît évident que les deux champs de recherche partagent des interrogations communes, telles que la place de l’humain (data scientist, expert) et le degré d’autonomie des systèmes mis en place. La journée constituera un lieu naturel de discussions et d’échanges sur ces questions fertiles.
La journée est ouverte au plus grand nombre et concerne toutes les personnes intéressées par les travaux réalisées à la frontière entre les deux champs que sont l’intelligence artificielle et la science des données. Elle est organisée autour de deux personnalités invitées complété par des communications sélectionnées suite à un appel réalisé auprès des équipes de recherches se reconnaissant dans cette problématique.
La journée se tiendra le 2 décembre 2016 à l'amphithéatre de la MILC à Lyon. Afin d’obtenir des informations plus précises sur les thématiques abordées généralement, n’hésitez pas à vous référer aux sites web de l’AFIA et du GdR MaDICS.
Nous sollicitons des interventions (30mn) sur tout aspect de cette interface entre Big Data et IA, que ce soit sous la forme de prises de position, de rapports d'expériences positives ou négatives, d'état de l'art, etc.
Les propositions d'intervention sont attendues sous la forme d'un résumé de 1-4 pages maximum à envoyer par mail (cliquez !) contenant notamment :
Annulé (invité absent)Exposé invité : Big Data vs. the Right Data ; Boi Falting
11h30-12h
Fabrice Muhlenbach ; Modélisation en Intelligence Artificielle au temps du Big Data : où est passée l’intelligence ?
12h-12h30
Jean-Sébastien Vayre ; Les machines ont-elles perdu leur esprit ? Discussion sur les vertus épistémologiques du principe de symétrie à l’ère du big data
12h30-14h
repas (des restaurants sont à proximité immédiate de la MILC)
14h-15h
Exposé invité : Holger Schwenk ; Learning Deep Representations in NLP
15h-15h30
M.C. Rousset, M. Atencia, J. David, F. Jouanot, C. Labbé, O. Palombi, F. Ulliana ; Combiner RDF, Datalog et SPARQL pour intégrer et analyser à la demande des données hétérogènes: retour d'expériences
15h30-16h
présentation courtes des posters
16h-16h30
pause
16h30-17h30
session posters
17h30-18h
discussion + clôture
Exposés invités
Boi Faltings (EPFL)
Big Data vs. the Right Data
There are Big Expectations for making predictions using Big Data without
the need for tedious modeling. However, while models derived from data are very
powerful in situations that closely ressemble the training data, their accuracy
in novel situations is questionable. I will show examples in recommender systems
and sentiment analysis that show the importance of using the right kind
of data, and speculate that modeling may still be important to obtain high-quality
results.
Holger Schwenk (FAIR)
Learning Deep Representations in NLP
The fundamental idea of deep learning is to consider feature extraction and
classification as one globally optimized task. The system learns itself which
are the best features and combines them to higher level hierarchical
representations, through many layers. This approach led to significant
improvements in comparison to other approaches in many many areas, in
particular computer vision and speech transcription.
In this talk, I'll discuss how deep learning has also embraced natural language
processing. I'll explain how research evolved from the introduction of word embeddings, to neural network language models, and finally multilingual neural
machine translation.
Posters/démontrations
What Can I Do Now? Guiding Users in a World of Automated Decisions
Matthias Gallé
Clustering sur de grands volumes de séquences d'origine biologique
Alexandre Bazin, Engelbert Mephu Nguifo, Didier Debroas
From Mobility to Adaptive Services: Targeted Display Application
Nicolas Gutowski, O. Camp et T. Amghar
Conception d’un modèle généraliste pour l’évaluation d’un test A/B
Emmaneuelle Claeys Pierre Gançarski, Myriam Maumy-Bertrand, Hubert Wassner