New ! La préparation de l'atelier avance à grand pas.
Pour l'atelier TextMine nous avons eu le plaisir d'accepter 5 soumissions.
Chacune d'elle a fait l'objet de 2 ou 3 relectures grâce à nos gentils relecteurs.
Nous aurons de plus un exposé invité.
Le programme de l'atelier est à présent en ligne [ici ...]
Résumé
Après le succès des ateliers TextMine en 2017 et
2018, nous proposons un troisième numéro
TextMine'19 lors de la conférence EGC'19 qui se tiendra à Metz. Le but de cet atelier est
de réunir des chercheurs sur la thématique large de la fouille de textes. Cet atelier vise à offrir
une occasion de rencontres pour les universitaires et les industriels, appartenant aux différentes
communautés de l'intelligence artificielle, l'apprentissage automatique, le traitement automatique des langues,
afin de discuter des méthodes de fouille de texte au sens large et de leurs applications.
Descriptif :
C'est une évidence que de dire que nous sommes entrés dans une ère ou la donnée textuelle sous toute ses formes submerge chacun
de nous que ce soit dans son environnement personnel ou professionnel : l'augmentation croissante de documents nécessaires aux
entreprises ou aux administrations, la profusion de données textuelles disponibles via Internet, le développement des
données en libre accès (Open Data), les bibliothèques et archives en lignes, les media sociaux ne sont que quelques exemples illustrant
l'évolution de la notion de texte, sa diversité et sa prolifération
Face à cela les méthodes automatiques de fouille de données (data mining), et plus spécifiquement celles de fouille de textes (text mining)
sont devenues incontournables. Récemment, les méthodes de deep learning ont créées de nouvelles possibilités de recherche pour traiter des
données massives et de grandes dimensions. Cependant, de nombreuses questions restent en suspens, par exemple en ce qui concerne
la gestion de gros corpus textuels multi-thématiques. Pouvoir disposer d’outils d’analyse textuelle efficaces, capables de s’adapter à de
gros volumes de données, souvent de nature hétérogène, rarement structurés, dans des langues variées, des domaines très spécialisés
ou au contraire de l'ordre du langage naturel reste un challenge.
La fouille de textes couvre de multiples domaines comme le traitement automatique des langues, l'intelligence artificielle,
la linguistique, les statistiques, l'informatique...et les applications sont très diversifiées, que ce soit la recherche d'information,
le filtrage de spam, le marketing, la veille scientifique ou économique, la lutte antiterroriste …
En France, des conférences comme TALN, CORIA, JADT par exemple sont centrées sur l'analyse et le traitement des textes, mais avec des
approches plus ciblées soit TAL, soit RI, soit statistiques. Cet atelier se veut plus fédérateur autour d'approches et d'applications aussi diverses que possibles.
L'objectif de cet atelier est de favoriser des présentations et des discussions. Peuvent être soumis :