Nouvelles méthodes pour le traitement, l'analyse et la représentation de flux de données massives géospatiales.

Source : CRSNG (Conseil de Recherches en Sciences Naturelles et en Génie du Canada)
Programme : Subvention à la découverte
Période : 2019-2024
Chercheur(s) du centre impliqué(s):
  • Thierry Badard
Résumé :
Pour pallier le problème de déluge de données, on assiste à une forte démocratisation des outils et techniques liés à l'informatique décisionnelle et au Big data qui permettent une analyse rapide et efficace de ces grandes masses d'information. Comme 80% de l'information stockée dans les entrepôts de données des entreprises peut se voir rattacher une localisation, des systèmes dits géodécisionnels ont vu le jour et font l'objet d'un grand intérêt de la part des entreprises et institutions car ils permettent de prendre des décisions pleinement éclairées, i.e. prenant en compte toutes les composantes de l'information (spatiale, temporelle, sémantique/thématique). Néanmoins, avec la multiplication des capteurs dans nos villes, usines, maisons, automobiles, … l'afflux de données s'est encore accru et il se produit actuellement plus de données que l'on ne peut en stocker. L'explosion à venir des objets connectés va amplifier de façon exponentielle cette tendance. Ceci impose donc de repenser les systèmes de traitement et d'analyse de la donnée, car celle-ci arrive maintenant en flux continu, souvent massif, à des fréquences parfois très élevées et doit être analysée en temps quasi réel pour ne pas en perdre l'intérêt/valeur, celle-ci ne pouvant plus être stockée pour être analysée plus tard dans sa granularité (spatiale, temporelle ou de détail) la plus fine. Si certaines méthodes et techniques de traitement de flux de données existent et ont été mises en oeuvre dans différentes solutions Big data, il n'en reste pas moins que le traitement de tels flux de données, qui peuvent elles aussi se voir rattacher une localisation et donc faire l'objet d'analyses spatiales, n'en est encore qu'à ses débuts. Le présent programme vise à répondre à ce manque d'outils performants et innovants d'aide à la géodécision basés sur des flux de données. Pour cela, on visera à concevoir des méthodes de traitement, d'analyse et de représentation de flux de données massives géospatiales. On s'attachera ainsi à 1) formaliser et structurer les éléments à la base du traitement et de la représentation efficaces des données de flux de données massives à composante spatiale, 2) développer de nouvelles techniques pour réaliser le traitement et l'analyse rapide, fiable et capable de monter en charge de tels flux de données, mais aussi permettant de tenir compte et de s'adapter à la qualité/défaut dans les données de flux (précision, actualité, erreur ou absence temporaire de données, …), 3) concevoir des modèles permettant de détecter automatiquement des tendances et patrons spatiotemporels dans les flux de données et 4) définir des modes de représentation (nouveaux types d'interface et de cartographie thématique avancée) pour rendre au mieux ces informations dynamiques pour des fins de prise de décision éclairée. Le présent programme de recherche contribuera de plus, à la formation par la recherche, de 6 étudiants de tous les cycles dans des domaines de pointe et en demande.