Résumé :
|
Dossier consacré à la relation entre le Big Data (données massives) et les mathématiques. Définition, identification des éléments ayant permis l'apparition des grands volumes de données, usages, caractéristiques ("les cinq V"), différences entre une donnée, une information et une connaissance, la volumétrie, le stockage et l’utilisation des données (data centers, systèmes de stockage de type relationnel - MySQL, NoSQL -), la notion de collection comme généralisation des tables (ex : MongoDB), les outils de distribution (Elastic Search, Hadoop, STORM) au service de la conception d'outils décisionnels à partir des datawarehouses (entrepôts de données) et des datamarts (magasins de données), le développement des formations au big data dans l’enseignement supérieur ; encadrés sur Big Data et sémantique (l’utilisation des méthodes statistiques et ses limites dans le domaine de la traduction automatique - Google Translator, DeepL translator - ; l’arnaque du "brouteur ivoirien" ; l’origine de l’anglicisme Big Data, sa traduction française et les imperfections de son usage en français - données massives, déluge de données, mégadonnées -). La question de la visualisation des données (représentation graphique) pour faciliter la transmission et la compréhension d’un message : enjeux, histoire et actualité (ex : le data storytelling). L’interprétation des données à l’aide de l’outil statistique et des algorithmes (ex : le suivi d’une épidémie de grippe, le classement des pages du Web avec l’utilisation de la notion mathématique de la chaîne de Markov et les calculs matriciels, la reconnaissance algorithmique des spams fondée sur les probabilités avec le recours au théorème de Bayes, filtre bayésien). Démonstration mathématique des limites de la méthode statistique de calibration pour utiliser le big data dans le domaine de l’assurance ; encadrés sur l’utilisation du Big Data dans les domaines de la santé et militaire avec les machines exaflopiques (ex : Terra 1000-2, calculateur EXA1 de classe exaflopique).
|