займ без процентов

Le Big Data : qu’est-ce que c’est concrètement ?

Depuis maintenant quelques années, le big data (ou mégadonnées, données massives ou datamasses en français) font les titres de la presse économique, technologique et même généraliste. Pourtant, ce concept reste flou pour de nombreuses personnes, même si la plupart d’entre nous savent que ce terme à un rapport avec l’informatique, les nouvelles technologies de l’information et les données de plus en plus volumineuses échangées dans le web.

Alors le Big data, simple évolution technologique ou véritable révolution qui va impacter l’économie et nos vies ?

Qu’est-ce que le Big Data ?

Pour répondre à cette question, il est important de revenir tout d’abord en détail sur ce que sont les mégadonnées. En effet, comment expliquer à des non-initiés l’importance de ces données de masse, s’ils ne comprennent pas complétement le terme ?

Apparu pour la première fois vers la fin des années 1990, le terme Big Data est plus actuel que jamais. Ce concept connait un énorme boom ces dernières années parce que le volume des données numériques a littéralement explosé. Avec l’évolution technologique et l’évolution des infrastructures informatiques, plus de 90% des données numériques existantes ont été créées seulement à partir de 2012.

Les datamasses sont  donc un ensemble de données dont le volume est tellement important qu’il a fallu créer des outils spécifiques pour les traiter. Ces outils remédient aux limites des infrastructures classiques d’analyse et de stockage de données. Les infrastructures en question sont les serveurs SQL, les systèmes de Business Intelligence etc.)  Quelques géants du web, notamment Google, Facebook, Amazon ou encore Yahoo ! ont été parmi les premiers à recourir au Big Data pour faire face à cette problématique de données très volumineuses.

En tout cas, les outils de Big Data répondent à trois capacités :

  • Traiter des données d’un volume très important
  • Traiter des données très différentes et issues de sources aussi diverses que variées
  • Traiter les données avec une vélocité optimale

Ce sont en fait les 3V (Volume, Variété et Vélocité) de la grille de lecture créée par Doug Laney du cabinet Gartner.

Webzeen - représentation de la big data

Big Data : des premières formes d’écriture à nos jours

L’homme a toujours créé et collecté des informations, mais le processus s’opérait progressivement, et beaucoup plus lentement dans l’ancien temps. Le magazine Fortune a estimé que les données créées depuis les premières formes d’écriture jusqu’en 2003 étaient de 5 exabytes. Mais ce même volume pouvait être créé en deux jours en 2011. Mais les choses se sont littéralement emballées ces dernières années. Ce même volume de 5 exabytes est en effet créé en quelques minutes seulement de nos jours.

Cette surabondance de données résulte de l’essor de la population qui rime avec essor des connaissances et des informations.

  • 1940 : Première utilisation du terme explosion de l’information. La gestion du volume de données devenait de plus en plus difficile. Il a fallu trouver des canaux plus appropriés pour transmettre les informations car les supports classiques devenaient obsolètes.
  • 1948 : Publication par Claude Shannon de sa théorie de l’information intitulée A Mathematical Theory of Communication. Resté une référence jusqu’à aujourd’hui, ce schéma a largement contribué à la création des infrastructures actuelles. En effet, la numérisation des données s’est faite en partie grâce à ses concepts de codage d’informations, de compression de données, de cryptographie et de mesure quantitative de redondance d’un texte.
  • 1956 : Prémisse du concept de mémoire virtuelle à la suite des travaux de Fritz-Rudolf Güntsch, le physicien Allemand. La mémoire virtuelle résout une grande partie des contraintes matérielles de stockage.
  • 1966 : Apparition des systèmes informatiques centralisés. Le secteur scientifique qui avait spécialement besoin de ce genre de plateforme en est parmi les principaux utilisateurs. De plus en plus d’entreprises mettent leur système informatique centralisé en place pour faciliter le système d’inventaire en rendant les opérations automatiques.
  • 1970 : On entre dans l’ère de la base de données relationnelle quand le mathématicien Edgar F. Codd publie un article centré sur l’accès à des informations stockées sur de grandes bases de données sans forcément être un expert en informatique. Les structures permettant actuellement d’échanger des informations virtuelles (achat en ligne, accès à distance aux comptes bancaires, transactions boursières etc.) sont possibles grâce à cette théorie.
  • 1989 : Plein essor du Business Intelligence, un terme qui veut dire analyse décisionnelle. Cela permettait de prendre des décisions en se basant sur des faits.

Le processus s’emballe à partir des années 1990 où le développement fulgurant d’Internet et du domaine de l’informatique a engendré l’explosion des données de Business Intelligence. On entre alors dans l’ère du Business Intelligence 2.0 où le stockage des données se faisait sur des formats numériques. Le défi est tout autre, mais le stockage numérique est indéniablement plus avantageux que le stockage traditionnel sur papier.

Le problème lié au Big Data fait alors son apparition avec toutes ces données à stocker alors que les systèmes informatiques ne suivaient plus. La fin des années 1990 sera également marquée par le problème lié à la Business Intelligence parce que beaucoup de systèmes d’extractions de données sont saturées.

Plusieurs événements marquants ont ensuite eu lieu de l’an 2000 à nos jours :

  • 2001 : apparition de l’appellation SaaS ou Software as a Service
  • 2001 : Publication de la recherche de Doug Laney sur les 3V
  • 2006 : Création de Hadoop pour une meilleure gestion de l’explosion des données web
  • 2007 : Publication de l’article The Expanding Digital Universe : A Forecast of Worldwide Information Growht throught 2010 par plusieurs chercheurs de l’International Data Corporation. C’est la première étude qui se concentre particulièrement sur la croissance des informations.
  • 2008 : Début de l’âge du pétaoctet avec la publication d’un article de Wired Magazine qui présente les conséquences aussi bien positives que négatives de ce déluge de données
  • 2010 : Émergence des systèmes ERP dans les nuages ou cloud
  • 2011 : Apparition des principales tendances de la Business Intelligence à savoir le cloud computing, l’analyse prédictive, la visualisation des données et le Big Data.
  • Fin 2013 : Début de la mise en œuvre de nouvelles technologies in-memory (ex : SAP HANA)
  • 2014 : Adoption des systèmes ERP dans le cloud.

En cela, quelques décennie et même en quelques années ont suffi à la Big Data pour s’imposer de plus en plus dans l’actualité et dans l’économie réelle. L’immensité des données collectées chaque jour fait que les entreprises et les Etats ont accès à une somme considérable d’informations qui leurs permettent de faire des analyses plus fines et précises, d’anticiper certaines choses et d’améliorer la gestion des flux…

Webzeen - big data

Les apports de la Big data

Évidemment, la révolution du Big Data n’est pas vaine et les données ainsi stockées offrent des possibilités infinies d’exploitation. Le Big Data a des applications diverses à tous les niveaux.  En effet, les différents acteurs privés et publics anticipent les besoins grâce à ces données.

Le Big Data améliore notamment les performances gestionnaires en entreprise avec un suivi en temps réel de l’écoulement des produits en vue d’un réapprovisionnement ciblé et en adéquation avec les demandes et les besoins du client.

D’autre part, ces données massives sont indispensables à plus grande échelle, notamment sur les catastrophes naturelles où les mouvements de foules (qu’on peut retracer grâce aux GPS des smartphones par exemple) dirigent les aides et interventions humanitaires vers les bons endroits.

Par ailleurs, les spécialistes disposent des statistiques de requêtes sur les moteurs de recherche pour anticiper les épidémies ou autres situations d’urgence. Et avec le même principe, les armées et autres infrastructures de sécurité peuvent identifier facilement et rapidement les zones nécessitant une vigilance particulière. D’ailleurs, les forces de l’ordre de Memphis, aux États-Unis, se sont basées sur le Big Data pour mettre en place leur programme Blue Crush.

Le Big Data n’a pas fini de nous étonner et de se développer. Avec le nombre impressionnant de données échangées et stockées par seconde, cette surabondance d’informations nécessitera encore beaucoup de changement dans le futur. D’ailleurs, les experts se penchent déjà sur l’avenir du Big Data.

Même si aujourd’hui les données massives n’ont peut-être pas encore révolutionné le monde, cela ne devrait donc pas tarder…

A propos de l'auteur

Passionné par le référencement naturel et social, et surtout motivé par les défis, j'accompagne les entreprises dans leur stratégie de visibilité sur les moteurs de recherche.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *