BIG DATA 2. "Les algorithmes actuels, 100 fois plus efficaces qu’il y a 20 ans"
-
Des progrès considérables ont été faits en 20 ans dans l'enregistrement, le stockage et l'analyse des données, ouvrant la voie aux "Big data" comme l'explique Viktor Mayer-Schönberger.
Mots-clés : astronomie, big brother, NSA, génome, Big data, minority report, PRISM, Edward Snowden, Viktor Mayer-Schönberger
Cliquez ici pour lire la première partie de notre entretien avec Victor Meyer-Schönberger. Professeur à l'université d'Oxford, il est le co-auteur de Big Data, un livre récemment paru aux États-Unis. |
Sciences et Avenir : Dans votre livre, vous précisez que ce sont les sciences comme l’astronomie et la génomique, qui, les premières, ont expérimenté dans les années 2000 cette explosion des données, et ce sont elles qui ont forgé le terme « big data ». Que s’est-il passé ?
Viktor Mayer-Schönberger : Les sciences naturelles ont toujours eu besoin d’accumuler des données, mais c’était une tâche difficile. Au début des années 2000, tout cela a changé pour trois raisons : premièrement, les détecteurs sont devenus beaucoup plus sensibles, deuxièmement les capacités de stockage ont augmenté, enfin le pouvoir de traitement de ces données a explosé.
Je vous donne un exemple : il y a vingt ans, aparaissait le premier appareil photo numérique, mon père m’en avait offert un en 1992, d’une résolution de 100 000 pixels (unité de base d’un image numérique, abréviation de « picture element » ndlr). Aujourd’hui, mon appareil photo a une résolution de 16 millions de pixels. Et il coûte cent fois moins cher qu’il y a vingt ans. La résolution a été multipliée par 160, le prix a été divisé par 100. Et cela est dû au fait que les détecteurs sont à la fois beaucoup plus sensibles et beaucoup moins chers à fabriquer.
"En vingt ans, la résolution d'un appareil photo numérique a été multipliée par 160, le prix a été divisé par 100".
Avec un pareil changement, il est devenu possible d’accumuler très rapidement de gigantesques quantités de données. Et encore plus quand vous prenez ces données non au rythme de la minute, mais tous les dixièmes de seconde.
L’astronomie en a profité. Quand une surveillance systématique du ciel par le télescope de la “Sloan digital sky survey”, au Nouveau-Mexique, a démarré en l’an 2000, en deux semaines de fonctionnement, il avait accumulé plus de données qu’il n’y en avait jamais eu dans toute l’histoire de l’astronomie. Avec les détecteurs nouveaux, que ce soit dans le domaine de la vision, de détecteurs de vibration, pour la localisation ou autre, nous sommes capables d’extraire énormément de choses de la réalité et de les transformer en données.
SetA : Des données qu’il faut stocker et surtout traiter…
V. M.-S : Là aussi, le changement a été très important. Entre ici en jeu la fameuse loi de Moore, qui n’est pas une “loi” à proprement parler, mais cette observation que la densité des circuits intégrés croit si vite qu’elle double tous les 18 mois. En gros, la puissance de traitement double tous les 18 mois. Pour le dire de deux manières équivalentes : pour le même prix, vous doublez votre puissance de traitement ; ou bien, vous avez la même puissance de traitement pour deux fois moins cher. Mais ce qui est encore plus intéressant, au-delà de la loi de Moore et de la puissance de calcul, c’est que nos algorithmes, la façon même de faire nos calculs se sont améliorés.
Dans un rapport au président Obama, son conseiller scientifique John Holdren, président de l’OSTP (Bureau de la politique scientifique et technologique (1)), indiquait que les algorithmes sont 100 fois plus efficaces qu’il y a vingt ans. Ainsi, nos algorithmes sont meilleurs, notre puissance de calcul aussi, ainsi que notre capacité de stockage et nos détecteurs, tout cet ensemble a fait un effet turbo sur certaines sciences.
SetA : Vous citiez aussi la génomique…
V. M.-S : Le séquençage génétique est en effet un très bon exemple. Il y a dix ans, presque mois pour mois, nous célébrions le séquençage du premier génome humain. Cet effort global (avec de nombreuses institutions au niveau international ndlr) avait pris dix ans et coûté un milliard de dollars.
Aujourd’hui, une seule compagnie peut séquencer un génome humain en deux ou trois jours, pour environ 2000 dollars. Rappelez-vous qu’un tel génome consiste en 3 milliards de paires de base d’ADN. Cela représente déjà un bon petit paquet que vous sortez de votre séquenceur. Et maintenant, imaginez que vous fassiez ce séquençage pour 8 milliards d’êtres humains, cela fera une gigantesque masse de données!
Propos recueillis par Dominique Leglu, directrice de la rédaction de Sciences et Avenir, 08/07/13
(1) L’office of science and technology policy, créé en 1976, et plus particulièrement son directeur, conseille le président des Etats-Unis dans le domaine des sciences et des technologies en relation avec la politique et les programmes majeurs du gouvernement fédéral, au niveau national et international. |
Aucun commentaire:
Enregistrer un commentaire