Garrigues Jérémie

Dompter les données, généraliser les algorithmes : une histoire des data sciences

Sous la direction de Boris Beaude, Université de Lausanne

Quel que soit le statut à accorder aux big data, il n'en reste pas moins vrai que les traces numériques grossissent en masse, qu'elles circulent plus rapidement, trouvent de nouveaux foyers d'apparition, de nouvelles pratiques à circonscrire, qu'elles entrent dans de nouveaux rapports de pouvoir. Il est aussi vrai qu'une "classe" d'acteurs tend à apparaitre, en corrélatif à la notion de big data : les data scientists, qui ne peuvent se réduire tout à fait au rebaptême d'ingénieur·e·s et chercheur·e·s en informatique, statistiques, physique etc. L'hypothèse de départ fait apparaitre la data science comme un instrument de conquête : en réduisant le coût d'entrée dans l'informatique complexe, ou en se proposant d'administrer des calculs improbables jusqu'alors, la data science est susceptible de fonctionner comme un foyer par lequel la gouvernementalité algorithmique se propage, s'intensifie, se systématise. En prenant les data scientists comme point d'entrée général à une histoire du big data, il devient possible d'interroger, via des méthodes algorithmiques, le rôle des "communautés" dans l'histoire du numérique, les transformations de l'archive (l'index) et les transformations épistémologiques (le minuscule et le bayésien) auxquelles iels contribuent, ou encore les guerres de langages informatiques auxquelles la data science participe (python, R, javascript).

TOP ^

Follow us: