Mesures et savoirs : Quelles méthodes pour l’histoire culturelle à l’heure du big data ? - Archive ouverte HAL Accéder directement au contenu
Article Dans Une Revue Semiotica Année : 2019

Mesures et savoirs : Quelles méthodes pour l’histoire culturelle à l’heure du big data ?

Alexandre Gefen

Résumé

L’analyse quantitative de l’histoire culturelle a été ouverte par la mise à disposition de corpus de masse tel que celui de Google fbooks (500 milliards de mots, 5 millions d’ouvrages, soit environ 4% de la littérature mondiale) et a été popularisé sous le nom de « culturonomics ». Elle s’ouvre désormais aux chercheurs, en promettant un accès profond aux faits culturels et à leurs évolutions qui affleurent à travers leurs traces textuelles dans les corpus textuelles numérisées. Encore faut-il pouvoir interroger ces corpus dont la taille et la nature posent des problèmes scientifiques nouveaux, leur dimension les rendant illisibles directement et mettant échec les méthodes de fouille et les outils traditionnels d’analyse statistique des données en imposant des méthodes statistiques nouvelles et le saut vers des formes d’intelligence visuelles originales. Dans le cadre d’un projet mené entre le Labex « Obvil » de Paris-Sorbonne et le Literary Lab de Stanford sur l’histoire de l’idée de littéraire (la définition de la littérature comme mot, comme concept et comme champ), et visant à produire une histoire empirique de la littérature, nous avons mené depuis deux ans des expériences de fouille d’un corpus de critique littéraire de 1618 titres, 140 millions de mots (dont plus de 50 000 occurrences du lemme « littérature ») de la fin de l’Ancien Régime à la Seconde Guerre mondiale. En présentant des exemples développés dans cette première expérimentation à grande échelle de mesure de l’histoire des idées, on présentera les méthodes de text mining contemporaines en essayant d’éprouver leur pertinence heuristique et de leur capacité à faire remonter des données signifiantes pour l’histoire et la théorie littéraire. On fera l’hypothèse que toute enquête quantitative sérieuse mobilise désormais non une échelle intermédiaire standard et immédiatement lisible, mais le maniement d’outils statistiques dont l’interprétation en sciences humaines pose des problèmes particuliers qui, paradoxalement, ne peuvent être résolus que par leur articulation étroite à du close reading et à des mesures fines.

Dates et versions

hal-03167998 , version 1 (12-03-2021)

Identifiants

Citer

Marianne Reboul, Alexandre Gefen. Mesures et savoirs : Quelles méthodes pour l’histoire culturelle à l’heure du big data ?. Semiotica, 2019, 230, pp.97-120. ⟨10.1515/sem-2018-0103⟩. ⟨hal-03167998⟩
71 Consultations
0 Téléchargements

Altmetric

Partager

Gmail Facebook X LinkedIn More