Par Kévin Carillon 

 

Kévin Carillon a obtenu le 13ème Prix du CSA  pour son mémoire de Master en sociologie intitulé : « La RTBF et la problématique de la ‘’gestion des données’’. Une analyse des réseaux sociotechniques impliqués dans la collecte, le stockage et le traitement des mégadonnées » (ULB – année académique 2019-2020).   

 

Alors que les dispositifs sociotechniques relatifs aux big data ne cessent d’étendre leur emprise tant dans la sphère publique que privée, il convient de s’interroger sur la place dévolue à ces outils au sein du secteur médiatique. Le présent article vise donc à dresser un panorama des liens complexes et équivoques qui unissent l’univers des médias dits « traditionnels » à ces technologies (I), tout en montrant la spécificité et l’utilité des études sociologiques pour saisir les conséquences induites par l’adoption de ces outils en contexte organisationnel (II). Enfin, l’article tentera de dessiner quelques pistes de réflexion quant à la manière d’appréhender les transformations provoquées par l’implémentation de ces technologies dans les entreprises médiatiques (III). 

 

1/ Recontextualiser le développement des technologies big data dans l’univers des médias traditionnels. 

 

L’industrie des médias, prise au sens large, entretient des liens complexes et équivoques avec l’univers du big data depuis son émergence. A la fois acteurs et supports de la révolution numérique (Sonnac et Gabszewick, 2013) qui a permis le développement efficient de ces technologies, certains médias comptent aujourd’hui parmi les plus importants gisements de données exploitables à des fins commerciales ; les réseaux sociaux du Web 2.0 ou les grandes plateformes de mise à disposition de contenus témoignent ainsi de l’emprise croissante des données sur les modèles économiques des médias. Il faut dire que l’organisation économique, technologique et sociale de cette industrie a connu de profonds bouleversements avec ce que les économistes Carl Shapiro et Hal Varian nomment la numérisation de l’information définie comme « l’encodage de l’information sous forme de bit » (Shapiro et Varian, 2001). Cette numérisation de l’information, consistant à « convertir des informations […] dans le langage vernaculaire de l’ordinateur » (McAfee et Brynjolfsson, 2015, p. 78), a conduit Internet à devenir un méta-media offrant la possibilité aux producteurs et aux consommateurs de combiner du son, de l’image et de l’écrit sur un unique support. Dans ce contexte, les médias traditionnels (télévision, radio, presse) ou de masse (Voirol, 2010) – pour reprendre la terminologie popularisée par l’Ecole de Francfort – qui jouissaient encore de la sectorisation et de la segmentation propres à l’industrie médiatique, ont dû faire face aux nombreux défis que posait cette révolution technique et ont dû s’adapter, du même coup, aux changements qu’entraînait la numérisation de l’information en termes de production, de consommation et d’usage. 

Si cette mutation opère, depuis trois décennies, à des degrés variables, ses conséquences sont rétrospectivement difficilement dénombrables : transformation de la pratique journalistique, apparition d’une myriade de nouveaux médias dont certains uniquement présents sur le Web (pure player), baisse tendancielle des revenus publicitaires, baisse des coûts de production de l’information, restructuration de l’offre médiatique, généralisation d’une consommation délinéarisée, multisupport et multiformat avec la démocratisation de l’ordinateur personnel et du smartphone (que décrit parfaitement l’acronyme anglais ATAWADAC pour Any Time, Any Where, Any Device, Any Content), apparition du streaming, des podcasts, de la vidéo à la demande (VoD) et de la télévision de rattrapage (catch-up TV), etc. En définitive, nous avons basculé dans ce que Jeremy Rifkin (2005) nomme « l’âge de l’accès » dans lequel les flux d’informations sont omniprésents, alimentant un contexte consumériste sans limite et une (sur)abondance informationnelle qui contribue à « l’infobésité » (Papp, 2018).  

Partant de ce constat, l’adaptation de la part des médias traditionnels s’est faite, pour ainsi dire, à marche forcée. Tentant d’enrayer la menace, supposée ou réelle, que représentait l’avènement de l’âge de l’accès et de la mise en réseau, ces derniers ont eu tôt fait d’investir dans le numérique avec plus ou moins de réussite et de succès. Jean-Marie Charon constate ainsi que « Le Chicago Tribune hébergé par AOL propose ses premières informations sur Internet dès 1992 (Pélissier, 2001 ; Rebillard, 2009). Le Monde crée un service multimédia en 1994, ses informations sont accessibles via Infoni, en 1995. La même année, Libération, L’Humanité, Le Parisien, les Dernières Nouvelles d’Alsace, Ouest France, etc., créent leur propre service sur Internet. Aujourd’hui il existe certainement peu de titres de presse écrite et certainement de médias qui n’aient une ou plusieurs applications en ligne, sinon accessible via les smartphones ou les tablettes. » (2011, p. 19). Cependant, l’étude menée par Virginie Sonet (2016) concernant la création d’applications mobiles de la part des médias traditionnels illustre parfaitement comment ces derniers se fondent parfois, bon gré mal gré, dans des logiques qui relèvent de la sujétion à un environnement techno-économique dont ils n’ont pas la maîtrise, et comment cette tendance est susceptible, en retour, d’éroder leur autonomie. 

Autrement dit, le basculement des médias traditionnels vers le numérique s’est opéré sur le mode injonctif d’un « retard technologique » qu’il convenait à tout prix de combler, allant jusqu’à prendre les traits d’une véritable hantise de l’obsolescence. Cette dynamique peut s’expliquer par un triple facteur. Tout d’abord, la formidable accélération du rythme des innovations techniques qui, à la lecture d’Hartmut Rosa (2010), apparaît comme l’une des trois composantes de l’accélération du monde aux côtés de l’accélération du changement social et de l’accélération des rythmes de vies. Ce rythme effréné, s’enchâssant pleinement dans notre société liquide (Bauman, 2005), conduit les acteurs à avoir l’impression d’être en permanence dépassés par la prolifération de nouvelles technologies ayant vocation à en supplanter de plus anciennes. Le deuxième facteur renvoie, quant à lui, à l’écosystème extrêmement concurrentiel dans lequel les médias évoluent. Il s’agit ici de mentionner que l’appétence des médias traditionnels pour le numérique résulte également de contraintes de marché et que la comparaison avec les autres médias stimule cette course à la technologie. Enfin, le dernier facteur, corollaire des deux précédents, prend les traits d’une tendance à la « surenchère », emprunté à Virginie Sonet (2016), qui consiste pour les médias à démultiplier leurs services et leurs offres dans une logique d’audience et d’adaptation aux usages des consommateurs. Emmanuel Kessous (2012) avait déjà pointé cette propension des entreprises participant de l’économie de l’attention (Goldhaber, 1997 ; Citton, 2014) à émettre toujours plus de signaux, à fournir des informations toujours plus nombreuses et variées, et à diversifier leurs méthodes de captation en vue d’acquérir une position dominante sur ce marché.  

On comprend ainsi en quoi la numérisation de l’information a poussé les médias traditionnels à transformer leur modèle économique et à investir massivement dans les nombreux versants que représente le numérique (sites web, applications, plateformes de mise à disposition de contenus, etc.). Or, ce processus de digitalisation a eu une conséquence majeure, car en se fondant dans les impératifs de l’âge de l’accès, les médias traditionnels sont devenus, à des échelles et sous des formes variables, des environnements data-compatibles et d’importants gisements de données. Pour le dire autrement, ces mêmes médias sont passés, en inscrivant une large partie de leurs activités dans le numérique, d’un contexte « data poor » (pauvre en données) à un contexte « data rich » (riche en données) pertinent pour l’implémentation des technologies big data. 

De fait, la manière d’appréhender les publics pour ces médias a également changé. Si, auparavant, les mesures d’audience tenaient une place cardinale et singulière dans l’activité du secteur audiovisuel en tant qu’« outil de preuve, […] de pouvoir, [et] de comparaison » (Méadel, 2010, p. 7), l’accès à d’importants gisements de données exploitables a permis la généralisation du datamining et l’émergence d’une nouvelle manière d’appréhender les publics. Ce nouvel instrument de connaissance marque néanmoins le triomphe de l’approche comportementaliste, dont on retrouve les prémisses dans l’histoire des mesures d’audience (Méadel, 2010, p. 207) mais qui atteint son parachèvement avec le tracking des auditeurs-téléspectateurs-internautes.  

En effet, l’un des traits les plus remarquables et paradoxal des big data est de faire abstraction de l’individu, ou plutôt, de faire de l’individu une abstraction en se focalisant presque exclusivement sur les comportements. Thomas Berns et Antoinette Rouvroy, auteurs de plusieurs articles sur la gouvernementalité algorithmique (2010, 2013) estiment ainsi que les big data instaurent un régime basé sur le profilage où la « mesure de toute chose est ‘dividuelle’, à la fois infra- et supra-personnelle, rhizomatique, constituée d’une multitude de représentations numérisées, potentiellement contradictoires entre elles et en tout cas hétérogènes les unes aux autres » (2010, p. 94). Derrière ce vocabulaire deleuzien quelque peu obscur au premier abord, il y a l’idée que la raison calculatoire sur laquelle reposent les big data ne cherche pas à saisir les sujets et les individus, mais plutôt les multiples reflets statistiques, digitalisés et fragmentés que ces derniers donnent d’eux au travers de leurs traces. Dans ce contexte, nul besoin de s’appuyer sur les sciences de l’homme pour expliquer les comportements : passé un certain seuil quantitatif et qualitatif, les données chiffrées sont censées parler d’elles-mêmes (Anderson, 2008). Aussi, les big data embrassent-ils un « comportementalisme radical » (Cardon, 2015, pp. 66-71) dans lequel les « sujets deviennent eux-mêmes la source ultime, agissante, performante, de la construction du savoir qui porte sur eux, et des normes qui les régissent » (Berns et Rouvroy, 2010, p. 97). 

Partant, l’introduction des logiques calculatoires propres aux big data dans un environnement qui était encore dominé par des logiques d’audience constitue un véritable changement paradigmatique. Les deux techniques dessinent ainsi deux types de connaissances, complémentaires et potentiellement contradictoires car agissant, in fine, sur le même le plan (la connaissance des comportements des auditeurs-téléspectateurs-internautes). Pour autant, les deux approches semblent pour le moment cohabiter sur le registre de la complémentarité (Dudoignon, Le Sager et Vanheuverzwyn, 2018, parlent d’un « mariage de raison »), dont témoigne la mise en place d’une méthodologie hybride, mêlant mesures d’audiences et datamining, chez Médiamétrie (Ibid. ; Vanheuverzwyn, 2016).  

Or, si les technologies big data sont à ce point paradoxales, c’est que, tout en évacuant la figure de l’individu – dans son entièreté et sa singularité – au profit d’un « ‘double statistique’ c’est-à-dire des croisements de corrélations, produits de manière automatisée, et sur la base de quantités massives de données » (Berns et Rouvroy, 2013, p. 180), elles permettent, dans le même temps, une hyper-personnalisation des offres et des expériences de consommation. Cette évolution a été rendue possible par les progrès de l’apprentissage automatique (ou machine learning), c’est-à-dire la capacité pour un agent de calcul « nourri » avec des données d’améliorer ses performances en résolution de problèmes. L’hyper-personnalisation prend alors la forme de dispositifs de recommandation qui visent à formuler une offre cohérente et désirable pour le consommateur en lui proposant un produit ou un service. Néanmoins, en rencontrant l’informatique, ces dispositifs sont devenus des machines aux visées prédictives, dont la finalité première est de transformer l’attention des consommateurs en valeur économique (Kessous, Mellet et Zouinar, 2010). 

D’un point de vue technique, les agents de recommandation informatisés reposent sur la réalisation de trois tâches automatiques : (1) l’agrégation et le traitement de données, (2) l’inférence de connaissances permettant, notamment, de construire un profil utilisateur (le fameux « double statistique ») et (3) l’émission d’une recommandation à partir des deux tâches précédentes. Un dispositif de recommandation apparaît donc comme « une agence de calcul matérielle qui réalise, en continu, un énorme travail d’enquête visant à identifier les biens disponibles dans le catalogue du commerçant et susceptibles de correspondre au mieux à ce que recherche chaque visiteur » (Callon, 2017, tel que cité par Vayre et Cochoy, 2019, p. 183), lequel délègue une partie de sa rationalité au système en échange d’un gain de temps cognitif (Cochoy, 2004). Changeant de forme au cours du temps, ce « travail d’enquête » a largement bénéficié des avancées techniques du big data pour atteindre aujourd’hui un niveau de sophistication et de spécialisation jusqu’alors inconnu. Car si les études sur les systèmes de recommandation sont relativement peu nombreuses (Ménard, 2014), toutes mettent en évidence que ces dispositifs ont une histoire inextricablement liée aux évolutions du numérique (qui les ont rendus possibles), aux évolutions de la société de l’information (qui les ont rendus nécessaires) et aux évolutions du capitalisme (qui les ont rendus profitables). Il est ainsi possible de retracer cette histoire en trois étapes (Ménard, 2014 ; Chartron, Kembellec et Saleh, 2014 ; Vayre et Cochoy, 2019) correspondant à trois « générations » de dispositifs de recommandation.  

La première génération (Letizia, Infoscope, Newt, Pandora, etc.) est celle des dispositifs de recommandation centrée objet (item-to-item), consistant à mettre en relation des objets ou des contenus en fonction de leurs propriétés respectives. Caractéristiques du Web 1.0, ces dispositifs de recommandation participent « à la fabrication de la figure d’un consommateur dont les préférences peuvent être déterminées en fonction des caractéristiques intrinsèques des biens qu’il a déjà achetés ou convoités » (Vayre et Cochoy, 2019, p. 185). Ce type de filtrage repose en grande partie sur des données capables de décrire les produits et les contenus – les métadonnées – afin de leur attribuer des scores de similarité (voir l’exemple de l’utilisation du coefficient de Dice utilisé par Vayre et Cochoy, pp. 185-186).  

La deuxième génération (Webmate, MovieLens, FlyCasting, etc), apparue cette fois dans le cadre du Web 2.0, est celle des dispositifs de filtrage collaboratif (collaborative filtering) centrés usager (user-to-user). Ces dispositifs de recommandation « sont qualifiés comme tels dans la mesure où leur but est de suggérer aux consommateurs, non pas des produits similaires à ceux qu’ils ont eux-mêmes indiqués comme intéressants, mais des biens que d’autres consommateurs ont, bien souvent à leur insu, déclarés comme correspondant à leurs préférences » (Ibid., p. 186). L’objectif principal est alors de prédire le futur comportement du consommateur en se référant au passé de ceux qui lui ressemblent (Cardon, 2015, p. 34). Les données nécessaires à l’analyse sont celles qui rendent compte de l’appréciation des produits par les utilisateurs. Pour reprendre la terminologie de Dominique Cardon, il peut s’agir de signaux informationnels (systèmes de notation, likes, partages, commentaires, etc.), de traces de comportements, ou d’une combinaison des deux (Cardon, 2015, p.62).  

L’un des points les plus intéressants du travail de Vayre et Cochoy est de relier ces deux premières générations de dispositifs de recommandation aux théories qui leur servent de soubassement. En effet, le fonctionnement des systèmes de recommandation de première génération repose sur le primat d’une homophilie de goût, chez un même individu, entre ses consommations passées et ses consommations futures. Ce principe trouve ainsi un écho particulier dans les thèses bourdieusiennes sur la formation de l’habitus. Les systèmes de recommandation de deuxième génération reposent, quant à eux, sur le primat d’une homophilie de goût entre différents individus qui partagent des ressemblances. Ce principe est, pour sa part, en tous points conforme aux analyses de Bourdieu sur l’habitus de classe et la stratification des pratiques culturelles. De ce point de vue, l’apparition d’une troisième génération de dispositifs de recommandation marque à la fois la naissance de systèmes hybrides, rendue possible par les big data, et la « fin de la théorie » (Anderson, 2008).  

En effet, la plupart des dispositifs de recommandation auxquels nous sommes aujourd’hui confrontés résultent de formes hybrides combinant plusieurs méthodes afin d’établir leurs corrélations. Les algorithmes de recommandation des firmes Amazon (Linden, Smith et York, 2003) et Netflix (Hosanagar et al., 2012 ; Drumont, Coutant et Millerand, 2018), parmi les plus connus et les plus emblématiques, reposent sur des combinaisons complexes à l’intersection de plusieurs méthodes, mêlant l’analyse du comportement individuel passé de l’utilisateur, des analyses basées sur le contenu, ainsi que des analyses basées sur le filtrage collaboratif. Dans la mesure où les modèles de ces agents de recommandation hybrides nécessitent des données de natures variées et en nombre conséquent, l’apparition de ces dispositifs n’a été rendue possible que par le développement, et surtout, par « l’industrialisation » (Vayre, 2016, pp. 164-186) des big data, laquelle s’est traduite par l’augmentation des capacités et la diminution des coûts liés au stockage et au traitement des données, ainsi que par la prolifération des dispositifs de captation et de collecte. Dans ce contexte, les concepteurs des dispositifs de troisième génération ne s’embarrassent plus à définir a priori un périmètre d’extraction des données pour nourrir les modèles de leurs agents de calcul : ils se contentent de permettre l’agrégation d’un maximum de données et il reviendra finalement à l’agent de calcul lui-même d’inférer ses propres corrélations à partir des données disponibles. Couplés à l’apprentissage automatique pour les plus sophistiqués d’entre eux (par exemple, aux réseaux de neurones dans le cadre du deep learning : Vayre et Cochoy, 2019, p. 192 ; Cardon, Cointet et Mazières, 2018), les dispositifs de recommandation de troisième génération sont donc capables, de manière autonome, d’établir les associations les plus efficaces dans des jeux de données et d’adapter leur recommandation en fonction des nouvelles données entrant dans leur système. C’est pourquoi, une fois associés à ce type de technologie d’apprentissage artificiel, « les agents de recommandation ne se réfèrent plus à aucune sociologie préalable et implicite concernant la manière dont il est possible d’automatiser le travail d’identification des préférences des consommateurs, mais ils parviennent à réaliser automatiquement le travail d’enquête permettant de produire, de tester et de valider le(s) modèle(s) sociologique(s) adéquat(s) aux situations observées » (Vayre et Cochoy, 2019, p. 191). 

Comme le souligne Marc Ménard (2014, p. 69), il est frappant de constater que les systèmes de recommandation trouvent leur plus ancienne – et intensive – application dans l’industrie des biens culturels, et notamment celle des médias. Ce constat peut paraître étonnant à première vue, dans la mesure où la programmation éditoriale (c’est-à-dire le fait pour les acteurs de choisir les programmes mis en avant et portés à la connaissance du public) est historiquement le cœur de métier des professionnels du secteur audiovisuel. Dès lors, l’introduction des techniques algorithmiques fait apparaître une tension entre une ligne dite « éditoriale » (la manière traditionnelle dont se structuraient les contenus dans le secteur audiovisuel, centrée sur le jugement des éditeurs de contenus) et une ligne que l’on peut qualifier de « data driven » (fondée sur l’analyse des comportements des consommateurs) qui rejaillit, à des degrés divers, sur la question de la programmation et de la recommandation.   

Néanmoins, l’adoption de tels dispositifs s’explique aisément si l’on tient compte à la fois des conséquences de la numérisation de l’information, de la généralisation d’une consommation médiatique délinéarisée et multisupport, ainsi que du renversement du rapport asymétrique qui structurait l’industrie médiatique jadis : à une situation où l’offre était restreinte (un petit nombre d’émetteurs) et la demande pléthorique (un grand nombre de récepteurs) a succédé une situation d’abondance informationnelle dans laquelle l’intérêt du consommateur est devenu une ressource rare. Cette restructuration du marché, marquée par l’apparition d’une pléiade de nouveaux acteurs – dont les grandes plateformes telles que Netflix, Disney+ ou Prime Video – a accru la compétition entre les médias pour la distribution de contenus auprès des consommateurs. Joëlle Farchy, Cécile Méadel et Arnaud Anciaux (2017) notent ainsi, en ouverture de leur article sur la recommandation des contenus audiovisuels, que « cette compétition se construit dans deux directions, concourant à diminuer la rentabilité des modèles d’affaires. En premier lieu, le temps disponible des consommateurs est potentiellement fragmenté entre les propositions d’un très grand nombre d’acteurs (Cha et Chan-Olmsted, 2012 ; Lee, Hong et Lee, 2010). En second lieu, et tout particulièrement pour la télévision payante, c’est également la disponibilité à payer du consommateur qui peut être déplacée au profit de nouvelles offres, qu’il s’agisse de paiements à l’acte ou d’abonnements. Face à cela, les acteurs traditionnels de l’audiovisuel sont incités à adapter leurs offres, si ce n’est enjoints à se transformer radicalement dans leur manière d’orienter l’usager » (pp. 169-170). Car la problématique principale à laquelle sont confrontés les acteurs du secteur audiovisuel, en dehors des questions relatives à la programmation, est celle de la construction d’une offre de programmes et des moyens d’orienter le consommateur au sein de ce catalogue.  

En outre, les trois auteurs précités (Farchy, Méadel et Anciaux, 2017) montrent également que, si le traitement algorithmique à des fins de recommandation se généralise, il ne représente en réalité qu’une partie des logiques à l’œuvre pour orienter l’utilisateur. Pour spectaculaire que soit l’apparition des dispositifs de recommandation de troisième génération, ces derniers s’adossent toujours dans le secteur audiovisuel à des logiques éditoriales qui brouillent les frontières entre programmation (« notre sélection ») et recommandation (« recommandé pour vous ») au sein d’une même interface : il s’agit, par exemple, de mettre en avant des contenus qui auraient « du mal à survivre seuls » (Scherer, 2015, tel que cité par Farchy, Méadel et Anciaux, 2017, p. 171), de préserver une image de marque ou d’affirmer une certaine ligne éditoriale. Aussi, sans « être amenée à disparaître, la recommandation éditoriale est appelée à se renouveler profondément ; en effet, de nouvelles formes de recommandation émergent, contributives ou personnalisées, a priori plus adaptées au nouvel environnement numérique. » (Ibid., p. 192). 

Dès lors, le développement et la généralisation de la recommandation algorithmique pourraient laisser croire au lecteur que le secteur audiovisuel a opéré une mue profonde en réorientant sa stratégie en direction de la demande. Il s’agirait, comme dans le cadre du retargeting publicitaire (Cardon, 2015, pp. 36-38) – i.e. le ciblage des offres publicitaires réalisé sur les interfaces connectées à partir du parcours de navigation –, d’individualiser l’ensemble de nos expériences de consommation par le recours aux potentialités offertes par les technologies big data.  

Néanmoins, ce constat est un leurre : le cœur des technologies big data n’est pas d’adapter l’offre à la demande, mais plutôt de faire coïncider la demande à l’offre. Thomas Berns et Antoinette Rouvroy, à nouveau, ont très bien saisi cette dimension lorsqu’ils estiment que « cette forme d’individualisation s’apparente, de fait, à une hyper-segmentation et à une hyper-plasticité des offres commerciales davantage qu’à la prise en compte globale des besoins, désirs, propres à chaque personne. Au contraire, bien sûr, l’objectif n’est pas tant d’adapter l’offre aux désirs spontanés (pour peu qu’une telle chose existe) des individus, mais plutôt d’adapter les désirs des individus à l’offre, en adaptant les stratégies de vente (la manière de présenter le produit, d’en fixer le prix…) au profil de chacun » (2013, p. 176). L’idée principale est donc de résoudre la difficile équation de l’incomplétude de l’offre en la dissimulant derrière des outils de personnalisation. Joëlle Farchy, Cécile Méadel et Arnaud Anciaux décrivent parfaitement, sous la forme d’une fable, ce phénomène dans le cadre de la recommandation des contenus audiovisuels : « imaginons un consommateur ayant un intérêt marqué pour mille films dans l’absolu et une plateforme sur abonnement qui possède des droits pour cent de ces films seulement. Si le consommateur cherche par lui-même les films qui l’intéressent, il risque d’être déçu neuf fois sur dix (il ne trouvera pas les neuf cents films qui l’intéressent et dont la plateforme ne détient pas les droits), ce qui suscitera un sentiment d’insatisfaction. L’enjeu pour la plateforme est donc, à catalogue constant, de lui proposer l’un après l’autre chacun des cent films l’intéressant pour lesquels elle possède les droits. Dans les deux cas, avec ou sans recommandation personnalisée, le nombre de films à la fois intéressants et accessibles, l’utilité absolue pour le consommateur, reste identique, mais sa perception peut en être changée dans le second cas. » (2017, p. 193). 

Les technologies big data, en ce compris les algorithmes, constituent donc un ensemble d’équipements de marché (Ménard, 2014, p. 79) particulièrement performants dans la sphère économique en favorisant un meilleur appariement entre l’offre et la demande. De fait, ces technologies accompagnent et alimentent les mutations du capitalisme contemporain, devenu un « macro-milieu associé » qui les rend pertinentes et dans lequel elles peuvent exprimer tout leur potentiel en termes de création de valeur. Ce nouvel « esprit du capitalisme » (pour paraphraser Boltanski et Chiapello, 1999), inextricablement lié à l’avènement du numérique et ayant permis l’industrialisation des big data, peut être décrit au travers de trois axes (Vayre et Cochoy, 2019) : il est cognitif, relationnel et dessine les contours d’une économie de l’attention. 

Les postulats de l’économie de l’attention (Goldhaber, 1997 ; Davenport et Beck, 2001 ; Kessous, Mellet et Zouinar, 2010 ; Kessous, 2012) ne sont pas nouveaux : l’homme moderne fait l’objet d’une surcharge informationnelle, essentiellement induite par la numérisation de l’information. Submergé par cette masse d’informations, son attention, c’est-à-dire sa capacité à traiter l’information disponible, devient une ressource rare (Simon, 1971) pour laquelle s’affrontent les acteurs économiques. Si la conquête de cette ressource est aussi cruciale, c’est que le capitalisme est aujourd’hui cognitif (Moulier-Boutang, 2007). Le concept de capitalisme cognitif a été forgé pour décrire une nouvelle phase historique du capitalisme qui succède, depuis les années 1990, aux capitalismes mercantiliste et industriel. Cette nouvelle phase du capitalisme se caractérise par deux traits dominants : (1) tout d’abord, la  dimension  cognitive  et  immatérielle  du  travail  devient  l’élément-clé  de  la  création  de  la  valeur  tandis  que  le  capital  nommé immatériel  et  intellectuel  s’affirme  comme  la  forme  principale  du  capital  productif (Monnier et Vercellone, 2014 ; Negri et Vercellone, 2008), et (2) la mise en valeur des capitaux consiste de  plus  en  plus  à contrôler  la  production  des  connaissances  et  leur  transformation  en  marchandises. Autrement dit, dans cette nouvelle phase du capitalisme, la principale source de création de valeur n’est plus la force de travail manuel mais le travail intellectuel qui devient la matrice de l’économie de l’attention. 

En plus d’être cognitif, ce nouvel esprit du capitalisme est également relationnel. Comme le montrent les travaux sur les marchés bi- et multifaces (Rochet et Tirole, 2003), « le nerf de la guerre ne réside plus tellement dans la capacité de l’organisation à inonder les marchés des biens qu’elle produit, mais dans son aptitude à mettre en relation une diversité toujours plus grande de producteurs et de consommateurs » (Vayre et Cochoy, 2019, p. 181). Dès lors, la puissance des marchés multifaces – qui sont une caractéristique récurrente de l’économie de l’information et plus globalement de l’économie numérique – tient à leur capacité à effectuer une intermédiation efficace entre le produit (l’offre) et le client (la demande) pour créer de la valeur ; intermédiation d’autant plus efficace qu’elle prend une forme « personnalisée » par le biais des algorithmes et de l’exploitation des données.  

Ainsi, les évolutions du capitalisme contemporain dessinent l’épure d’une structure marchande alimentée par les données, dans laquelle s’insèrent et s’inscrivent les progrès techniques du big data. Les promoteurs du big data ont, sur ce point, le mérite de la clarté. Les formules telles que « les données sont le nouvel or noir », « le nouveau pétrole » ou « le nouvel eldorado des entreprises et des investisseurs » fleurissent à tout-va dans le débat public et les discours des décideurs économiques et politiques. Les succès des firmes transnationales telles que Netflix ou Amazon, lesquelles communiquent très largement sur leur modèle organisationnel et commercial « pilotés » par les données, n’y sont sans doute pas pour rien. Il faut dire que, recontextualisées dans les structures techno-capitalistiques qui leur confèrent leur pertinence, les données forment bel et bien une source de valeur cardinale à l’ère du capitalisme cognitif (Kessous, 2012). La publicité ciblée, la vente de données à des tiers, l’amélioration d’un service, l’aide à la prise de décision, la rationalisation des procédures, etc. sont autant d’applications potentielles des big data créatrices de valeur pour les entités économiques. 

Dans ce vaste mouvement, les médias traditionnels cherchent donc à adapter leur structure et leurs activités à ce nouvel environnement. Cette adaptation se fait au prix d’un profond changement de paradigme qui intervient à de multiples niveaux. Le vecteur principal de ce mouvement est assurément la numérisation de l’information qui a radicalement transformé le secteur audiovisuel, poussant les acteurs à inscrire une part croissante de leurs activités dans le numérique et à devenir des « médias globaux » pour rester concurrentiels. Ce faisant, ces derniers ont eu accès à de nouveaux gisements de données susceptibles de devenir une source de valeur dans l’économie de l’attention, moyennant l’intervention d’outils dédiés à leur exploitation : les technologies big data.  

Pour autant, l’implémentation de ces technologies et l’adoption des logiques calculatoires qui les accompagnent dans une organisation résultent d’un long processus émaillé de nombreuses transformations (transformation de l’environnement technique, transformations organisationnelles, apparition de nouvelles compétences et de nouvelles expertises, etc.), de contraintes et d’incertitudes, qu’il revient au sociologue de mettre au jour et d’analyser. 

 

2/ De l’étude des dispositifs sociotechniques relatifs aux big data en contexte organisationnel. 

 

Comme le soulignent plusieurs auteurs (Vayre, 2016, p. 8 ; Jaton, 2019, pp. 315-339), les travaux portant sur les big data forment un champ à la fois récent – du fait de leur objet – et fragmenté – du fait de la diversité des approches utilisées pour les étudier. Aussi, à la suite de Jean-Sébastien Vayre, l’on peut considérer ces études comme un ensemble disparate, en cours de construction, traversé par plusieurs courants. Le premier, technique, cherche à décrire les avancées technologiques dans l’univers du big data ; le deuxième, centré sur les usages, entend mettre en lumière les apports et les limites des technologies big data dans un contexte spécifique ; le troisième, critique, nommé Critical Algorithm Studies, réunit les contributions qui s’intéressent aux problématiques politiques, juridiques, éthiques ou épistémologiques que soulève l’usage des big data et des algorithmes. Le courant des Critical Algorithm Studies est ainsi aujourd’hui fortement représenté dans les études anglophones sur le couple big data-algorithme au sein des sciences sociales. 

Parmi ces nombreuses études, notons celle d’Oscar Gandy (2002) qui met en lumière les discriminations relationnelles que permettent les algorithmes en matière de sécurité intérieure aux Etats-Unis, celle d’Elia Zureik et Karen Hindle (2004) qui met en évidence la propension des algorithmes biométriques à banaliser le profilage social et l’exclusion de certains groupes sociaux, ou celles de Benjamin Edelman, Michael Luca (2017) et Ziad Obermeyer et al. (2019) soulignant les discriminations raciales qu’induisent, respectivement, les algorithmes de la plateforme Airbnb et du système de santé américain. La prolifération de ces études de cas a ensuite conduit à la formation du courant des CAS relativement homogène dont on retrouve ici quelques exemples. 

L’importance de ce courant ne doit pas être sous-estimée. En effet, héritiers directs des Surveillance Studies en ce qu’ils visent à réactiver la critique foucaldienne du pouvoir en l’appliquant aux dispositifs techniques, ces travaux ont largement contribué à mettre au-devant de la scène intellectuelle les potentiels effets délétères de l’algorithmisation de la société. D’une part, ces études ont permis de mettre au jour les multiples biais inhérents à la conception et l’utilisation de technologies que l’on pensait à l’origine neutres et productrices d’objectivité. D’après Florian Jaton (2019, p. 319), le terme générique « algorithme » – pour désigner ces agents de calcul informatisés – s’est même stabilisé à cette période, alors que les scientifiques privilégiaient auparavant les termes « software », « code » ou
« software-algorithm ». D’autre part, « ces travaux ont en effet opéré, à leur niveau, comme contre-feu à la rhétorique marchande et séductrice des promoteurs des nouvelles technologies informatiques » (Jaton, 2019, pp. 320-321). En s’appropriant une partie de ces critiques, les concepteurs d’algorithmes tendent ainsi progressivement à modifier leurs pratiques en les intégrant dans leurs schémas de conception. On peut alors parler, pour décrire ce phénomène, « d’absorption algorithmique de la critique du big data » (Oksanen et al., 2015 ; tel que cité par Vayre, 2016, p. 14). 

Toutefois, en s’intéressant prioritairement et presque exclusivement à l’agentivité ou la performativité de ces dispositifs – à savoir, le pouvoir qu’ils exercent sur les hommes – ces travaux passent à côté de la dimension proprement organisationnelle qui permet la mise en existence des technologies big data et la manifestation de leurs effets, proprement sociaux. Cette critique est celle formulée par Malte Ziewitz (2016) pour qui le fait de se focaliser sur l’agentivité des agents de calculs peut s’avérer contre-productif et favoriser ce qu’il nomme le drame algorithmique (algorithmic drama), à savoir la construction de « puissantes et insondables entités flottantes » (2016, p. 3), devenues autonomes, détachées des réseaux et des dispositifs permettant leur existence et leur déploiement dans la société. Autrement dit, le drame algorithmique fait courir le risque d’une compréhension tronquée de ce qui est en jeu avec ces technologies en considérant que la source de leur pouvoir se situe dans les dispositifs eux-mêmes, au détriment de l’étude conjointe du milieu auquel ils sont associés. 

Pour répondre à la menace que fait peser le drame algorithmique sur notre compréhension des technologies big data, les sociologues ont tenté de rétablir une distance compréhensive avec leur objet d’étude en réinvestissant un courant sociologique déjà constitué : celui des Science and Technology Studies (STS), représenté en France par Bruno Latour, Madeleine Akrich et Michel Callon, tous trois promoteurs de la théorie de l’acteur-réseau (actor-network theory, ANT). Le recours aux paradigmes des STS présente deux avantages de taille. Le premier est qu’il permet de s’appuyer sur une grille analytique et une méthodologie déjà bien établie dans le cadre des innovations techniques, tout en l’adaptant, à la marge, aux caractéristiques particulières des objets « algorithme » et « big data ». Le second est que, dans ce contexte, la question de l’agentivité seconde celle des raisons qui ont conduit à l’adoption d’une innovation. La performativité d’une technologie est alors perçue comme le corolaire de son adoption, dans la mesure où « l’innovation n’est pas adoptée car elle est performante mais elle est performante car elle est adoptée » (David, 1985, p. 234). 

L’une des figures de proue de ce courant est Dominique Cardon dont le travail sur les algorithmes est aujourd’hui incontournable. Dans un ouvrage de référence À quoi rêvent les algorithmes : nos vies à l’heure des big data (2015), il expose de manière programmatique pour la discipline sa volonté d’ouvrir « la boîte noire des algorithmes » (p. 12). Qu’on ne s’y trompe pas, l’objectif de Dominique Cardon n’est pas, conformément à une revendication en vogue ces dernières années, de rendre publiques les formules algorithmiques : en dehors de toute analyse technique, ces dernières ne nous diraient que bien peu de choses sur les desseins qui sont inscrits en elles et sur la manière dont elles sont utilisées. Aussi, son but est plutôt d’opérer un dévoilement en mettant au jour la manière dont
« les calculateurs fabriquent notre réel, l’organisent et l’orientent » car « comme l’ont souligné beaucoup de travaux d’histoire et de sociologie, les objets techniques ne fonctionnent que parce qu’ils opèrent dans un ‘milieu associé’ qui les rend efficaces et pertinents. Les calculs ne calculent vraiment que dans une société qui a pris des plis spécifiques pour se rendre calculable » (p. 14). 

Prenant à bras-le-corps l’analyse sociologique des algorithmes en travaillant sur le PageRank de Google (Cardon, 2013) et, plus récemment, sur les réseaux de neurones (Cardon, Cointet et Mazières, 2018), Dominique Cardon a ouvert la voie à des recherches de différentes natures. Daniel Neyland, dans son sillage, pose le même constat en considérant qu’au lieu « de considérer l’agentivité et le pouvoir comme inscrits dans les algorithmes, comme le suggère l’éloquent drame algorithmique, [la] recherche STS peut être utilisée pour soulever des questions quant aux ensembles de relations participant à la mise en existence des algorithmes » (2016, p. 52 ; traduction de Jaton, 2019, pp. 322-323). Parmi ces travaux, notons, de manière non exhaustive, la recherche menée par Gabrielle Drumond, Alexandre Coutant et Florence Millerand sur l’algorithme de recommandation de Netflix (2018) qui montre comment l’algorithme du géant de la consommation de contenus audiovisuels produit un usager-idéal correspondant au modèle économique de l’entreprise ; le travail d’Adrian Mackenzie sur le machine learning (2017) ; celui d’Olivier Koch sur l’usage militaire des algorithmes et du big data (2018) ; celui de Bilel Benbouzid (2017) sur l’analyse de la plateforme prédictive Predpol de la police aux Etats-Unis ; mais également les travaux de Jean-Sébastien Vayre (2016, et plus récemment : Vayre, 2018) ainsi que celui de Florian Jaton (2019) précités. En outre, cette démarche est celle qui a présidé à la publication de plusieurs articles dans la revue Big Data and Society, de plusieurs numéros de la revue Réseaux en 2013, 2014, 2018 et 2019 et d’un numéro de la revue Les enjeux de l’information et de la communication en 2018. 

L’idée principale défendue par ces travaux est donc que la compréhension des rapports sociaux passe par l’étude de la technique mise en relation avec son environnement. Ce projet théorique est, sur ce point, similaire à celui de Bruno Latour pour la science lorsqu’il cherche à comprendre comment les énoncés scientifiques se construisent in situ dans La vie de laboratoire (1988). Il fait, par ailleurs, la part belle aux objets techniques en tant qu’actants véritables dans la configuration de ces mêmes rapports, au même titre que les humains, dans une forme de symétrie là encore défendue de longue date par les tenants des STS. Hervé Dumez a trouvé les mots justes pour justifier cette inclinaison théorique en expliquant qu’en « moins de deux siècles, la pièce centrale d’une habitation a vu apparaître tour à tour le réseau de l’éclairage au gaz, celui de l’électricité, de la TSF, du téléphone, de la télévision hertzienne puis numérique, d’Internet par fil, du Wifi. Peut-on étudier les interactions familiales sans étudier les objets qui peu à peu ont peuplé cette pièce ? […] Il est en réalité difficile de comprendre les débats que cette opposition qui n’en est pas une entre humain et non-humain a pu susciter […] : l’ANT a simplement remis sur ses pieds l’analyse du social en mettant les objets à leur juste place, c’est-à-dire centrale. » (2012, p. 31). 

Dès lors, la compréhension des technologies big data se subdivise en trois parties distinctes mais complémentaires. Tout d’abord, une analyse technique, du ressort de spécialistes tels que les informaticiens, les statisticiens ou les data scientists, qui consiste à « disséquer » (Obermeyer et al., 2019) les dispositifs et les agents de calcul des big data en laboratoire ou à décrire les avancées techniques et technologiques dans ce domaine (Vayre, 2016, pp. 5-16). Or, si ce type d’analyse est indispensable et permet, de toute évidence, d’éclairer le sociologue dans son travail (par exemple, en mettant au jour les différents biais dont les dispositifs algorithmiques sont l’objet), il ne relève pas stricto sensu du champ de la sociologie. Davantage, en se focalisant exclusivement sur la technique, une telle analyse fait fi des enseignements des Science and Technology Studies qui montrent qu’une technologie fonctionne toujours de conserve avec le « milieu associé » dans lequel elle se déploie. 

Autrement dit, l’apport des sciences sociales est ailleurs. Il consiste à mettre au jour l’enchevêtrement des réseaux sociotechniques – définis comme une « méta-organisation rassemblant des humains et des non-humains » (Amblard et al. 1996, p. 134) – contribuant à l’existence et au fonctionnement de ces technologies. Cette analyse opère en deux temps, lesquels peuvent se résumer sous la forme de deux questions de recherche. La première étape consiste à mettre en lumière ce que les acteurs font des dispositifs. Il s’agit là d’un axe analytique renvoyant pleinement aux paradigmes des STS puisqu’il enjoint le chercheur à rendre compte de la morphologie et des trajectoires dynamiques (Meier, Missonier et Missonier, 2012) suivies par les réseaux qui enserrent ces technologies. La seconde étape, quant à elle, consiste à inverser la perspective en s’intéressant à ce que les dispositifs font faire aux acteurs. Il s’agit cette fois de rendre compte du poids de l’agentivité des dispositifs sociotechniques sur les mondes sociaux (Trompette et Vinck, 2009, p.7).  

Dans les deux cas néanmoins, l’on comprend sans peine en quoi l’approche ethnographique s’impose comme la pièce maîtresse d’une recherche qui viserait à comprendre les liens réciproques qui unissent la technique et son milieu. Comme le précise Florian Jaton (2019), cette approche est d’autant plus efficace et pertinente qu’elle se situe à la genèse des dispositifs étudiés. Autrement dit, lorsqu’elle est possible, l’ethnographie de laboratoire – entendu comme le lieu de conception des dispositifs – s’impose au sociologue. Il s’agit donc pour ce dernier d’observer, au plus près des acteurs, les interactions (échanges, arbitrages, controverses, conciliations, prises de décisions, etc.) qui se nouent autour de la conception et de la gestion quotidienne de ces technologies (amélioration, maintenance, interprétation des résultats, etc.). Les STS et notamment la théorie de l’acteur-réseau offrent, dans ce contexte, une grille analytique particulièrement performante pour analyser ces interactions. Loin d’épuiser l’analyse, il est ainsi possible de se focaliser sur quelques concepts-clefs afin d’en saisir la pertinence : le réseau, la traduction, la controverse, la boîte noire, le script et la performativité.  

L’ANT s’est construite historiquement comme un dépassement des travaux issus du courant Sociology of Social Knowledge (SSK), principalement incarné par l’école d’Édimbourg. Ses soubassements théoriques, exposés par Bruno Latour dans le cadre de l’activité scientifique (1988), peuvent se résumer de la manière suivante : la science n’est pas une activité qui se fond dans une quelconque macrostructure (la société, la culture, les champs, etc.), laquelle déterminerait l’objectivité scientifique. Au contraire, ce sont les scientifiques qui, au travers de leurs réseaux, stabilisent le monde social autour des faits qu’ils produisent. Par l’effet d’une symétrie élargie (Latour, 1991), la validité d’un fait scientifique repose sur la solidité des liens unissant les différentes composantes d’un réseau d’actants – et non plus d’acteurs – humains et non-humains dont le fait est le centre. Aussi, « un fait scientifique est le nœud d’un réseau unissant des alliés […] dans des controverses dont il s’agit de sortir vainqueur en traduisant le fait […] au sein de dispositifs […] de telle sorte qu’il soit pris comme une donnée pour autrui » (Brisset, 2014a, p. 123). Autrement dit, l’ANT repose sur une ontologie relationnelle qui inverse la perspective commune en donnant aux non-humains, par le biais de dispositifs techniques, la possibilité d’agir sur, ou de faire faire aux humains (agency). 

Transposée dans le contexte de l’innovation, la théorie de l’acteur-réseau suppose que la félicité d’un fait technique – i.e. technologique – est indéterminée. Elle passe par la mobilisation, la longueur et la solidité des liens qui unissent un réseau d’actants, humains et non-humains ; ce que Michel Callon nomme un « réseau convergent » (Callon, 1986). Dans ce contexte, l’innovation « c’est l’art d’intéresser un nombre croissant d’alliés qui vous rendent de plus en plus forts » (Akrich et al., 1988, p. 15) au point de la stabiliser et de la transformer en une boîte noire. Or, le rôle de l’ANT consiste très justement à rendre compte de l’étendue du réseau et de la diversité des actants qui y prennent part (analyse morphologique du réseau), de leurs liens réciproques (intéressement et enrôlement), ainsi que de leurs possibles intérêts convergents (alignement) ou divergents (opposition).  

L’intérêt du concept de réseau tient donc à sa plasticité. Il permet de saisir la complexité des situations en mettant l’accent sur le caractère mouvant et en perpétuel reconstruction du monde social. Cette dynamique peut être appréhendée par la prise en considération d’un ensemble d’interactions qui redéfinissent les actants au sein du réseau : les traductions et les controverses. Définie « comme une forme typique d’interaction, discursive ou pratique, qui remet en cause le statu quo entre différentes entités dans ou hors du réseau » (Meier, Missonier et Missonier, 2012, p. 12), la controverse est donc une épreuve qui participe de la configuration et la reconfiguration des forces en présence. Pour Bruno Latour (2006 ; tel que cité par Meier, Missonier et Missonier, op. cit.) trois critères permettent d’identifier une controverse : « (1) la controverse se déploie dans le réseau et elle est saisie par les acteurs. Elle est donc l’objet de « débats » entre au moins deux entités (ou groupes d’acteurs) du réseau. Ensuite, (2), la controverse présume qu’il existe des modalités de négociation même si aucun compromis n’est trouvé. Enfin (3), elle est supposée laisser des traces dans le réseau afin que le chercheur puisse la suivre et la raconter ». La stabilisation du réseau passe, par-delà les controverses, plus largement par des opérations de traduction qui marquent « le déplacement, la dérive, l’invention, la médiation, la création d’un lien qui n’existait pas auparavant et qui jusqu’à un certain point modifie les deux éléments ou agents ainsi liés » (Latour, 1994, p. 32). Plus simplement, on peut dire qu’une opération de traduction consiste en une connexion nouvelle entre différents actants qui « véhicule, pour ainsi dire, des transformations » (Akrich, Callon et Latour, 2006, p. 157). 

L’analyse des traductions et des controverses permet de décrire de manière réticulaire la trajectoire du réseau jusqu’à sa potentielle stabilisation autour du dispositif technique. Michel Callon (1986) définit d’ailleurs la sociologie de la traduction comme l’ensemble des tâches et étapes visant à constituer et stabiliser un réseau sociotechnique. Une fois stabilisée, la technologie en jeu est susceptible de devenir un instrument de connaissance et, par là même, de se transformer en boîte noire. La boîte noire est un fait technique ou scientifique dont la pertinence et la capacité à produire des connaissances ne sont plus remises en cause. Accepté par tous, il acquiert son statut dès lors que le réseau sociotechnique qui l’entoure est sorti vainqueur des controverses. Progressivement donc, à mesure que le réseau se stabilise, le fait s’efface pour finalement n’être « convoqué que de manière instrumentale au sein d’autres processus réticulaires de création de faits » (Brisset, 2014b, p. 222). En réalité, il en va ainsi de la plupart des dispositifs que nous utilisons pour produire des connaissances : ces derniers nous servent de cadre cognitif, et les boîtes noires qu’ils constituent ne sont ouvertes qu’en périodes de troubles ou de remise en question de leur autorité.   

Ainsi, comme l’affirme Madeleine Akrich : « à partir du moment où l’objet technique est quasiment stabilisé, il devient, par son effacement, un instrument de connaissance » (Akrich, 2006, p. 176). Or, la manière dont sont produites ces connaissances n’est pas laissée à la libre appréciation des utilisateurs du dispositif technique. En effet, l’objet technique est porteur d’un script – ou scénario – en son sein, soit un ensemble de représentations inscrites par le concepteur, lequel anticipe « les relations nécessaires entre son objet et les acteurs qui doivent s’en saisir [avec] une prédétermination des mises en scène que les utilisateurs sont appelés à imaginer à partir du dispositif technique et des prescriptions (notices, contrats, conseils…) qui l’accompagnent » (Ibid.). Ce schéma narratif peut rester lettre morte lors de la rencontre entre l’utilisateur et l’objet technique, mais la manière dont le script a été réalisé enclot la diversité de ses usages effectifs. Selon Madeleine Akrich (1989), le travail de script repose sur trois étapes : 1. La description, au cours de laquelle le concepteur envisage et décrit les fonctions de la technique à partir des caractéristiques du réseau sociotechnique qu’il projette en son sein ; 2. L’inscription, qui consiste à inscrire le programme d’actions tiré de la description à l’intérieur de la technique qui est développée ; et 3. La prescription, qui forme un cadre d’usages résultant du programme d’actions encapsulé dans la technique. Il convient toutefois de préciser que ce travail n’est pas unilatéral. En effet, le dispositif technique et le réseau qui lui est associé sont l’objet d’une forme de relation dialectique (l’entre-définition) qui redéfinit perpétuellement leurs contours mutuels à mesure que l’ensemble se stabilise. Madeleine Akrich a parfaitement explicité cette dimension lorsqu’en s’intéressant à la conception d’un système technique permettant de fabriquer des briquettes destinées à la combustion au Nicaragua, elle entendait ne pas s’arrêter « à l’analyse de la mise en forme des objets techniques mais [tenter], à chaque étape du processus, de montrer comment le tracé d’un détail du dispositif technique est en même temps une description de l’univers socio-économico-physico-etc. dans lequel l’objet est appelé à évoluer et, à l’autre bout, comment chaque mouvement de l’univers, déployé par le développement du projet, redéfinit le contour des objets techniques. » (1989, p. 33). Autrement dit, l’exemple du script montre en quoi les techniques font advenir une certaine réalité ou, pour reprendre les mots de Dominique Cardon comment elles trament les mondes sociaux (Cardon, 2015, p. 14). A ce titre, elles peuvent être considérées comme performatives, au sens de Michel Callon (2007), et cette question de la performativité ouvre largement la voie à l’étude de l’agentivité des dispositifs techniques. 

Dès lors, le rôle du chercheur s’apparente à la mise en œuvre d’une « technologie de la description » pour décrire, en retour, la technologie, « ce qui peut paraître peu mais est en réalité fondamental, et concerne donc au plus haut point tout chercheur en sciences sociales » (Dumez, 2012, p. 27). Cette description prend alors la forme d’une fiction, « ni supérieure ni inférieure à celles produites par les [acteurs] eux-mêmes » (Latour, 1988, p. 280), qui vise à proposer une interprétation vraisemblable de la réalité sociale en train de se construire à partir des traces récoltées sur le terrain. Finalement, l’activité du sociologue et celle du data scientist ne sont pas si éloignées : il s’agit de mettre en forme des traces, d’en choisir certaines, d’en écarter d’autres, de les exploiter et de donner à voir – ou plus précisément à lire – le résultat de cette exploitation. Ainsi, comme l’écrit si bien Bruno Latour en conclusion de son enquête (Ibid.), « en construisant une description, en inventant des personnages […], en mettant en scène des concepts, en invoquant des sources, en reliant des arguments dans le champ de la sociologie, nous avons essayé de diminuer les sources de désordres et de proposer des énoncés plus vraisemblables que d’autres, créant en cela des poches d’ordre ». 

 

3/ Appréhender les transformations liées à l’implémentation des dispositifs big data dans les médias traditionnels.  

 

Bien que tout propos sur l’introduction des dispositifs relatifs au big data dans une organisation soit difficilement généralisable, la littérature permet néanmoins de saisir quelques enjeux et conséquences de l’adoption de ces outils, comme autant de pistes ouvertes à l’appréciation du chercheur sur le terrain. Ainsi, s’il est notamment impossible de se prononcer a priori sur les modifications de l’environnement technique d’une organisation – lesquelles dépendent à la fois des dispositifs en jeu, de leur conception et de leur niveau de sophistication – il apparaît toutefois qu’une majorité d’entreprises, au premier rang desquelles figurent les entreprises médiatiques, font face à des défis de même ordre lorsqu’il s’agit d’adopter ces technologies.  

Plus précisément, ces enjeux recouvrent au premier chef l’ensemble des processus qui ont à voir avec la production, l’intégration et la circulation des données dans l’organisation. Les données formant très logiquement l’épine dorsale autour de laquelle se déploient les technologies big data, le concept d’opération de traduction peut alors s’entendre comme l’ensemble des opérations de production et de manipulation (stockage, nettoyage, traitement et visualisation) des données qui agrègent les différents actants et configurent les réseaux à l’œuvre.  

La suite de ces opérations – qui correspondent peu ou prou à la division technique du travail – forment schématiquement les maillons interconnectés d’une longue chaîne. Dans ce contexte, la performance d’un maillon spécifique repose à la fois sur l’intervention des actants qui le caractérisent mais également sur les performances des maillons qui l’ont précédé (Meier, Missonier et Missonier, 2012). La stabilité et la fluidité de la chaîne dans son ensemble sont donc fonction du bon déroulement de chacune des étapes qui la constituent. Or, la plupart des médias traditionnels sont largement tributaires de formes organisationnelles et d’univers techniques préexistants et sédimentés qui entravent, à différents endroits de la chaîne, ces opérations de traduction. 

En effet, si comme le souligne Eric Sadin (2018), la vocation première des technologies big data est « d’expertiser le réel », leur fonctionnement efficient suppose donc une captation soutenue et une libre circulation des données au sein de la structure. Néanmoins, rares sont les organisations qui, à travers le temps, ont bâti spontanément un univers technique en accord avec ce dessein. Au contraire, les données sont généralement produites, stockées et manipulées de manière éparse, voire anarchique, au gré du développement d’outils qui ont précédé l’introduction de ces technologies, à l’époque où les médias traditionnels ont commencé à inscrire leur univers technique dans la numérisation de l’information. Autrement dit, l’un des enjeux décisifs auxquels sont confrontés les acteurs a trait à l’architecture des systèmes d’informations (SI) dans l’organisation : il s’agit de réorienter et de rationnaliser cet univers technique pour le faire coïncider avec les impératifs du big data. Cette adaptation se fait nécessairement au prix de nombreuses controverses – qu’il revient au sociologue de mettre au jour – puisqu’elle nécessite d’allouer des ressources spécifiques (outils, infrastructures, ressources humaines) à la chaîne de traductions, d’affecter de nouvelles responsabilités dans le cadre des chaînes de décisions et de refonder les normes professionnelles en vigueur dans l’organisation. 

L’exemple de la production et de la manipulation des métadonnées visant à décrire, indexer et valoriser les contenus dans les entreprises médiatiques est, à cet égard, paradigmatique. En effet, l’enrichissement des contenus dans les médias traditionnels s’est souvent fait de manière contingente, par le biais de filières et d’outils mis en concurrence pour répondre à des besoins spécifiques et circonstanciés dans le passé. Or, une valorisation efficace des contenus médiatiques en contexte numérique passe nécessairement par une homogénéisation des métadonnées permettant, en retour, une interopérabilité forte entre les différentes opérations de traduction. Cette exigence est particulièrement prégnante dans le cadre de la recommandation algorithmique (Farchy, Méadel et Anciaux, 2017, pp. 188-189), laquelle nécessite, au premier stade de la chaîne de traductions, une qualification préliminaire fine des contenus et donc des métadonnées de « bonne qualité » (c’est-à-dire des données consistantes, complètes, exactes et unifiées : Ouhab, 2019 ; Batini et al., 2009) pour faire fonctionner les dispositifs de recommandation.  

Cette volonté d’obtenir des données de « bonne qualité » justifie, par ailleurs, un attrait toujours grandissant de la part des acteurs du secteur médiatique pour les processus automatisés de production et de manipulation des données (Staii, 2017). En effet, qu’il s’agisse d’outils de speech-to-text, d’extraction automatique de données et de métadonnées, d’algorithmes de traitement ou de recommandation, les tenants de l’approche data driven considèrent que l’automatisation assure une meilleur qualité des données et pallie les défauts, les erreurs et les manquements inhérents à l’intervention humaine dans les opérations de traduction. A la suite d’Adrian Staii, on peut également considérer cette dynamique d’automatisation – au côté, notamment, des processus de rationalisation – comme le « véhicule » d’une industrialisation des big data dans le contexte des médias numérisés (Ibid., p. 67). L’objectif est alors d’assurer une création de valeur suffisante en bout de chaîne pour compenser des développements techniques souvent coûteux et fastidieux. 

Ce constat est d’autant plus vrai lorsque l’implémentation des technologies big data vise à l’adoption d’une approche data driven généralisée, c’est-à-dire une stratégie dans laquelle la raison calculatoire propre aux big data a vocation à s’introduire dans tous les plis de l’organisation. Dans ce cas, l’adoption de ces technologies s’apparente à la mise en place d’un système d’expertise bidirectionnel censé modéliser l’environnement de travail dans ses dimensions externe et interne : d’une part, vers l’extérieur de l’organisation (dans sa relation avec les publics ou avec les annonceurs) et, d’autre part, à l’intérieur même de l’organisation (Gestion Opérationnelle de l’Organisation et Business Intelligence) en collectant et analysant des données internes à l’entreprise, relatives par exemple à la finance ou aux ressources humaines. 

Benavent (2014) fait ainsi remarquer que l’introduction des big data dans une organisation ne peut répondre à des schémas prédéfinis (« no best way ») assurant une intégration harmonieuse et le fonctionnement optimal de ces technologies. Néanmoins, il note, au même titre que Bouafia et Jaussaud (2018) que, plus une organisation cherche à diversifier ses activités en multipliant les finalités à atteindre par le biais des technologies big data, plus elle doit mettre en œuvre des transformations de son environnement technique, et plus les compétences requises sont diversifiées. Ces finalités peuvent alors être de quatre types (Ibid.) : (a) améliorer les connaissances de son environnement, (b) automatiser certaines activités, (c) améliorer la prise de décision et (d) proposer de nouveaux services fondés sur les données. Ainsi, dans leur papier Projets Big Data des entreprises : quelles transformations organisationnelles ? (Bouafia et Jaussaud, 2018), les auteurs s’intéressent tout particulièrement au cas de la chaîne M6, au moment où elle a entrepris d’avoir recours aux technologies data. Au départ, la chaîne ne visait que la première finalité (amélioration des études) pour perfectionner l’efficacité des campagnes publicitaires de ses annonceurs. Pour ce faire, l’entreprise « a fait appel à un partenaire spécialisé dans le traitement des données (« Quinten ») auquel elle a donné accès à une importante base de données concernant ses campagnes publicitaires ». Sur la base des résultats d’analyses obtenus, l’entreprise a été capable de révéler des faits inconnus par le passé : il a été ainsi possible de « découvrir l’importance des périodes d’été et des week-ends pour la diffusion des publicités des petites et moyennes marques ». 

Force est de constater le fossé qui sépare l’approche ponctuelle et ciblée de M6 d’une approche holistique et généralisée en matière de big data dans certaines entreprises médiatiques (Arte, RTBF, etc.) qui cherchent à multiplier les finalités et les débouchés pour ces technologies. Dans le second cas, les modifications de l’environnement technique sont nécessaires mais largement insuffisantes : créer de la valeur à partir de ces technologies implique également d’intervenir sur le modèle organisationnel de l’entreprise. Ainsi, dans leur papier intitulé Big Data : Mise en perspective et enjeux pour les entreprises, Karoui, Devauchelle, et Dudezert (2014) estiment ainsi qu’une transformation « data centrée » – un avatar de l’approche data driven – réussie et créatrice de valeur obéit à la réalisation de trois objectifs successifs : (1) des objectifs technologiques (investissements dans les outils et techniques assurant la récolte, le stockage et le traitement des données), (2) des objectifs organisationnels (organisation des flux, nouvelles normes professionnelles, nouvelle organisation du travail), permettant (3) la réalisation d’objectifs économiques (création de valeur, retour sur investissement). Pour ces auteurs, l’une des principales problématiques à laquelle se confrontent les acteurs aux prises avec ces technologies est qu’ils investissent massivement dans le premier stade (investissements technologiques) mais en faisant l’impasse sur le deuxième (transformations organisationnelles). Ainsi, le fait de déployer une infrastructure adaptée et d’investir dans des technologies de traitement de données sophistiquées restent insuffisants pour créer de la valeur en entreprise à partir des technologies big data. Brynjolfsson et McAfee (2012) notent, dans le même sens, qu’une implémentation réussie implique l’intégration des données dans l’organisation et passe à la fois par des changements de normes et de structures organisationnelles.  

Une organisation peut se définir, très simplement, comme le tissu qui relie un ensemble d’acteurs. Pour Mintzberg (1990), le propre d’une organisation est d’institutionnaliser la division du travail entre les acteurs (spécialisation) tout en assurant les moyens de la coordination permettant la réalisation de tâches complexes (coopération). Dès lors, une transformation organisationnelle peut s’entendre comme la modification de la division du travail ou des moyens d’assurer la coopération entre les acteurs. Ces transformations sont donc d’autant plus importantes et difficiles à réaliser qu’elles conditionnent le fonctionnement efficient des technologies big data et se heurtent à un déjà-là en matière d’organisation, prenant la forme, le plus souvent, d’un modèle pyramidal en silos.  

Dans un modèle pyramidal en silos, les opérations de collecte, d’intégration et de circulation des données sont d’autant plus complexes à mener que ces mêmes données sont généralement produites et stockées selon un schéma qui reproduit l’architecture organisationnelle de l’entreprise. Aussi, si l’organisation en silos a, historiquement, sa raison d’être, il est aujourd’hui admis qu’elle nuit au développement et au bon fonctionnement des technologies big data. Jean-Sébastien Vayre explicite parfaitement ce point dans sa thèse Des machines à produire des futurs économiques : une ethnographie multi-située des intelligences artificielles à l’ère du big data lorsqu’il affirme qu’il « faut bien comprendre que, du point de vue de l’entreprise, les silos de données renvoient à une certaine expertise. Or, c’est cette expertise qui confère traditionnellement à chaque service la possibilité de préserver une marge de manœuvre plus ou moins grande. Elle leur permet de jouer pleinement leur rôle d’acteur au sein de la hiérarchie organisationnelle. Par le biais des silos de données, chaque service peut ainsi choisir de développer des stratégies de mise en visibilité et de rétention d’information […] Pour adopter un mode de gouvernance par la donnée, il faut dépasser les silos de données » (2016, pp. 410-411).  

Ainsi, l’organisation en silos transforme l’information au sein de la structure organisationnelle en un enjeu de pouvoir : mis en concurrence, les acteurs sont susceptibles d’organiser de la rétention d’information – et donc de données – pour le conserver, ce qui annihile une partie des capacités d’expertise des technologies big data. L’auteur ajoute que « c’est d’ailleurs en ce sens que les projets de développement de technologies big data sont, sur le plan organisationnel, souvent considérés comme de véritables révolutions par leurs promoteurs. Ils impliquent que les acteurs repensent leurs politiques de gestion dans la mesure où le développement d’un projet big data nécessite généralement de (re)concevoir la gouvernance de l’entreprise » (Ibid.). Dès lors, l’implémentation des technologies big data dans une structure organisée en silos rend nécessaire la refonte de son architecture organisationnelle. 

Cette libre circulation est, par ailleurs, l’objet d’une tension directement liée à la verticalité du pouvoir décisionnaire. En effet, certains acteurs peuvent craindre que derrière cet appel au partage de l’information se cache en réalité un processus de centralisation unilatérale de l’information ; ou, qu’en d’autres termes, la circulation des données contribue finalement à l’émergence d’un nouveau type de pouvoir « qui voit, sans être vu » (Bessire, 2003, p. 5-7) au sein de l’entreprise. La figure la plus parlante pour décrire ce type de gouvernementalité est assurément celle du Panopticon – l’architecture inventée par J. Bentham et dont Michel Foucault s’est emparé pour décrire brillamment les caractéristiques de la société disciplinaire dans Surveiller et Punir (1975) – qui consiste en une structure carcérale permettant à un geôlier, situé dans une tour centrale, d’observer tous les prisonniers sans que ces derniers puissent le voir et savoir s’ils sont observés. Dans ce contexte, la captation et la centralisation de l’information au sein de la structure que suppose le développement optimal des technologies big data peut effectivement contribuer à « mettre à nu » (Giannelloni & Le Nagard, 2016) ceux qui en sont la cible. C’est pourquoi l’insertion de ces outils s’accompagne souvent du développement du monitoring des acteurs dans l’organisation, dont témoigne la généralisation concomitante des KPI (Key Performance Indicator ou, en français, « indicateur clé de performance ») permettant d’expertiser et de modéliser l’environnement de travail dans ses dimensions interne et externe.  

Ce risque recoupe, en outre, des résistances et réticences liées à la dépossession des mécanismes cognitifs sur lesquels se fondaient auparavant les décisions des acteurs. En effet, certaines applications de ces technologies ont pour effet d’empiéter sur des domaines où les agents de calcul informatisés n’ont pas leur place, c’est-à-dire des domaines où l’expertise proprement humaine – basée sur un ensemble de notions comme l’expérience ou l’intuition – est valorisée et qui résistent, de ce fait, à l’emprise des big data. C’est particulièrement vrai dans le secteur audiovisuel pour toutes les activités qui impliquent de l’éditorialisation, pour laquelle la « salle de rédaction » fait encore figure de symbole. Dépossession qui, si elle peut se justifier au regard des gains qu’elle procure en termes d’efficacité, est également susceptible d’entraîner de la frustration ou des peurs auprès des hommes qui la subissent dans le contexte de l’entreprise (Ferguson, 2019). C’est pourquoi la résolution des controverses liées à l’apparition de nouvelles applications pour les technologies big data dans les entreprises médiatiques se fait généralement sur le mode de la conciliation et de la complémentarité « homme-machine » – pour peu que les dispositifs n’aient pas franchi le tournant injonctif de la technique mis en évidence par Eric Sadin (2018).  

En définitive, ce risque de dépossession est celui qui justifie en retour le projet d’ouverture « des boîtes noires » (Cardon, 2015 ; Richard, 2018), dont la sociologie en STS s’est faite une spécialité. Ainsi, une meilleure compréhension de la manière dont travaillent les dispositifs techniques au sein du milieu qui permet leur existence et leur fonctionnement devient un enjeu central pour permettre un accompagnement des acteurs face aux bouleversements que provoquent ces technologies : il s’agit de comprendre, de rendre intelligible pour ensuite pouvoir débattre et faire des choix collectifs éclairés au sein du collectif humain que constitue l’entreprise (Ferguson, 2019). 

 

 

En conclusion, la discipline sociologique a beaucoup à offrir pour qui souhaite comprendre ce qui se trame dans les médias traditionnels à une époque où les technologies big data se généralisent et où leurs logiques calculatoires ne cessent d’étendre leur empire. En effet, l’introduction de ces outils ne s’opère jamais ex nihilo. Leur capacité à influer sur les mondes sociaux doit toujours se comprendre à l’aune d’une analyse multidimensionnelle des liens qui unissent la technique aux différents milieux (le capitalisme contemporain, le secteur des médias, l’organisation, les réseaux sociotechniques, etc.) qui permettent sa mise en existence et lui confère sa pertinence. Or, si la plupart des études sur le big data et les algorithmes traitent des risques et des conséquences – souvent néfastes – qui pèsent sur les utilisateurs, peu s’attachent à décrire la manière dont ces outils sont conçus, se déploient et s’insèrent dans les organisations, alors même que les deux sont intimement liés. Il faut donc réhabiliter l’étude de la technique in situ, pour pouvoir la déconstruire, la critiquer et potentiellement la réorienter car, comme l’affirmait le regretté Bernard Stiegler dans La technique et le temps (1994, p. 8), « nous avons aujourd’hui besoin de comprendre le processus de l’évolution technique parce ce que éprouvons une forte opacité de la technique contemporaine : nous ne comprenons pas immédiatement ce qui s’y joue réellement et s’y transforme en profondeur, alors même que nous avons sans cesse à prendre des décisions, dont nous avons de plus en plus souvent le sentiment que les conséquences nous échappent ». 

 

 

Bibliographie 

 

 

_ Akrich, M. (1989), « La construction d’un système socio-technique : Esquisse pour une anthropologie des techniques. », in Anthropologie et sociétés, Université Laval, 13 (2), pp. 31-54.  

 

_ Akrich, M. (2006), « La description des objets techniques », in Akrich, M. ; Callon, M. & Latour, B., Sociologie de la traduction : Textes fondateurs, pp. 159-178.  

 

_ Akrich, M. ; Callon, M. & Latour, B. (2006), Sociologie de la traduction : Textes fondateurs, Paris, Presses des Mines 

_ Akrich, M. ; Callon, M. & Latour, B. (1988), « A quoi tient le succès des innovations ? 1 : L’art de l’intéressement ; 2 : Le choix des porte-parole. » in Gérer et Comprendre. Annales des Mines, pp. 4-29.  

 

_ Amblard, H. ; Bernoux, P. ; Herreros, G. & Livian, Y.-F. (1996), Les nouvelles approches sociologiques des organisations, Paris, Le Seuil. 

_ Anderson, C. (2008). The End of Theory: The Data Deluge Makes the Scientific Method Obsolete (en ligne : https://www.wired.com/2008/06/pb-theory/) [consulté le 01 septembre 2021]. 

_ Batini, C., & Scannapieco, M. (2006). Data Quality: Concepts, Methodologies and Techniques. Data-Centric Systems and Applications. Springer-Verlag, New York. 

_ Bauman, Z. (2005). La vie liquide, Hachette Pluriel. 

_ Bénavent, C. (2014). « Big Data: no best way », in Le libellio AEGIS, 10(4), pp. 5-14. 

_ Benbouzid, B. (2017). « Des crimes et des séismes. La police prédictive entre science, technique et divination », in Réseaux, vol. 206, no. 6, pp. 95-123. 

_ Bessire, D. (2003). « Gouvernance d’entreprise : que cache le discours sur la transparence ? », in Document de recherche du LOG, 2003-03, pp. 1-26. (en ligne) [consulté le 20 août 2021]. 

_ Boltanski, L. & Chiapello E. (1999). Le nouvel esprit du capitalisme, Paris, Gallimard. 

_ Bouafia, S., Jaussaud, J. (2018). « Projets Big Data des entreprises : quelles transformations organisationnelles ? », in Revue COSSI, n°4-2018 (en ligne) [consulté le 04 septembre 2021]. 

_ Brisset, N. (2014a). « D’une convention à une autre : quand la rationalité « performe » le réel », in Revue de philosophie économique, vol. vol. 15, no. 2, pp. 69-108. 

 

_ Brisset, N. (2014b). « Performer par le dispositif ? Un retour critique sur la théorie de la performativité », in L’Année sociologique, vol. vol. 64, no. 1, pp. 217-246. 

 

_ Callon, M. (1986). « Éléments pour une sociologie de la traduction. La domestication des coquilles Saint-Jacques et des marins-pêcheurs dans la baie de Saint-Brieuc », in L’Année sociologique, 36, pp. 169-208. 

_ Callon, M. (2007), « What Does it Mean to Say That Economics Is Performative ? », in Mackenzie, D. ; Muniesa, F. & Siu, L. [dir.], Do Economists Make. Markets ? On the Performativity of Economics, Princeton University Press, pp. 311-357.  

 

_ Cardon D. (2013). « Dans l’esprit du PageRank. Une enquête sur l’algorithme de Google », in Réseaux, 2013/1 (n° 177), p. 63-95. 

_ Cardon, D. (2015). À quoi rêvent les algorithmes : nos vies à l’heure des big data, Paris, Seuil. 

_ Cardon, D. ; Cointet, J.-P. ; Mazières A., (2018). « La revanche des neurones. L’invention des machines inductives et la controverse de l’intelligence artificielle », in Réseaux, 5, n° 211, pp. 173-220. 

_ Charon, J.-M. (2011). « Les médias à l’ère numérique », in Les cahiers du journalisme, n°22/23, pp. 14-27. 

_ Chartron, G. ; Kembellec, G. & Saleh, I. (2014). Les moteurs et systèmes de recommandation, Iste. 

_ Citton, Y. [dir.] (2014), L’économie de l’attention : Nouvel horizon du capitalisme ?, Paris, Éditions La découverte. 

_ Cochoy, F. (dir.) (2004). La captation des publics. C’est pour mieux te séduire, mon client… Toulouse, Presses universitaires du Mirail, coll. Socio-Logiques. 

_ Davenport, T. & Beck, B. (2001). The Attention economy. Understanding the New Currency of Business, Harvard Business Press. 

_ David, P. (1985). « Clio and the economics of QWERTY », in American Economic Review, 75, pp. 332-337. 

_ Drumond, G. ; Coutant, A. & Millerand, F. (2018). « La production de l’usager par les algorithmes de Netflix », in Les Enjeux de l’information et de la communication, 2, N° 19/2, pp. 29-44. 

_ Drumond, G. ; Coutant, A. & Millerand, F. (2018). « La production de l’usager par les algorithmes de Netflix », in Les Enjeux de l’information et de la communication, 2, N° 19/2, pp. 29-44. 

_ Dudoignon, L., Le Sager, F., Vanheuverzwyn, A. (2018). « Big Data and Audience Measurement: A Marriage of Convenience? », in Economie et Statistique, pp. 133-146. 

_ Dumez, H. (2012). « L’Actor-Network-Theory (ANT) comme technologie de la description », in Libellio d’AEGIS, 7, pp. 27-38. 

_ Edelman, B. & Luca, M. (2017). « Digital Discrimination : The Case of Airbnb.com », in American Economic Journal : Applied Economics 9, no. 2, pp. 1-22. 

_ Farchy, J., Méadel, C. & Anciaux, A. (2017). « Une question de comportement. Recommandation des contenus audiovisuels et transformations numériques », in Tic&Société, Vol. 10, N° 2-3, pp. 168-198. 

_ Ferguson, Y. (2019). « Ce que l’intelligence artificielle fait de l’homme au travail. Visite sociologique d’une entreprise », in Dubet, F. (dir.). Les mutations du travail, La Découverte, pp. 23-42. 

_ Foucault, M. (1975). Surveiller et Punir, Gallimard. 

_ Gandy, O. (2002). « Data Mining and Surveillance in the Post-9.11 Environment », in Kristie Ball et Frank Webster (eds.), The Intensification of Surveillance Crime, Terrorism and Warfare in the Information Age, Londres, Pluto Press, pp. 26-41. 

_ Giannelloni, J. L. & Le Nagard. E. (2016). « Big Data et marketing prédictif. Vers un ‘consommateur nu’ ? », in Décisions Marketing, Association Française du Marketing, 82, pp. 5-15. 

_ Goldhaber, M. (1997). The Attention Economy on the Net, First Monday 2 (4). 

_ Hosanagar, K. ; Fleder, D. ; Lee D. & Buja A. (2012). Will the Global Village Fracture into Tribes : Recommender Systems and their Effects on Consumers, The Wharton School, University of Pennsylvania. 

_ Jaton, F. (2019). « ‘Pardonnez cette platitude’ : de l’intérêt des ethnographies de laboratoire pour l’étude des processus algorithmiques », in Zilsel, vol. 5, no. 1, 2019, pp. 315-339. 

_ Karoui M., Devauchelle G. & Dudezert A. (2014). « Big Data : Mise en perspective et enjeux pour les entreprises », in Big Data, Revue Ingénierie des Systèmes d’Information, 19 (3), pp. 73-92. 

_ Kessous, E. (2012). L’attention au monde. Sociologie des données personnelles à l’ère numérique, Paris, Armand Colin. 

_ Kessous, E., Mellet, K. & Zouinar, M. (2010). « L’économie de l’attention : entre protection des ressources cognitives et extraction de la valeur », in Sociologie du travail [Online], Vol. 52, n° 3, pp. 359-373. [consulté le 28 août 2021]. 

_ Koch, O. (2018). « Les données de la guerre. Big Data et algorithmes à usage militaire », in Les Enjeux de l’information et de la communication, vol. 19/2, no. 2, pp. 113-123.  

 

_ Latour, B. & Woolgar, S. (1988) [1979]. La vie de laboratoire : la production des faits scientifiques, La Découverte, coll. « Sciences et société ». 

_ Latour, B. (1991). Nous n’avons jamais été modernes. Essai d’anthropologie symétrique, Paris, La Découverte, coll. « L’armillaire ». 

 

_ Latour, B. (1994), Petites leçons de sociologie des sciences et des techniques, Paris, La Découverte.  

 

_ Linden, G. ; Smith, B. & York, J. (2003). « Amazon.com Recommendations Item-to-Item Collaborative Filtering », in IEEE Internet Computing, Vol. 7, No. 1, 2003, pp. 76-80. 

_ Mackenzie, A. (2017). Machine Learners : Archaeology of a Data Practice, MIT Press. 

_ McAfee, A. & Brynjolfsson, E. (2015). Le deuxième âge de la machine. Travail et prospérité à l’heure de la révolution technologique, Paris, Odile Jacob. 

_ Méadel, C. (2010). Quantifier le public. Histoire des mesures d’audience de la radio et de la télévision, Paris, Éditions Economica, Coll. « Médias et Publicités ». 

_ Meier, O. ; Missonier, A. & Missonier, S. (2012). « Analyse des systèmes d’interactions à l’oeuvre au sein d’un projet TI : mise en évidence d’une perspective dynamique et relationnelle », in Systèmes d’Information et Management, vol. 17, pp. 1-35. 

_ Ménard, M. (2014). « Systèmes de recommandation de biens culturels : Vers une production de conformité ? », in Les Cahiers du numérique, vol. 10(1), pp. 69-94. 

_ Mintzberg, H. (1990). Le management. Voyage au centre des organisations. Editions d’Organisation. 

_ Monnier, J. M. & Vercellone, C. (2014). « Le capitalisme cognitif, nouvelle forme de capitalisme ? », in Problèmes économiques. Hors-série (5), pp.117-120.   

_ Moulier-Boutang, Y. (2008). Le capitalisme cognitif. La nouvelle grande transformation, Editions Amsterdam.  

_ Negri, A. & Vercellone, C. (2008). « Le rapport capital / travail dans le capitalisme cognitif », in Multitudes, 32(1), pp. 39-50. 

_ Obermeyer, Z. ; Vogeli, C. ; Powers, B. & Mullainathan, S. (2019). « Dissecting racial bias in an algorithm used to manage the health of populations », in Science, Vol. 366, Issue 6464, pp. 447-453. 

_ Ouhab, A. (2019). Qualité de données pour l’intégration de données, thèse en vue de l’obtention du grade de docteur en sciences exactes, Université Djillali Liabes, Algérie. 

_ Papp, A. (2018). « L’infobésité, une épidémie à l’âge des nouvelles technologies de l’information et de la communication ? », in Regards croisés sur l’économie, 23(2), pp. 105-113. 

_ Richard, C. (2018). « Dans la boîte noire des algorithmes. Comment nous nous sommes rendus calculables », in Revue du Crieur, N° 11, pp. 68-85. 

_ Rifkin, J. (2005). L’âge de l’accès. La nouvelle culture du capitalisme, La Découverte. 

_ Rochet, J.-C. & Tirole, J. (2003). « Platform Competition in Two-sided Markets », in Journal of the European Economic Association, vol. 1, n° 4, pp. 990-1029. 

_ Rosa, H. (2013). Accélération. Une critique sociale du temps, Paris, La Découverte. 

_ Rouvroy, A. & Berns, T. (2010). « Le nouveau pouvoir statistique : Ou quand le contrôle s’exerce sur un réel normé, docile et sans événement car constitué de corps « numériques », in Multitudes, 40(1), pp. 88-103. 

_ Rouvroy, A. & Berns, T. (2013) « Gouvernementalité algorithmique et perspectives d’émancipation. Le disparate comme condition d’individuation par la relation ? », in Réseaux, vol. 177, no. 1, pp. 163-196. 

_ Sadin, E. (2018). L’Intelligence artificielle ou l’enjeu du siècle : Anatomie d’un antihumanisme radical, L’Echappée. 

_ Shapiro C. & Varian H. (1999). Information Rules, Harvard Business School Press. 

_ Simon, H. A. (1971). « Designing organizations for an information-rich world », in Martin Greenberger (ed.), Computers, Communication, and the Public Interest. Baltimore, MD: The Johns Hopkins Press, pp. 37-72. 

_ Sonet V. (2016). « La sujétion des médias traditionnels aux dispositifs mobiles de publication », in Interfaces numériques, vol. 5, n°1, pp. 49-66. 

_ Sonnac, N & Gabszewicz, J. (2013). L’industrie des médias à l’ère numérique, Paris, Éd. La Découverte, coll. Repères. 

_ Staii, A. (2017a). « L’automatisation au cœur de l’industrialisation des médias numériques », in Les Enjeux de l’Information et de la Communication, n°18/3A, 2017, pp. 66-75. 

_ Stiegler, B. (1994). La technique et le temps, Paris, Fayard. 

_ Trompette, P. & Vinck, D. (2009). « Retour sur la notion d’objet-frontière », in Revue d’anthropologie des connaissances, 1, vol. 3, no. 1, pp. 5-27. 

_ Vanheuverzwyn, A. (2016). « Mesure d’audience et données massives : mythes et réalités », in 9e Colloque Francophone sur les Sondages, Gatineau, (en ligne) [consulté le 07 août 2021]. 

_ Vayre, J. (2018). « Les machines apprenantes et la (re)production de la société : les enjeux communicationnels de la socialisation algorithmique », in Les Enjeux de l’information et de la communication, 19/2(2), pp. 93-111. 

_ Voirol, O. (2010). « La Théorie critique des médias de l’École de Francfort : une relecture », in Mouvements, vol. 61, no. 1, pp. 23-32. 

_ Ziewitz, M. (2016). « Governing Algorithms: Myth, Mess, and Methods », in Science, Technology, & Human Values, 41(1), pp. 3–16. 

_ Zureik, E. & Hindle, K. (2004). « Governance, Security and Technology : The Case of Biometrics », in Studies in Political Economy, vol. 73, No. 1, pp. 113-137. 

 

 

En savoir plus sur le Prix du CSA  

Postulez au 14ème Prix du CSA 2021

(Vidéo) Le mémoire de Kévin Carillon en trois minutes