Dans l'histoire humaine, peu de technologies ont pénétré si rapidement chaque recoin de la société que l'intelligence artificielle, suscitant à la fois une vaste imagination collective et une anxiété généralisée. Face à cette vague, le rôle des sciences sociales nécessite d'être clarifié. À l'heure actuelle, la plupart des recherches en sciences sociales sur l'IA se concentrent sur le « côté utilisateur » — des questions telles que l'impact de l'automatisation sur l'emploi, les biais algorithmiques, la confidentialité des données, et les façons dont l'IA elle-même assiste la recherche en sciences sociales. Bien que ces questions soient sans aucun doute essentielles, elles ne devraient pas limiter la portée de la réflexion. La mission des sciences sociales n'est pas seulement d'analyser l'impact du progrès technologique, mais aussi de démystifier la technologie elle-même.
La recherche en sciences sociales doit donc élargir son champ d'attention du « côté utilisateur » de l'IA vers son « côté production », en se penchant sur les étapes de développement telles que la conception des algorithmes, la collecte et le traitement des données, l'entraînement des modèles, ainsi que sur la logique sous-jacente du capital et de la culture organisationnelle. Ce n'est qu'alors que nous pourrons reconnaître l'IA pour ce qu'elle est véritablement : une pratique technologique concrète, construite par l'humain, et porteuse d'attributs sociaux. Cette tâche ne constitue pas simplement un défi intellectuel, mais une étape cruciale pour réajuster la relation entre l'humain et la technologie et sauvegarder l'agir humain.
La mystification de l'IA dans les discours publics
Les discours publics sur l'IA présentent souvent une tendance à la « mystification », renforcée à la fois par les spectacles futuristes des lancements de produits des entreprises technologiques et par les craintes des travailleurs face au remplacement. Cette tendance se manifeste selon trois dimensions. La première est la mystification cognitive : assimiler les capacités de prédiction statistique à la compréhension, au raisonnement et à la créativité humains, brouillant ainsi la frontière entre les capacités actuelles des modèles d'IA et l'« essence de l'intelligence » encore obscure. La deuxième est la mystification déterministe : dépeindre les progrès de l'IA comme inévitables et hors de contrôle humain, alimentant un fatalisme lié à la notion de singularité technologique. La troisième est la mystification processuelle : réduire des processus de développement complexes à l'illusion que « les machines apprennent par elles-mêmes », occultant ainsi l'énorme travail humain, la consommation de ressources et les choix socio-historiques impliqués.
Une telle mystification peut provoquer des sentiments publics polarisés — soit un optimisme et une révérence inconditionnels envers l'IA, soit un sentiment d'impuissance face à des compétences apparemment surpassées par les machines. Ces deux postures érodent la capacité des individus à envisager des possibilités futures et à faire des choix appropriés. La démystification, par conséquent, cherche à briser cette fausse dichotomie, en permettant aux gens de comprendre la technologie de l'IA ainsi que les structures socio-techniques qui la soutiennent.
La responsabilité des sciences sociales d'étudier le côté production de l'IA découle également des limites des efforts de démystification pilotés par la technologie. Plusieurs entreprises de R&D en IA, comme Anthropic, avancent des recherches sur l'interprétabilité, ce qui est sans aucun doute précieux. Pourtant, ces travaux offrent principalement des explications techniques sur le fonctionnement des modèles, sans aborder la question sociale plus profonde de savoir pourquoi ils fonctionnent de manières spécifiques. Pourquoi des groupes particuliers, guidés par des valeurs particulières, avec des objectifs et des jeux de données spécifiques, construisent-ils des modèles intelligents façonnés par des hypothèses et des caractéristiques précises ? C'est précisément dans cet espace que les sciences sociales, notamment les Sciences et Technologies Studies (STS), ont un rôle à jouer.
Le programme de recherche en sciences sociales pour le développement de l'IA
Traiter le développement des modèles d'IA comme un objet d'investigation des sciences sociales ne signifie pas que les chercheurs en sciences sociales doivent devenir des ingénieurs en algorithmes. Il s'agit plutôt de faire appel aux outils théoriques et aux méthodes de terrain des sciences sociales pour examiner de manière critique plusieurs aspects clés.
Archéologie des connaissances des architectures de modèles : Plutôt que de tenir pour acquises les architectures de modèles dominantes, la recherche en sciences sociales devrait retracer leur évolution à partir de concepts fondamentaux tels que les réseaux neuronaux et les mécanismes d'attention. Elle devrait analyser les schémas cognitifs incorporés dans ces modèles, mais aussi explorer pourquoi certains schémas particuliers s'imposent dans des environnements technologiques, commerciaux et culturels spécifiques.
Économie politique des pratiques de données : Les données servent de fondation aux modèles d'IA, mais elles ne sont ni véritablement « brutes », ni purement objectives. Les chercheurs en sciences sociales doivent examiner l'intégralité du processus de collecte, de nettoyage et d'annotation des données, depuis l'établissement des normes d'annotation jusqu'à l'émergence des annotateurs de données sur le marché du travail.
Matérialité des infrastructures : L'IA repose sur des infrastructures à grande échelle — des puces avancées aux centres de données énergivores et plateformes de services cloud. Les sciences sociales se doivent d'analyser cet agencement « calcul-énergie-géopolitique » ainsi que la logique sous-jacente qui régit la production, la distribution et la circulation des ressources computationnelles.
Sociologie de la construction des benchmarks : La performance des modèles d'IA est définie par une série de benchmarks. Les sciences sociales devraient enquêter sur la manière dont ces référentiels sont établis et maintenus, car ils influencent l'orientation du développement technologique, la définition du « succès » et l'allocation des capitaux académiques et commerciaux.
Sociologie des sciences dans les champs d'innovation : Les sciences sociales devraient analyser comment les innovations en IA sont façonnées par la culture organisationnelle, la mobilité des talents, les modèles de prestige et les structures d'équipe au sein des laboratoires d'IA, des divisions d'IA des entreprises et des communautés open source telles que Hugging Face.
La finalité de la démystification de l'IA — en partant du côté production par le biais de l'investigation des sciences sociales — n'est pas de dénigrer ou d'entraver le progrès technologique, mais d'éclairer la logique productive et les limites structurelles de l'IA, afin d'en permettre une utilisation plus judicieuse. In fine, cela contribue à construire une société plus saine, plus durable et centrée sur l'humain, où se réalise la coexistence entre l'humanité et les machines intelligentes.
Li Linzhuo est chercheur au Département de la Sociologie de l'Université du Zhejiang.