- Gouvernance et démocratie
-
État de réflexion (11/09/2025)
Sachant qu’une presse indépendante et forte est essentielle au bon fonctionnement de la démocratie, en tant que « quatrième pouvoir », sa fragilisation (notamment par le flot de faux sites d’information générés par IA) n’est pas une bonne nouvelle. Une étude scientifique comparant 72 pays a observé qu’un développement plus poussé de l’IA est associé à des niveaux de démocratie plus faibles. Les pays dotés de systèmes parlementaires bien établis, plutôt que de systèmes présidentiels, pourraient être mieux armés pour gérer et atténuer les effets négatifs de l’IA sur la démocratie.
Dans leur livre Pouvoir et progrès, le prix Nobel d’économie Daron Acemoğlu et son coauteur Simon Johnson suggèrent qu’un certain type d’automatisation du travail, boosté par l’IA, pourrait ôter tout pouvoir de négociation aux travailleurs et travailleuses. Ce qui inciterait les élites à ne plus accepter les processus démocratiques.
En Chine, notamment, l’intelligence artificielle accélère massivement le développement de la biométrie, pour le meilleur et aussi pour le pire. Le risque d’une surveillance de masse, la perte de souveraineté sur les données, comme l’emprise démesurée des géants de la Tech, sont des préoccupations largement partagées.
Quelques ressources
Widder, D. G., Whittaker, M, & West, S. M. (2023). Why 'open' AI systems are actually closed, and why this matters, Nature, volume 635, pages 827–833.
Journal of Information Technology & Politics (2025/03/06). Artificial intelligence and democracy: pathway to progress or decline ?
Le Temps (2025). « L’intelligence artificielle accélère massivement le développement de la biométrie, pour le meilleur… et pour le pire ».
- Médias, arts et diversité culturelle
-
État de réflexion (11/09/2025)
L’audience de la plupart des médias d’information est en chute libre depuis l’introduction de l’intelligence artificielle de Google (AI overviews qui s’affichent par défaut en tête de résultats de recherche). Le New York Times perd ainsi 36 % de trafic à cause de l’IA de Google. Le quotidien Le Monde, lui, a choisi de s’allier avec OpenAI.
Les géants de l’intelligence artificielle gagnent la bataille sur les œuvres protégées par droit d’auteur, quitte à s’acquitter de forfaits compensatoires (en septembre 2025, Anthropic annonce verser 1,5 milliard de dollars pour solder un litige). La musique générée par IA envahit les plateformes de streaming, posant la question de ce qui crée l’émotion dans des productions artistiques (musique, romans, films) lorsqu’elles ne sont pas le produit d’une conscience humaine. Le recours à des photos générées ou modifiées par les outils d’IA interroge l’exigence éthique de mentionner leur origine, tout comme le type de mentions.
Un rapport de l’UNESCO s’alarme par ailleurs des stéréotypes sexistes et des biais présents dans les grands modèles de langage. L’hégémonie culturelle californienne, qui teinte les résultats des outils tels ChatGPT, est remise en cause, appelant le développement de nouveaux modèles entrainés sur nos propres valeurs démocratiques ; de grands modèles de langage (LLM) développés par des infrastructures publiques (tel celui de l’EPFL et de l’ETH Zurich annoncé en été 2025) sont en ce sens très attendus.
Quelques ressources
Le Temps (2025/06/13) L’audience de certains sites de médias est en chute libre à cause de l’intelligence artificielle de Google. Désormais, ils cherchent des solutions.
Le Temps (2024). Louis Dreyfus : « Le Monde s’allie avec OpenAI pour ne pas reproduire les erreurs du passé ».
Le Temps (2025/07/01) Comment les géants de l’intelligence artificielle gagnent la bataille sur les œuvres protégées par droit d’auteur.
The Conversation (2025/05/15) Voir n’est plus croire : pour une éthique des images à l’heure de l’IA.
RTS (2025/07/10) Suivi par 1 million de fans sur Spotify, un groupe reconnaît être généré par l’IA.
UNESCO & IRCAI (2024). Challenging systematic prejudices: an investigation into bias against women and girls in large language models.
- Travail et emploi
-
État de réflexion (11/09/2025)
L’intelligence artificielle permet d’envisager de nouvelles opportunités, mais suscite également des craintes parmi de nombreux corps de métier, interrogeant l’équilibre entre les emplois qui disparaitront et ceux qui seront créés, les secteurs qui seront les plus touchés et ceux qui seront préservés, ainsi que la manière dont les gains de productivité dégagés par le recours à l’IA pourraient un jour favoriser l’émergence d’un salaire minimum universel.
Une étude de la MIT Sloan School of Management laisse entendre que l’IA ne se substituera pas à l’activité humaine, mais viendra compléter la main-d’œuvre. Moins optimiste, le prix Nobel d’économie Daron Acemoğlu déplorait, au seuil des années 2020, que les évolutions technologiques privilégiaient l’automatisation accrue, sans accorder suffisamment d’importance à la création de nouvelles tâches dans lesquelles la main-d’œuvre pourrait être employée de manière productive. Nous passerions ainsi à côté de la promesse d’une IA « adéquate », offrant de meilleurs résultats économiques et sociaux.
L’industrie du jeu vidéo, elle, voit déjà dans l’IA un moyen de gagner en productivité. D’autres secteurs adoptent des chartes et des règles inspirées par la prudence, notamment en raison de la persistance de forts taux d’« hallucinations » dans les réponses fournies par l’IA.
Quelques ressources
UNINE [2025]. L’intelligence artificielle, une amie qui nous veut du bien ?
MIT Sloan Research [2025]. AI is more likely to complement, not replace, human workers.
National Bureau of Economic Research (2019). The wrong kind of AI ? Artificial intelligence and the futur of labor demand.
France Culture [2023]. L’intelligence artificielle, objet philosophique.
Le Temps [2024]. Dans l’industrie du jeu vidéo, l’IA bouscule les codes.
- Santé publique
-
État de réflexion (11/09/2025)
Lorsqu’il s’agit de questions de santé, les réponses fournies par un outil d’IA générative sont si plausibles qu’elles tendent à convaincre un large public qui n’a généralement que peu de connaissances dans le domaine médical. Ne pas recourir à des médecins, psychologues et psychiatres certifiés pourrait avoir des conséquences et questionne la limite éthique d’un recours à l’IA plutôt qu’à ces professionnels∙les. Le large recours à l’IA questionne l’impact sur le développement du cerveau humain, la recherche montrant l’importance de l’effort intellectuel. Une étude du MIT tend d’ailleurs à montrer comment le recours à ChatGPT et à des outils du même genre a un cout cognitif : observé sur une durée de 4 mois, un échantillon d’étudiant·es utilisant de tels outils obtient des résultats inférieurs à la moyenne sur les plans neuronal, linguistique et comportemental.
Par ailleurs, les résultats d’une étude d’Anthropic (concepteur de l’outil « Claude ») suggèrent qu’il pourrait être plus difficile que les scientifiques ne le pensaient auparavant, d’« aligner » les systèmes d’IA sur les valeurs humaines. Si les chatbots (robots conversationnels) sont plutôt bien notés pour des requêtes de santé simples, leur empathie est plus que sujette à caution pour les questions émotionnellement chargées.
Aux États-Unis comme en Corée du Sud, est signalé un nombre important d’adolescentes de 14-15 ans devant faire face à des deepfakes pornographiques qui recourent à leur image. Se trouvent même des élèves qui harcèlent leurs enseignantes au moyen de deepfakes, impactant également la santé mentale des victimes.
Quelques ressources
The Conversation (2025/06/17) ChatGPT pose-t-il un risque pour l’apprentissage et la créativité ? Une étude apporte des nuances.
RTS (2025/05/12) A quel point peut-on se soigner avec les IA ?
The Conversation (2025/06/17) Les IA, nous nouvelles confidentes : quels risques pour la santé mentale ?
BBC (2025/03/14) Corée du Sud : quand les élèves utilisent le deepfake pour harceler leurs enseignantes.
- Durabilité
-
État de réflexion (11/09/2025)
La probabilité que le recours massif à l’IA fasse exploser les besoins mondiaux en électricité inquiète. Un rapport de Deloitte donne une vision globale de l’impact environnemental de l’IA, en présentant une des premières études exhaustives intégrant à la fois l’analyse des scénarios d’adoption et la modélisation énergétique des data centers.
Dans le scénario de « forte adoption » (soit un usage très courant de l’IA), la consommation électrique des data centers pourrait atteindre 3 550 TWh d’ici 2050, soit plus que la consommation actuelle de toute l’Union Européenne. Cette augmentation sera principalement due à l’IA, qui représentera alors 68 % de cette consommation, contre seulement 11 % aujourd’hui.
De plus, la consommation d’eau nécessaire au refroidissement des data centers est un sujet de préoccupation. A l’inverse, certain·es fondent de grands espoirs sur le potentiel que représente l’IA pour nous aider à trouver des solutions aux crises environnementales.
Quelques ressources
Rapport de recherche (2024/03/28) Déclaration de Montréal et notion de responsabilité.
Deloitte (2025). Powering artificial intelligence. A study of AI’s footprint - today and tomorrow. Rapport.
The Conversation (2025/07/03) IA : bombe énergétique ou levier écologique ?
Nonfiction (2021/06/24) « Quelle morale pour les robots ? »
Site de l’Observatoire international sur les impacts sociétaux de l’IA et du numérique