AFK.live

The signal, not the noise.

Dossiers

cached

arrow_back Retour aux dossiers

Résistances à l'IA générative : cartographie des luttes éthiques

schedule
smart_toy

Une cartographie des voix critiques, des résistances organisées et des questions éthiques posées par l'essor de l'IA générative. Du geste littéraire aux mobilisations territoriales, des enjeux sociaux aux questions de surveillance et d'armement, ce dossier explore les trois fronts de l'opposition à l'IA sans parti pris, pour nourrir le débat sur la régulation.

intelligence artificielle éthique surveillance data centers emploi armes autonomes capitalisme de surveillance résistance technologique régulation IA

Cartographier les oppositions et luttes éthiques face au raz-de-marée de l'IA générative. AFK est ouvertement pro-IA — ce dossier n'est ni un plaidoyer ni un réquisitoire, c'est une cartographie des voix critiques, des résistances organisées et des questions éthiques posées par l'essor de l'IA générative. On cherche à entendre, comprendre, et nourrir le débat sur la régulation. Commence par chercher sur Hall du Livre ou Open Library le roman-essai d'Abel Quentin, "Sanctuaires, résister à l'invasion de l'IA générative" (éditions de l'Observatoire, 2026). C'est le nœud d'ouverture du dossier : un appel littéraire au boycott des outils d'IA générative, motivé notamment par la nocivité environnementale des data centers. Cherche un extrait Wikipédia ou une recherche Brave pour un portrait d'Abel Quentin. Cartographie ensuite trois axes de tension : 1. **Le front environnemental et territorial** — l'opposition au méga data-center à Fuju (Seine-et-Marne, 77), surnommé "Campus IA". Utilise Brave Search pour trouver des articles récents sur cette mobilisation et extrais un passage représentatif. Cherche dans la base AFK des headlines sur "data center", "Fuju", "Campus IA". Tu peux compléter avec une émission Radio France sur l'empreinte écologique de l'IA. 2. **Le front social — "jobs apocalypse" et le New Deal des patrons de l'IA** — un article du Monde du 12 mai 2026 décrit comment les dirigeants d'OpenAI et d'Anthropic développent des positions progressistes face aux conséquences sociales de l'IA ("Le New Deal des gourous de l'IA"). Cherche dans la base AFK headlines ce papier et des articles connexes sur le concept de "jobs apocalypse" / destruction d'emplois par l'IA. Tu peux trouver une vidéo YouTube ou un podcast (France Culture, Le Code a changé, Génération IA) qui explore ces enjeux. 3. **Le front éthique et sécuritaire — surveillance et armes IA** — Palantir et la surveillance généralisée, les armes autonomes ("AI-driven weapons"). Cherche un extrait Wikipédia sur Palantir Technologies et sur les armes létales autonomes (LAWS). Cherche dans la base AFK des headlines sur "Palantir", "surveillance", "armes autonomes". Tu peux ajouter un livre critique sur ces sujets (Shoshana Zuboff "L'âge du capitalisme de surveillance" est un classique, mais cherche aussi des publications plus récentes en français). Tu peux enrichir avec une vidéo YouTube d'un entretien d'Abel Quentin (France Inter, La Grande Librairie, Mediapart, Le Média) si tu en trouves une. Tu peux chercher un extrait Wikipédia sur les critiques de l'intelligence artificielle pour donner un cadre conceptuel. Vise un dossier de 12 à 18 nœuds maximum. Sélectionne les ressources les plus pertinentes plutôt que d'être exhaustif — une seule source biographique par auteur (Wikipédia OU Brave, pas les deux), un livre emblématique par axe. Privilégie des sources éditoriales reconnues (Le Monde, Mediapart, Libération, France Culture, Reporterre, AOC) et des voix critiques substantielles plutôt que des prises de position superficielles. Le dossier n'est ni pour ni contre l'IA — il cartographie les luttes et les questions éthiques. Le dossier doit se lire comme une cartographie en trois fronts : du geste littéraire d'Abel Quentin → aux résistances territoriales (Fuju) → aux enjeux sociaux (jobs apocalypse, New Deal) → aux questions éthiques (surveillance, armes autonomes) → ouvert sur les pistes de régulation.

hub 18 ressources
Wikipedia Wikipedia
Abel Quentin Wikipedia

Section : Article principal

Albéric de Gayardon de Fenoyl dit Abel Quentin, né en 1985 à Lyon, est un écrivain et avocat français.
Catégorie:Article de Wikipédia avec notice d'autorité Catégorie:Article utilisant l'infobox Biographie2 Catégorie:Article utilisant l'infobox Biographie2 avec la charte écrivain Catégorie:Article utilisant le modèle Dictionnaires inactif Catégorie:Article utilisant une Infobox
smart_toy

Portrait biographique de l'écrivain Abel Quentin, figure littéraire de la résistance à l'IA générative.

YouTube YouTube
Abel Quentin - Chronique d'un désastre annoncé - La Grande Librairie
play_circle

La Grande Librairie - France Télévisions

smart_toy

Entretien avec Abel Quentin à La Grande Librairie, illustrant sa posture critique face aux transformations technologiques contemporaines.

Wikipedia Wikipedia
Ethics of artificial intelligence Wikipedia

Section : Machine ethics

Machine ethics (or machine morality) is the field of research concerned with designing Artificial Moral Agents (AMAs), robots or artificially intelligent computers that behave morally or as though moral. To account for the nature of these agents, it has been suggested to consider certain philosophical ideas, like the standard characterizations of agency, rational agency, moral agency, and artificial agency, which are related to the concept of AMAs. Some researchers frame machine ethics as part of the broader AI control or value alignment problem: the difficulty of ensuring that increasingly capable systems pursue objectives that remain compatible with human values and oversight. Stuart Russell has argued that beneficial systems should be designed to (1) aim at realizing human preferences, (2) remain uncertain about what those preferences are, and (3) learn about them from human behaviour and feedback, rather than optimizing a fixed, fully specified goal.
Category:Artificial intelligence Category:Ethics by topic Category:Ethics of science and technology Category:Philosophy of artificial intelligence Category:Regulation of artificial intelligence
smart_toy

Cadre conceptuel sur l'éthique de l'IA et les enjeux de contrôle et d'alignement des valeurs.

Wikipedia Wikipedia
AI safety Wikipedia

Section : Motivations

Scholars discuss current risks from critical systems failures, bias, and AI-enabled surveillance, as well as emerging risks like technological unemployment, digital manipulation, weaponization, AI-enabled cyberattacks and bioterrorism. They also discuss speculative risks from losing control of future artificial general intelligence (AGI) agents, or from AI enabling perpetually stable dictatorships.
Category:AI safety Category:Artificial intelligence Category:Cybernetics Category:Existential risk from artificial intelligence
smart_toy

Panorama des risques actuels et émergents de l'IA : surveillance, chômage technologique, manipulation, armement.

YouTube YouTube

France Inter

smart_toy

Reportage France Inter sur l'impact de l'IA sur l'emploi et la transformation du monde du travail.

YouTube YouTube

Journal l'Humanité

smart_toy

Débat de L'Humanité interrogeant la réalité de la menace que représente l'IA pour les travailleurs.

Wikipedia Wikipedia
Palantir Technologies Wikipedia

Section : Controversies

Palantir has been criticized for its role in expanding government surveillance using artificial intelligence and facial recognition software. Some former employees and critics say the company's contracts under the second Trump Administration, which enable deportations and the aggregation of sensitive data on Americans across administrative agencies, are problematic. Others observe that Palantir does not collect or store data, but only helps analyze data that customers have already collected and provides services and platforms where customers retain the rights; however, it is generally accepted that abuses by governments and data management failures can happen.
Category:2003 establishments in California Category:American companies established in 2003 Category:Analytics companies Category:Big data companies Category:Business software companies
smart_toy

Extrait Wikipedia sur Palantir et les controverses liées à son rôle dans l'expansion de la surveillance gouvernementale par IA.

Wikipedia Wikipedia
Lethal autonomous weapon Wikipedia

Section : Definitions

In weapons development, the term "autonomous" is somewhat ambiguous and can vary hugely between different scholars, nations and organizations. There is no definition of lethal autonomous weapon systems that is generally agreed upon among different countries. The official United States Department of Defense Policy on Autonomy in Weapon Systems (Department of Defense Directive 3000.09) defines an Autonomous Weapon System as one that "...once activated, can select and engage targets without further intervention by a human operator." Heather Roff, a writer for Case Western Reserve University School of Law, describes autonomous weapon systems as "... capable of learning and adapting their 'functioning in response to changing circumstances in the environment in which [they are] deployed,' as well as capable of making firing decisions on their own."
Category:Military and wartime usage of artificial intelligence Category:Military robots Category:Uncrewed vehicles
smart_toy

Extrait Wikipedia sur les armes létales autonomes (LAWS) et leurs définitions, illustrant les enjeux de l'armement par IA.

auto_stories Hall du Livre
L'âge du capitalisme de surveillance

L'âge du capitalisme de surveillance

Shoshana Zuboff (2022) Hall du Livre

Tous tracés, et alors ? Bienvenue dans le capitalisme de surveillance ! Les géants du web, Google, Facebook, Microsoft et consorts, ne cherchent plus seulement à capter toutes nos données, mais à orienter, modifier et conditionner tous nos comportements : notre vie sociale, nos émotions, nos pensées les plus intimes...

smart_toy

Ouvrage de référence de Shoshana Zuboff sur le capitalisme de surveillance, analysant comment les géants du web exploitent nos données pour conditionner nos comportements.

auto_stories Hall du Livre
Ethique fail : Comment Google a liquidé la critique de l'IA

Ethique fail : Comment Google a liquidé la critique de l'IA

Tom Simonite (2026) Hall du Livre

En 2021, Timnit Gebru, coresponsable du laboratoire Ethic AI de Google, est licenciée pour avoir démontré les limitations des modèles de langage à grande échelle (LLM), à l'origine des récentes avancées de l'IA, et dénoncé leurs impacts négatifs potentiels (racisme, dommages environnementaux). Le journaliste Tom Simonite raconte son histoire, éclairant de manière détaillée et saisissante l'impossibilité de la recherche critique quand elle est menée de l'intérieur, l'échec des politiques d'autoré

smart_toy

Récit du licenciement de Timnit Gebru par Google, illustrant les difficultés de la critique éthique de l'IA menée de l'intérieur des grandes entreprises technologiques.

Filtres