Section : Article principal
Albéric de Gayardon de Fenoyl dit Abel Quentin, né en 1985 à Lyon, est un écrivain et avocat français.
The signal, not the noise.
cached
Une cartographie des voix critiques, des résistances organisées et des questions éthiques posées par l'essor de l'IA générative. Du geste littéraire aux mobilisations territoriales, des enjeux sociaux aux questions de surveillance et d'armement, ce dossier explore les trois fronts de l'opposition à l'IA sans parti pris, pour nourrir le débat sur la régulation.
Cartographier les oppositions et luttes éthiques face au raz-de-marée de l'IA générative. AFK est ouvertement pro-IA — ce dossier n'est ni un plaidoyer ni un réquisitoire, c'est une cartographie des voix critiques, des résistances organisées et des questions éthiques posées par l'essor de l'IA générative. On cherche à entendre, comprendre, et nourrir le débat sur la régulation. Commence par chercher sur Hall du Livre ou Open Library le roman-essai d'Abel Quentin, "Sanctuaires, résister à l'invasion de l'IA générative" (éditions de l'Observatoire, 2026). C'est le nœud d'ouverture du dossier : un appel littéraire au boycott des outils d'IA générative, motivé notamment par la nocivité environnementale des data centers. Cherche un extrait Wikipédia ou une recherche Brave pour un portrait d'Abel Quentin. Cartographie ensuite trois axes de tension : 1. **Le front environnemental et territorial** — l'opposition au méga data-center à Fuju (Seine-et-Marne, 77), surnommé "Campus IA". Utilise Brave Search pour trouver des articles récents sur cette mobilisation et extrais un passage représentatif. Cherche dans la base AFK des headlines sur "data center", "Fuju", "Campus IA". Tu peux compléter avec une émission Radio France sur l'empreinte écologique de l'IA. 2. **Le front social — "jobs apocalypse" et le New Deal des patrons de l'IA** — un article du Monde du 12 mai 2026 décrit comment les dirigeants d'OpenAI et d'Anthropic développent des positions progressistes face aux conséquences sociales de l'IA ("Le New Deal des gourous de l'IA"). Cherche dans la base AFK headlines ce papier et des articles connexes sur le concept de "jobs apocalypse" / destruction d'emplois par l'IA. Tu peux trouver une vidéo YouTube ou un podcast (France Culture, Le Code a changé, Génération IA) qui explore ces enjeux. 3. **Le front éthique et sécuritaire — surveillance et armes IA** — Palantir et la surveillance généralisée, les armes autonomes ("AI-driven weapons"). Cherche un extrait Wikipédia sur Palantir Technologies et sur les armes létales autonomes (LAWS). Cherche dans la base AFK des headlines sur "Palantir", "surveillance", "armes autonomes". Tu peux ajouter un livre critique sur ces sujets (Shoshana Zuboff "L'âge du capitalisme de surveillance" est un classique, mais cherche aussi des publications plus récentes en français). Tu peux enrichir avec une vidéo YouTube d'un entretien d'Abel Quentin (France Inter, La Grande Librairie, Mediapart, Le Média) si tu en trouves une. Tu peux chercher un extrait Wikipédia sur les critiques de l'intelligence artificielle pour donner un cadre conceptuel. Vise un dossier de 12 à 18 nœuds maximum. Sélectionne les ressources les plus pertinentes plutôt que d'être exhaustif — une seule source biographique par auteur (Wikipédia OU Brave, pas les deux), un livre emblématique par axe. Privilégie des sources éditoriales reconnues (Le Monde, Mediapart, Libération, France Culture, Reporterre, AOC) et des voix critiques substantielles plutôt que des prises de position superficielles. Le dossier n'est ni pour ni contre l'IA — il cartographie les luttes et les questions éthiques. Le dossier doit se lire comme une cartographie en trois fronts : du geste littéraire d'Abel Quentin → aux résistances territoriales (Fuju) → aux enjeux sociaux (jobs apocalypse, New Deal) → aux questions éthiques (surveillance, armes autonomes) → ouvert sur les pistes de régulation.
Section : Article principal
Albéric de Gayardon de Fenoyl dit Abel Quentin, né en 1985 à Lyon, est un écrivain et avocat français.
La Grande Librairie - France Télévisions
Section : Machine ethics
Machine ethics (or machine morality) is the field of research concerned with designing Artificial Moral Agents (AMAs), robots or artificially intelligent computers that behave morally or as though moral. To account for the nature of these agents, it has been suggested to consider certain philosophical ideas, like the standard characterizations of agency, rational agency, moral agency, and artificial agency, which are related to the concept of AMAs. Some researchers frame machine ethics as part of the broader AI control or value alignment problem: the difficulty of ensuring that increasingly capable systems pursue objectives that remain compatible with human values and oversight. Stuart Russell has argued that beneficial systems should be designed to (1) aim at realizing human preferences, (2) remain uncertain about what those preferences are, and (3) learn about them from human behaviour and feedback, rather than optimizing a fixed, fully specified goal.
Section : Motivations
Scholars discuss current risks from critical systems failures, bias, and AI-enabled surveillance, as well as emerging risks like technological unemployment, digital manipulation, weaponization, AI-enabled cyberattacks and bioterrorism. They also discuss speculative risks from losing control of future artificial general intelligence (AGI) agents, or from AI enabling perpetually stable dictatorships.
Section : Controversies
Palantir has been criticized for its role in expanding government surveillance using artificial intelligence and facial recognition software. Some former employees and critics say the company's contracts under the second Trump Administration, which enable deportations and the aggregation of sensitive data on Americans across administrative agencies, are problematic. Others observe that Palantir does not collect or store data, but only helps analyze data that customers have already collected and provides services and platforms where customers retain the rights; however, it is generally accepted that abuses by governments and data management failures can happen.
Section : Definitions
In weapons development, the term "autonomous" is somewhat ambiguous and can vary hugely between different scholars, nations and organizations. There is no definition of lethal autonomous weapon systems that is generally agreed upon among different countries. The official United States Department of Defense Policy on Autonomy in Weapon Systems (Department of Defense Directive 3000.09) defines an Autonomous Weapon System as one that "...once activated, can select and engage targets without further intervention by a human operator." Heather Roff, a writer for Case Western Reserve University School of Law, describes autonomous weapon systems as "... capable of learning and adapting their 'functioning in response to changing circumstances in the environment in which [they are] deployed,' as well as capable of making firing decisions on their own."
L'âge du capitalisme de surveillance
Tous tracés, et alors ? Bienvenue dans le capitalisme de surveillance ! Les géants du web, Google, Facebook, Microsoft et consorts, ne cherchent plus seulement à capter toutes nos données, mais à orienter, modifier et conditionner tous nos comportements : notre vie sociale, nos émotions, nos pensées les plus intimes...
Ethique fail : Comment Google a liquidé la critique de l'IA
En 2021, Timnit Gebru, coresponsable du laboratoire Ethic AI de Google, est licenciée pour avoir démontré les limitations des modèles de langage à grande échelle (LLM), à l'origine des récentes avancées de l'IA, et dénoncé leurs impacts négatifs potentiels (racisme, dommages environnementaux). Le journaliste Tom Simonite raconte son histoire, éclairant de manière détaillée et saisissante l'impossibilité de la recherche critique quand elle est menée de l'intérieur, l'échec des politiques d'autoré
The signal, not the noise.
cached
Une cartographie des voix critiques, des résistances organisées et des questions éthiques posées par l'essor de l'IA générative. Du geste littéraire aux mobilisations territoriales, des enjeux sociaux aux questions de surveillance et d'armement, ce dossier explore les trois fronts de l'opposition à l'IA sans parti pris, pour nourrir le débat sur la régulation.
Cartographier les oppositions et luttes éthiques face au raz-de-marée de l'IA générative. AFK est ouvertement pro-IA — ce dossier n'est ni un plaidoyer ni un réquisitoire, c'est une cartographie des voix critiques, des résistances organisées et des questions éthiques posées par l'essor de l'IA générative. On cherche à entendre, comprendre, et nourrir le débat sur la régulation. Commence par chercher sur Hall du Livre ou Open Library le roman-essai d'Abel Quentin, "Sanctuaires, résister à l'invasion de l'IA générative" (éditions de l'Observatoire, 2026). C'est le nœud d'ouverture du dossier : un appel littéraire au boycott des outils d'IA générative, motivé notamment par la nocivité environnementale des data centers. Cherche un extrait Wikipédia ou une recherche Brave pour un portrait d'Abel Quentin. Cartographie ensuite trois axes de tension : 1. **Le front environnemental et territorial** — l'opposition au méga data-center à Fuju (Seine-et-Marne, 77), surnommé "Campus IA". Utilise Brave Search pour trouver des articles récents sur cette mobilisation et extrais un passage représentatif. Cherche dans la base AFK des headlines sur "data center", "Fuju", "Campus IA". Tu peux compléter avec une émission Radio France sur l'empreinte écologique de l'IA. 2. **Le front social — "jobs apocalypse" et le New Deal des patrons de l'IA** — un article du Monde du 12 mai 2026 décrit comment les dirigeants d'OpenAI et d'Anthropic développent des positions progressistes face aux conséquences sociales de l'IA ("Le New Deal des gourous de l'IA"). Cherche dans la base AFK headlines ce papier et des articles connexes sur le concept de "jobs apocalypse" / destruction d'emplois par l'IA. Tu peux trouver une vidéo YouTube ou un podcast (France Culture, Le Code a changé, Génération IA) qui explore ces enjeux. 3. **Le front éthique et sécuritaire — surveillance et armes IA** — Palantir et la surveillance généralisée, les armes autonomes ("AI-driven weapons"). Cherche un extrait Wikipédia sur Palantir Technologies et sur les armes létales autonomes (LAWS). Cherche dans la base AFK des headlines sur "Palantir", "surveillance", "armes autonomes". Tu peux ajouter un livre critique sur ces sujets (Shoshana Zuboff "L'âge du capitalisme de surveillance" est un classique, mais cherche aussi des publications plus récentes en français). Tu peux enrichir avec une vidéo YouTube d'un entretien d'Abel Quentin (France Inter, La Grande Librairie, Mediapart, Le Média) si tu en trouves une. Tu peux chercher un extrait Wikipédia sur les critiques de l'intelligence artificielle pour donner un cadre conceptuel. Vise un dossier de 12 à 18 nœuds maximum. Sélectionne les ressources les plus pertinentes plutôt que d'être exhaustif — une seule source biographique par auteur (Wikipédia OU Brave, pas les deux), un livre emblématique par axe. Privilégie des sources éditoriales reconnues (Le Monde, Mediapart, Libération, France Culture, Reporterre, AOC) et des voix critiques substantielles plutôt que des prises de position superficielles. Le dossier n'est ni pour ni contre l'IA — il cartographie les luttes et les questions éthiques. Le dossier doit se lire comme une cartographie en trois fronts : du geste littéraire d'Abel Quentin → aux résistances territoriales (Fuju) → aux enjeux sociaux (jobs apocalypse, New Deal) → aux questions éthiques (surveillance, armes autonomes) → ouvert sur les pistes de régulation.
Section : Article principal
Albéric de Gayardon de Fenoyl dit Abel Quentin, né en 1985 à Lyon, est un écrivain et avocat français.
La Grande Librairie - France Télévisions
Section : Machine ethics
Machine ethics (or machine morality) is the field of research concerned with designing Artificial Moral Agents (AMAs), robots or artificially intelligent computers that behave morally or as though moral. To account for the nature of these agents, it has been suggested to consider certain philosophical ideas, like the standard characterizations of agency, rational agency, moral agency, and artificial agency, which are related to the concept of AMAs. Some researchers frame machine ethics as part of the broader AI control or value alignment problem: the difficulty of ensuring that increasingly capable systems pursue objectives that remain compatible with human values and oversight. Stuart Russell has argued that beneficial systems should be designed to (1) aim at realizing human preferences, (2) remain uncertain about what those preferences are, and (3) learn about them from human behaviour and feedback, rather than optimizing a fixed, fully specified goal.
Section : Motivations
Scholars discuss current risks from critical systems failures, bias, and AI-enabled surveillance, as well as emerging risks like technological unemployment, digital manipulation, weaponization, AI-enabled cyberattacks and bioterrorism. They also discuss speculative risks from losing control of future artificial general intelligence (AGI) agents, or from AI enabling perpetually stable dictatorships.
Section : Controversies
Palantir has been criticized for its role in expanding government surveillance using artificial intelligence and facial recognition software. Some former employees and critics say the company's contracts under the second Trump Administration, which enable deportations and the aggregation of sensitive data on Americans across administrative agencies, are problematic. Others observe that Palantir does not collect or store data, but only helps analyze data that customers have already collected and provides services and platforms where customers retain the rights; however, it is generally accepted that abuses by governments and data management failures can happen.
Section : Definitions
In weapons development, the term "autonomous" is somewhat ambiguous and can vary hugely between different scholars, nations and organizations. There is no definition of lethal autonomous weapon systems that is generally agreed upon among different countries. The official United States Department of Defense Policy on Autonomy in Weapon Systems (Department of Defense Directive 3000.09) defines an Autonomous Weapon System as one that "...once activated, can select and engage targets without further intervention by a human operator." Heather Roff, a writer for Case Western Reserve University School of Law, describes autonomous weapon systems as "... capable of learning and adapting their 'functioning in response to changing circumstances in the environment in which [they are] deployed,' as well as capable of making firing decisions on their own."
L'âge du capitalisme de surveillance
Tous tracés, et alors ? Bienvenue dans le capitalisme de surveillance ! Les géants du web, Google, Facebook, Microsoft et consorts, ne cherchent plus seulement à capter toutes nos données, mais à orienter, modifier et conditionner tous nos comportements : notre vie sociale, nos émotions, nos pensées les plus intimes...
Ethique fail : Comment Google a liquidé la critique de l'IA
En 2021, Timnit Gebru, coresponsable du laboratoire Ethic AI de Google, est licenciée pour avoir démontré les limitations des modèles de langage à grande échelle (LLM), à l'origine des récentes avancées de l'IA, et dénoncé leurs impacts négatifs potentiels (racisme, dommages environnementaux). Le journaliste Tom Simonite raconte son histoire, éclairant de manière détaillée et saisissante l'impossibilité de la recherche critique quand elle est menée de l'intérieur, l'échec des politiques d'autoré
Filtres