À l’approche du Sommet pour l’action sur l’intelligence artificielle en France, la CGT publie une contribution soulignant l’importance d’une régulation démocratique de l’IA. La CGT exige des garanties sur la protection des droits des travailleur·ses, la transparence des algorithmes et un contrôle public de la production d’IA. Elle appelle à une coopération internationale pour que l’IA serve l’intérêt général, et non les intérêts privés des grandes entreprises numériques, tout en garantissant la souveraineté et le bien-être des citoyen·nes.
La CGT a été sollicitée afin de fournir une contribution en vue du Sommet pour l’action sur l’IA en France.
La CGT regrette vivement de ne pas avoir été formellement sollicitée, comme les autres organisations syndicales françaises, ainsi que nos organisations syndicales européennes (la Confédération européenne des syndicats – CES – et Eurocadres), et internationale (la Confédération syndicale internationale – CSI), à la construction de ce sommet, en particulier dans sa composante « Avenir du travail », en dehors du cadre du Comité du dialogue social européen et international (CDSEI).
Pour la CGT, l’intelligence artificielle est un outil au service des êtres humains qui peut permettre le progrès si le contrôle des données, des algorithmes, des conditions de leur production et de fixation de leur prix n’est pas laissé aux mains du marché, et en particulier celles des grandes entreprises du numérique.
Le déploiement de l’IA doit, pour les travailleurs·ses, offrir un horizon de protection de leurs conditions de travail, de leurs métiers, de leurs qualifications et de leurs emplois grâce à une anticipation et une sécurisation des reconversions.
Si l’IA peut être un atout permettant d’anticiper les transformations de l’appareil productif, elle ne peut pas servir de prétexte aux suppressions d’emplois et aux délocalisations. L’action internationale à mettre en œuvre sur l’IA doit être démocratique et viser des objectifs sociaux et environnementaux garantissant le bien-être humain.
Le recours à l’IA doit avoir pour finalité de répondre à l’intérêt général. Pour cela il doit résulter d’une décision éclairée, notamment par une recherche publique correctement financée. Les outils d’IA ayant une forte utilité sociale doivent être priorisés et le choix de déployer ou non un outil d’IA doit être fait en tenant compte des limites sociales et environnementales. La décision sur l’automatisation de certaines fonctions n’est pas qu’un choix technologique et doit être prise dans le cadre d’un débat démocratique.
Pour que la puissance publique française puisse assurer un contrôle démocratique sur la production d’IA et sa finalité, elle doit se donner les moyens d’investir dans un véritable pôle de développement de l’IA au service de l’intérêt général adossé à des outils garantissant sa souveraineté (cloud, laboratoires publics de recherche chargés du contrôle et de la mise à jour des outils). À ce titre, elle ne saurait placer la stratégie d’action sur l’IA uniquement entre les mains des grandes entreprises du numérique d’une part, et de start-up financées par des subventions publiques d’autre part, et dont la vocation est d’être rachetées par les premières. En miroir, pour garantir l’indépendance et l’efficacité de la recherche publique en matière d’IA, la puissance publique doit s’assurer qu’elle ne dépend pas des grandes entreprises du numérique. Pour cela, elle doit impulser une politique de recherche et développement et structurer de nouvelles filières du numérique en France et en Europe, en lien avec les travailleur·ses scientifiques et académiques, et au travers de coopérations internationales équilibrées et mutuellement avantageuses.
Le déploiement de l’IA par la puissance publique notamment dans les services publics ne peut se faire que dans un objectif d’intérêt général d’inclusion des citoyen·nes et usager·es du service public dans leur diversité, avec une garantie d’accès équitable aux technologies et le respect des droits de ces citoyen·nes et usager·es (confidentialité des données). La puissance publique doit en outre se donner les moyens d’assurer ses missions afin d’empêcher que les marchés privés ne se saisissent de l’opportunité de la faiblesse des financements des services publics universels pour les remplacer par des outils d’IA n’offrant pas les garanties précitées.
L’IA doit servir à renforcer la démocratie, pas à la détruire.
Les grandes entreprises du numérique doivent être placées sous contrôle démocratique.
L’utilisation des outils d’IA, par quelque acteur qu’il soit, ne saurait donner lieu à de l’incertitude informationnelle, à la manipulation des personnes, notamment sur les réseaux sociaux ou par la voie des médias. Chaque citoyen·ne doit bénéficier de la garantie de traçabilité des productions issues d’outils d’IA mises à sa disposition, afin d’en connaître la nature et les sources. Pour cela, chaque citoyen·ne doit pouvoir, dès son plus jeune âge, être éduqué·e sur cet outil et ses enjeux.
Les outils d’IA ne peuvent être utilisés contre les règles démocratiques et les libertés fondamentales. Cela concerne tout d’abord la liberté des citoyen·nes dans leur vie quotidienne (déplacements, achats, etc.) et dans leur travail (outils de politiques managériales). Cela concerne ensuite l’égalité des citoyen·nes dans leur accès à des services publics ou privés. Les outils d’IA doivent ainsi offrir des garanties d’absence de biais discriminatoires, notamment envers les femmes et tous les autres groupes sociaux discriminés. Cela concerne aussi la sécurité, l’IA doit servir la paix et le désarmement. Les armes létales autonomes doivent être interdites et l’être humain doit garder le contrôle.
Pour garantir le respect de ces principes, la puissance publique doit offrir des droits nouveaux aux citoyen·nes (droit à l’image, à la protection des données, à l’oubli, etc.), dont le respect sera contrôlé par des instances d’évaluation et de contrôle indépendantes suffisamment financées et dotées de pouvoirs de sanctions.
Les garanties démocratiques doivent porter sur les conditions sociales et environnementales de production de l’IA.
La production d’IA repose sur des ressources matérielles limitées (production d’électricité, de métaux, utilisation des sols, de l’eau) qui nécessitent de la transparence sur leur utilisation, mais aussi des critères et des instances démocratiques d’arbitrage permettant de régler les conflits d’usage.
S’agissant des ressources immatérielles (création et annotation des données, développements informatiques) : la transparence doit être faite sur les bases d’apprentissage et les réglages de l’IA qui doivent être ouverts et certifiés par des instances pluralistes, indépendantes et représentatives de la société civile, afin de garantir l’explicabilité, la fiabilité, et l’absence de biais systématiques de l’IA. Les données doivent être considérées comme un bien commun afin que les innovations qui découlent de leur utilisation bénéficient au plus grand nombre. Les utilisateur·ices de l’IA, travailleur·ses, citoyen·nes usager·es et client·es doivent être associé·es à l’élaboration et à l’adaptation de l’outil IA, informé·es sur l’usage de leurs données, mais aussi associé·es à ses gains financiers dès lors qu’elles et ils produisent et valorisent les données utilisées par l’outil IA.
Les garanties démocratiques doivent porter sur la nature et le volume des financements alloués à la production d’IA.
Sont concernés les financements privés qui ne sauraient uniquement être captés par les grandes entreprises du numérique qui influencent les marchés par leur comportement y compris pour déstabiliser des démocraties. Le recours à l’IA ne peut donner lieu à des démarches de spéculation sur les marchés.
Sont également concernés les financements publics alloués aux entreprises qui produisent ou déploient l’IA qui doivent être orientés vers des projets d’IA visant l’intérêt général. Ces financements dans leur diversité (aides directes, exonérations, exemptions fiscales et sociales, faibles taux fiscaux et sociaux, utilisation gratuite des ressources matérielles et immatérielles produites grâce aux investissements publics – éducation, recherche, infrastructures -, etc.) ne sauraient être versés sans expertise indépendante préalable, sans conditions sociales et environnementales, sans contreparties, sans transparence et sans contrôle et ce sur l’ensemble de la chaîne de production.
Sont enfin concernés les financements publics visant à la transformation numérique des services publics par l’introduction d’outils d’IA, qui ne sauraient se faire au détriment du maintien et du renforcement des ressources humaines et matérielles de ces services et des garanties d’accès des citoyen·nes usager·es de ceux-ci.
Les garanties démocratiques doivent être mises en œuvre à tous les niveaux de prise de décision : de la gouvernance internationale, à celle des entreprises, et jusqu’à l’expression citoyenne des individus. Elles impliquent des délibérations collectives, transparentes, s’appuyant sur l’expertise d’une recherche publique dont l’indépendance est garantie, et des moyens de contrôle du respect de ces garanties.
Pour la CGT l’action internationale sur l’IA dans le domaine du travail ne saurait se limiter à la création d’observatoires internationaux, à des « engagements » des grandes entreprises du numérique ou à des chartes non contraignantes. L’action internationale sur l’IA et le travail ne saurait non plus être traitée par une organisation internationale ad hoc dans laquelle les grandes entreprises du numérique auraient la part belle de la décision.
Pour la CGT l’action internationale sur l’IA dans le domaine du travail doit être traitée dans le cadre de gouvernance international le plus démocratique à l’heure actuelle : l’Organisation internationale du travail (OIT), organisation tripartite dans laquelle les organisations syndicales de travailleur·ses ont le même poids que les gouvernements et les organisations patronales. Les discussions qui débuteront en juin 2025 sur une norme internationale de l’OIT sur les travailleur·ses des plateformes que la CGT souhaite ambitieuse ne couvriront pas l’ensemble des dimensions de l’IA au travail et doivent dès lors donner lieu à une norme ad hoc qui couvrira tou·tes les travailleur·ses impliqué·es dans la chaîne de production de l’IA ou exposé·es à cet outil.
Pour la CGT la régulation de l’IA doit être menée dans les cadres multilatéraux du système de l’Organisation des nations unies (ONU).
Le sommet pour l’action sur l’IA en France doit conduire les États présents à s’engager à lancer des travaux visant à la signature d’une convention de l’OIT sur l’IA.
Le sommet pour l’action sur l’IA en France doit conduire la Commission européenne et les États membres de l’Union européenne à s’engager à lancer des travaux visant à la construction d’une directive européenne sur l’IA.
Pour la CGT l’action internationale sur l’IA doit donner lieu à des engagements en faveur des travailleur·ses
Chaque travailleur·se doit être protégé·e dans toutes les dimensions de sa vie.
Dans ses conditions de travail d’une part, il ou elle doit pouvoir bénéficier d’une prévention efficace des risques professionnels associés à l’IA et de nouveaux droits lui permettant de protéger sa santé physique et mentale en cas de danger : un droit à la formation sur l’IA, un droit à la protection contre la surveillance algorithmique, un droit à être associé·e à l’élaboration et à l’adaptation de l’outil IA, un droit à garder la maîtrise des décisions et de pouvoir à tout moment reprendre la main sur l’outil IA, un droit à l’information sur l’exploitation des données créées par les travailleur·ses et de propriété intellectuelle sur celles-ci, un droit de retrait d’une situation de travail dangereuse, un droit de refus et de proposition alternative.
Dans ses conditions de vie d’autre part, il ou elle doit pouvoir bénéficier d’une sécurité sociale professionnelle lui garantissant un droit à l’emploi et à la protection contre le chômage, un droit à la formation professionnelle, un droit au salaire et à la continuité de revenu, un droit à la protection de sa qualification et à l’évolution de carrière.
Par l’intermédiaire des représentant·es syndicaux·les, les travailleur·ses doivent pouvoir bénéficier de droits collectifs leur permettant de défendre leurs intérêts en cas de déploiement et d’usage de l’IA.
Les employeurs doivent être soumis à de nouvelles obligations dans les entreprises, les services publics, dans les territoires et les filières professionnelles : obligation d’évaluer et de prévenir l’ensemble des risques professionnels induits par l’IA, obligation de former les travailleur·ses à l’outil IA et à leurs droits, obligation de négocier et d’informer et consulter sur le déploiement de l’IA et notamment sur le partage des gains financiers qui en résultent, obligation de respecter la transparence permanente sur les décisions et processus mis en œuvre en lien avec l’IA, obligation de prendre en compte la prévention des biais discriminatoires dans la conception et l’utilisation des outils d’IA.
Les représentant·es syndicaux·les des travailleur·ses doivent être doté·es de droits nouveaux dans les entreprises, les services publics, dans les territoires et les filières professionnelles : droit à être formé·es sur les enjeux relatifs à l’IA, droit d’accès à une information transparente sur le déploiement de l’IA et ses effets sur les dimensions de la vie au travail des travailleur·ses, droit de veto et de proposition alternative sur la stratégie de l’employeur en matière d’IA et sur le réglage de l’outil IA déployé dans le travail, droit à l’expertise antérieure et postérieure au déploiement de l’outil IA au travail.
Afin que les travailleur·ses et leurs représentant·es syndicaux·les puissent faire valoir leurs droits ils et elles doivent être aidé·es par des structures publiques indépendantes dotées de moyens techniques et humains garantissant l’efficacité de leur mission, y compris dans le cadre d’une collaboration internationale visant l’intérêt général. Parmi ces structures, certaines doivent être chargées du contrôle et des sanctions des employeurs (inspections du travail et autres services de contrôle du respect des droits notamment humains liés à l’utilisation des données). D’autres doivent être chargées des études sur les effets de la production et de l’utilisation de l’IA sur la démocratie et l’information, l’environnement, l’emploi, les conditions de travail, l’égalité et l’accès aux services publics, etc.
La production d’IA repose entièrement sur le travail humain. Les richesses qui en sont issues doivent dès lors être redistribuées aux travailleur·ses par le salaire et/ou le versement de droits d’auteur·ices et de droits voisins – y compris via le financement, par les cotisations sociales de la sécurité sociale professionnelle –, la réduction du temps de travail et la formation tout au long de la vie.
Lors de ce sommet les intérêts matériels et moraux des travailleur·ses du monde entier devront être entendus afin que l’IA demeure un outil au service de l’humain.
Le sommet pour l’action sur l’IA en France doit conduire les acteur·ices présent·es à s’engager à défendre les droits des travailleur·ses, et non ceux exclusifs des grandes entreprises du numérique, en ce qui concerne le déploiement de l’IA.
Le Sommet pour l’action sur l’IA doit donner lieu à des annonces par le gouvernement français de garanties de subvention pérenne de l’Institut de recherches économiques et sociales (Ires) en matière de recherche sur l’IA afin que le monde du travail puisse être éclairé par des expert·es académiques indépendant·es.