IA générative : quels impacts et quelles solutions ? Le replay

Written by Valentina Zajackowski


L’intelligence artificielle générative n’est pas une révolution abstraite. Derrière chaque requête envoyée à un modèle comme ChatGPT se cachent des data centers de plus en plus gigantesques, une consommation énergétique en forte croissance ainsi que des impacts sociaux et psychosociaux. Ignorer ces réalités expose l’entreprise à des risques opérationnels, réputationnels et humains bien concrets.

Afin de comprendre les ordres de grandeur et identifier des leviers d’action, nous avons organisé un webinaire avec Théo Alves Da Costa, Partner AI & Sustainability chez Ekimetrics, président de Data For Good et membre du comité d’experts IA du prochain rapport du GIEC. Pendant plus d’une heure, il a répondu aux questions de Laurence Mijoin-Duroche, responsable contenu de Climate Brief. Voici les enseignements clés de cet échange.

Une infrastructure aux impacts environnementaux croissants

Les nouveaux modèles d’IA, incluant l’IA générative, reposent sur des data centers dont la taille et les besoins énergétiques n’ont plus rien à voir avec ce qu’on connaissait il y a quelques années. Là où un centre de données classique consommait quelques dizaines de mégawatts, les infrastructures dédiées à l’IA atteignent désormais plusieurs gigawatts, et certains projets en cours aux États-Unis atteignent la consommation électrique d’une centrale nucléaire.

Pour répondre à cette demande dans des délais très courts, nombre d’opérateurs ont recours à des énergies fossiles locales, mettant en péril les objectifs climatiques des pays concernés.

Pour les équipes RSE, cela signifie une chose concrète : l’empreinte carbone de vos usages IA appartient à votre scope 3, et elle mérite d’être mesurée.

Des impacts sociaux et cognitifs que l’entreprise ne peut pas ignorer

Derrière les modèles d’IA, des travailleurs, souvent localisés dans les pays du Sud, annotent, corrigent et filtrent des données en masse, parfois dans des conditions éprouvantes. Ce « travail invisible » est une réalité documentée, impliquant entre 150 et 400 millions de personnes dans le monde.

Côté usages, les risques psychosociaux montent en puissance : hausse du stress, peur d’être remplacé ou de voir son métier disparaître, intensification du travail, attachement parasocial aux outils d’IA. Des millions de conversations portant sur des sujets intimes ou thérapeutiques transitent chaque semaine par ces plateformes, sans encadrement adapté.

Vers un usage plus sobre et plus stratégique en entreprise

Face à ces enjeux, la réponse n’est ni le rejet, ni l’adoption aveugle. La priorité est de construire une stratégie IA responsable, l’équivalent d’une stratégie RSE appliquée aux usages de l’intelligence artificielle.

Cela passe d’abord par une cartographie des usages et des risques, puis par l’intégration de critères environnementaux et sociaux dans les appels d’offres adressés aux fournisseurs de solutions IA.

Raisonner par objectif métier plutôt que par effet de mode permet non seulement de réduire l’empreinte des usages, mais aussi d’en tirer de véritables gains de productivité. Des alternatives plus sobres existent : des modèles plus légers, des hébergements en France où le mix électrique est bas carbone, et à condition de les évaluer avec rigueur.

L’enjeu n’est pas de ralentir la transformation numérique, mais de la déployer en étant conscient de ses impacts afin de l’aligner avec les valeurs de son organisation.

Voir le replay

Cet article ne couvre qu’une partie des échanges entre Théo Alves Da Costa et Laurence Mijoin-Duroche. Pour aller plus loin, nous vous invitons à visionner le replay complet du webinaire, riche en exemples concrets, en données chiffrées et en recommandations directement actionnables pour votre entreprise.

Pour aller plus loin