
GenAI Impact, le making of
Table des matiĂšres
L’impact planĂ©taire de lâutilisation de lâIntelligence Artificielle gĂ©nĂ©rative reste une zone dâombre considĂ©rable, malgrĂ© â ou peut-ĂȘtre Ă cause de â lâincroyable rapiditĂ© de son adoption par le grand public. Pour y remĂ©dier, une centaine de bĂ©nĂ©voles de lâONG Data For Good for se sont rassemblĂ©s sous la banniĂšre âGenAI Impactâ. DĂ©couvrons comment !
Que sait-on aujourdâhui de lâimpact du numĂ©rique ? Il reprĂ©sente 4 % des Ă©missions mondiales (2,5 % en France, en raison de son Ă©nergie peu carbonĂ©e), plus que lâaviation civile, et est en augmentation rapide : +60 % dâici 2040 si rien ne change (source: ADEME/Arcep ).
Mais tous ces calculs datent dâavant lâĂ©vĂ©nement tech qui aura tout changĂ©, fin 2022 : lâarrivĂ©e de ChatGPT. Lâapplication phare dâOpenAI a basculĂ© lâhumanitĂ© dans lâĂšre de lâIA gĂ©nĂ©rative (GenAI) suite Ă son adoption par des centaines de millions dâutilisateurs en un temps record. Mais quel est le retour de bĂąton ?
Alors que ce revers existe bel et bien. Nous savons, par exemple, que les processeurs GPU utilisĂ©s pour les calculs de lâIA gĂ©nĂ©rative, ou GenAI peuvent consommer entre trois et cinq fois que des processeurs CPU capables de faire certaines des mĂȘmes tĂąches (source: Ampere Computing ). Et que ces mĂȘmes GPUs chauffent 2.5 fois plus que des CPUs comparables (source: donnĂ©es fabricants). Câest donc un double effet kiss cool qui suggĂšre un impact bien plus important que celui des systĂšmes IT pre-GenAI.
Autre arbre qui cache la forĂȘt : dans les dĂ©bats publics, on ne parle que de lâimpact de lâentraĂźnement des modĂšles de GenAI. Ă tel point que des dĂ©cideurs, dont une ancienne SecrĂ©taire dâEtat chargĂ©e du numĂ©rique, dĂ©clarent publiquement que les modĂšles de GenAI gĂ©nĂšrent le plus dâĂ©missions au moment de leur formation.
Or câest faux. LĂ oĂč les Ă©tudes disponibles ne regardaient que lâentraĂźnement des modĂšles, le livre blanc de Data for Good âLes Grands dĂ©fis de lâIA gĂ©nĂ©rative â dĂ©montre que lâinfĂ©rence dâun modĂšle GenAI, câest-Ă -dire son utilisation, peut gĂ©nĂ©rer plus de 200 fois plus dâĂ©missions par an que lâĂ©tape de son entraĂźnement. Surtout sâil sâagit dâun modĂšle aussi largement utilisĂ© que GPT 3.5, le modĂšle derriĂšre ChatGPT.
Dans ce contexte, naĂźt le projet âGenAI Impact â, extension des travaux du livre blanc. Samuel RincĂ© , co-auteur et Lead AI Engineer chez Alygne, mĂšne le projet avec le soutien de plusieurs dizaines de bĂ©nĂ©voles de Data For Good. Lâobjectif ? Explorer les implications complĂštes de l’IA gĂ©nĂ©rative, y compris ses effets rebond sur la sociĂ©tĂ©, comme l’augmentation de la production de logiciels et de la consommation associĂ©e : âCopilot est de plus en plus utilisĂ©, ce qui booste les performances du dĂ©veloppeur : on produit plus de code, et plus de software quâavant ; or le software a un impact. On fait de lâefficience partout, donc on produit plus, on consomme plus, partout.â
Comment le projet arrive-t-il Ă Ă©valuer lâimpact de la GenAI, concrĂštement parlant, et ensuite Ă les rĂ©duire ? Cela passe par deux chantiers.
Dâabord, la partie ModĂ©lisation vise Ă rĂ©pondre Ă la question âcomment Ă©valuer les impacts directs de lâinfĂ©rence des modĂšles GenAI ?â
Pour ce faire, lâĂ©quipe du projet sâappuiera sur des donnĂ©es ouvertes disponibles Ă propos dâun certain nombre de modĂšles, via les outils LLM-Perf Leaderboard (Hugging Face) et ML.energy . Ensuite, un benchmark par requĂȘte permettra dâestimer la consommation Ă©nergĂ©tique et les impacts des modĂšles. Ainsi, “si je fais une demande Ă un modĂšle de langage et qu’il gĂ©nĂšre un texte d’une certaine longueur, c’est-Ă -dire un nombre de tokens, je peux estimer combien d’Ă©nergie le Large Langage Model (LLM) a consommĂ©”,â explique Samuel RincĂ©. DonnĂ©es qui sont ensuite vĂ©rifiĂ©es par une phase de peer review.
La partie ModĂ©lisation ira plus loin que les Ă©tudes existantes en regardant des modĂšles GenAI âSparse Mixture of Expertsâ, comme Mixtral de Mistral AI, qui vont en gĂ©nĂ©ral jusquâĂ 70 milliards de paramĂštres, ainsi que des modĂšles plus gros, comme Command R+ de Cohere (104 milliards de paramĂštres).
Pour les premiers, lâobjectif sera dâĂ©valuer les impacts de ces modĂšles qui nâutilisent quâune partie de leur capacitĂ© de calcul maximale, ce qui ajoute un facteur de variabilitĂ© non-nĂ©gligeable. On soupçonne GPT-4 dâĂȘtre un modĂšle sparse mixture of experts de 1700 milliards de paramĂštres qui nâactive quâune portion de ces paramĂštres par infĂ©rence.
Pour les plus gros modĂšles ouverts, le dĂ©fi consistera Ă Ă©valuer leur impact Ă travers les multiples GPUs sur lesquels ils sont dĂ©ployĂ©s, lĂ oĂč de plus petits modĂšles nâen utilisent quâun seul, prĂ©cise Samuel RincĂ©. Ce type de test âpermettra de confirmer que notre loi fonctionne (aussi) pour de trĂšs gros modĂšlesâ.
Le projet GenAI Impact ira Ă©galement plus loin que dâautres Ă©tudes en prenant en compte la consommation Ă©nergĂ©tique des serveurs contenant ces fameux GPUs, ainsi que leurs impacts sur leur cycle de vie, en sâappuyant sur la base de rĂ©fĂ©rence en la matiĂšre, créée par lâassociation Boavizta , Ă laquelle Samuel RincĂ© contribue Ă©galement.
Enfin, il ne faut pas se limiter aux Ă©missions : les impacts sont multiples, et donc les critĂšres de mesure le sont aussi. Comptent Ă©galement, par exemple, lâĂ©nergie primaire, la consommation de ressources comme les composants du hardware IT, et lâeau utilisĂ©e par les datacenters contenant les supercomputers IA (une conversation avec ChatGPT peut consommer un demi-litre dâeau en besoins de refroidissement des serveurs, pour rappel ).
Tout ce travail ne servira Ă©videmment Ă rien sâil reste dans son coin. DâoĂč lâautre chantier, de Sensibilisation, qui vise Ă faire savoir les trouvailles mĂ©thodologiques du projet. Comment ? En passant par la communautĂ© des dĂ©veloppeurs.
Si dâautres leviers ont Ă©tĂ© considĂ©rĂ©s par le groupe de travail - dont un plug-in pour navigateur web qui afficherait les Ă©missions de lâutilisation de ChatGPT en temps rĂ©el, ou un storytelling autour du sujet âGenAI Impactâ - ces derniers ont Ă©tĂ© temporairement mis de cĂŽtĂ© Ă la faveur dâune librairie Python dĂ©nommĂ©e EcoLogits , un package Ă mettre Ă disposition des dĂ©veloppeurs et organisations sensibles Ă la thĂ©matique.
Pourquoi ? âCela permet de toucher les organisations dâabord, indirectement, et de dĂ©cupler les impacts par la suite,â explique Samuel RincĂ©, esquissant un rĂ©sultat hypothĂ©tique : âsi on pense au chatbot de service aprĂšs-vente, on pourrait limiter ses Ă©missions Ă un certain niveau, pour quâil passe la main Ă un humain au bout dâun certain nombre de mauvaises rĂ©ponses [afin de ne pas trop Ă©mettre pour rien].â
Plus concrĂštement, dans le contexte actuel, oĂč peu de dĂ©veloppeurs sont incentivĂ©s pour rĂ©duire les Ă©missions gĂ©nĂ©rĂ©es par leur travail, la librairie Python leur permettrait de dĂ©montrer cet impact de la façon la plus simple et rapide possible. Or, ces outils nâexistaient pas avant.
GrĂące au travail du groupe GenAI Impact, un dĂ©veloppeur pourrait, par exemple, combiner des donnĂ©es EcoLogits et CodeCarbon - autre librairie open source, qui estime les Ă©missions gĂ©nĂ©rĂ©es par lâexĂ©cution du code - dans ses dashboards habituels. Ainsi, les Ă©missions dâun modĂšle deviennent une mĂ©trique Ă suivre comme une autre. Ensuite, il serait possible de recommander un modĂšle GenAI plutĂŽt quâun autre parce quâil Ă©met moins Ă performance Ă©gale. âOn aura de nouveaux arbitrages Ă faireâ grĂące au projet, promet Samuel RincĂ©.
Comment saura-t-on si le projet aura âfonctionnĂ©â ? Le premier but serait lâacceptation de la librairie Python par une communautĂ© de dĂ©veloppeurs suffisamment importante pour quâelle soit maintenue dans la durĂ©e comme projet open source par une Ă©quipe âcoreâ de quelques dĂ©veloppeurs. Câest cette maintenance Ă long terme qui attestera de la qualitĂ© du travail, et donc qui incitera plus de dĂ©veloppeurs Ă utiliser la librairie.
Par la suite, il faudra notamment sâassurer que le package sâintĂšgre bien dans lâĂ©cosystĂšme DevOps du moment ; que lâon puisse y ajouter dâautres modalitĂ©s si besoin (ex. gĂ©nĂ©ration dâimages) ; et que tous les crĂ©ateurs de modĂšles GenAI (OpenAI, Anthropic, Mistral et compagnie) soient couverts par la librairie.
Ă lâavenir, prĂ©cise Caroline Jean-Pierre , Cheffe de Projet chez Data for Good, il pourra y avoir dâautres chantiers, par exemple âsensibiliser le grand public via la communication, amĂ©liorer les mĂ©thodologies dâĂ©valuation des impacts, ou pourquoi pas lâinternationalisation du projet ?â
De lĂ Ă influencer de futures lĂ©gislations - mĂȘme si ce nâest pas le but premier du projet - il nây a quâun pas !
Auteur : James Martin
Révisions et corrections : Claire SAIGNOL , Andrea Leylavergne
Remerciements : Samuel Rincé , Caroline Jean-Pierre , Clément Collignon

