ChatGPT n'est pas responsable des incendies de Los Angeles, mais il utilise une quantité folle d'eau

Alors que les incendies de Los Angeles font rage, déplaçant près de 180 000 personnes et détruisant plus de 9 000 bâtiments, de nombreux utilisateurs des réseaux sociaux ont pointé du doigt une cible inhabituelle : ChatGPT.

ChatGPT et d’autres modèles d’IA ont une empreinte carbone massive, qui contribue au changement climatique. Le changement climatique est responsable de conditions plus sèches et de températures plus élevées, ce qui crée à son tour un environnement idéal pour que les incendies de forêt se déclenchent et se propagent lorsqu'ils sont attisés par des vents violents.

VOIR AUSSI :

La destruction des incendies de forêt de Los Angeles illustrée par des images satellite

D’une certaine manière, ChatGPT fait partie du problème en contribuant au changement climatique. Mais non, ChatGPT n’a pas déclenché l’incendie, et ce n’est pas la raison pour laquelle la ville a manqué d’eau.

Martin Adams, ancien directeur général du Département de l'eau et de l'électricité de Los Angeles, a déclaré au Los Angeles Times“Le [water] Le système n'a jamais été conçu pour lutter contre un incendie de forêt qui enveloppe ensuite une communauté. » Les pompiers ont manqué d'eau parce que le système n'a pas été conçu pour pomper autant d'eau sur une période de temps prolongée, et non parce qu'elle a été détournée par des centres de données.

La conversation en ligne reliant ChatGPT aux incendies de forêt de Los Angeles n’a jamais eu pour but d’accuser littéralement les modèles d’IA d’avoir déclenché des incendies. Au lieu de cela, elle a lié la pertinence du temps réel à un problème croissant qui est l’impact de l’IA sur l’environnement.

« Nous n’avons pas besoin de « l’art » de l’IA. Nous n'avons pas besoin de listes d'épicerie IA. Nous n'avons pas besoin de voitures autonomes IA. Nous n'avons pas besoin de ChatGPT, de Gemini, de Grok ou de DALL-E ou de toute autre technologie « révolutionnaire » existant déjà dans notre propre cerveau humain. la terre”, a écrit le maquilleur et activiste Matt Bernstein dans une publication Instagram qui a reçu près de 500 000 likes.

Vitesse de la lumière écrasable

Alors, quelle quantité d’eau ChatGPT utilise-t-il ?

Les entreprises technologiques comme Google, Microsoft et OpenAI restent évasives quant à leur consommation d’énergie. Mais la consommation d’eau est accessible via les registres publics et estimée grâce aux calculs des chercheurs. Une enquête menée en 2023 par Associated Press a découvert que les centres de données Microsoft de Des Moines, dans l'Iowa, utilisés pour former le GPT-4 d'OpenAI, avaient besoin de 11,5 millions de gallons d'eau pour refroidir ses serveurs, soit 6 % de l'approvisionnement total en eau du district.

Une étude récente de Le Washington Post et l'Université de Californie à Riverside ont découvert qu'un e-mail de 100 mots généré par ChatGPT nécessite à peu près l'équivalent d'une bouteille d'eau, soit 519 millilitres. L'utilisation de ChatGPT une fois par semaine pendant un an par 16 millions de personnes utilise 435 235 476 litres d'eau.

Bref, ça fait beaucoup d'eau. Et la soif de l’IA ne ralentira pas de si tôt. Une étude réalisée en 2023 par l’UC Riverside estime que l’IA pourrait consommer entre 4,2 et 6,6 milliards de mètres cubes d’eau en 2027, soit plus que le prélèvement d’eau annuel de la moitié du Royaume-Uni.

Qu’en est-il du reste de la consommation énergétique de ChatGPT ?

Dans la publication virale de Bernstein sur Instagram, il a écrit : « Une recherche sur ChatGPT utilise 10 fois plus d'énergie qu'une recherche Google. La formation d'un modèle d'IA produit la même quantité de dioxyde de carbone que 300 vols aller-retour entre New York et San Francisco et cinq fois les émissions à vie d'une voiture.

Ces résultats proviennent d’une étude réalisée en 2019 par l’Université du Massachusetts à Amherst quantifiant le coût environnemental du GPT-2, qui était l’un des premiers modèles d’IA d’OpenAI. Et l'utilisation de ChatGPT a explosé depuis lors, avec 300 utilisateurs actifs hebdomadaires selon les propres rapports d'OpenAI en décembre 2024.

En termes de consommation d'électricité nécessaire pour soutenir sa puissance de calcul massive, Sajjad Moazeni, professeur adjoint de génie électrique et informatique à l'Université de Washington, estime l'utilisation de ChatGPT à 1 gigawatt par heure (GWh) par jour, “ce qui équivaut à l'énergie quotidienne consommation d'environ 33 000 foyers américains.

ChatGPT n'est pas directement responsable des incendies de Los Angeles, mais être témoin des ravages en temps réel apporte une réalité viscérale au coût environnemental de l'utilisation de l'IA pour rédiger un e-mail.

Et si vous souhaitez aider mais ne savez pas par où commencer, le Los Angeles Times a un excellent guide ici.


rewrite this content and keep HTML tags

Alors que les incendies de Los Angeles font rage, déplaçant près de 180 000 personnes et détruisant plus de 9 000 bâtiments, de nombreux utilisateurs des réseaux sociaux ont pointé du doigt une cible inhabituelle : ChatGPT.

ChatGPT et d’autres modèles d’IA ont une empreinte carbone massive, qui contribue au changement climatique. Le changement climatique est responsable de conditions plus sèches et de températures plus élevées, ce qui crée à son tour un environnement idéal pour que les incendies de forêt se déclenchent et se propagent lorsqu'ils sont attisés par des vents violents.

VOIR AUSSI :

La destruction des incendies de forêt de Los Angeles illustrée par des images satellite

D’une certaine manière, ChatGPT fait partie du problème en contribuant au changement climatique. Mais non, ChatGPT n’a pas déclenché l’incendie, et ce n’est pas la raison pour laquelle la ville a manqué d’eau.

Martin Adams, ancien directeur général du Département de l'eau et de l'électricité de Los Angeles, a déclaré au Los Angeles Times“Le [water] Le système n'a jamais été conçu pour lutter contre un incendie de forêt qui enveloppe ensuite une communauté. » Les pompiers ont manqué d'eau parce que le système n'a pas été conçu pour pomper autant d'eau sur une période de temps prolongée, et non parce qu'elle a été détournée par des centres de données.

La conversation en ligne reliant ChatGPT aux incendies de forêt de Los Angeles n’a jamais eu pour but d’accuser littéralement les modèles d’IA d’avoir déclenché des incendies. Au lieu de cela, elle a lié la pertinence du temps réel à un problème croissant qui est l’impact de l’IA sur l’environnement.

« Nous n’avons pas besoin de « l’art » de l’IA. Nous n'avons pas besoin de listes d'épicerie IA. Nous n'avons pas besoin de voitures autonomes IA. Nous n'avons pas besoin de ChatGPT, de Gemini, de Grok ou de DALL-E ou de toute autre technologie « révolutionnaire » existant déjà dans notre propre cerveau humain. la terre”, a écrit le maquilleur et activiste Matt Bernstein dans une publication Instagram qui a reçu près de 500 000 likes.

Vitesse de la lumière écrasable

Alors, quelle quantité d’eau ChatGPT utilise-t-il ?

Les entreprises technologiques comme Google, Microsoft et OpenAI restent évasives quant à leur consommation d’énergie. Mais la consommation d’eau est accessible via les registres publics et estimée grâce aux calculs des chercheurs. Une enquête menée en 2023 par Associated Press a découvert que les centres de données Microsoft de Des Moines, dans l'Iowa, utilisés pour former le GPT-4 d'OpenAI, avaient besoin de 11,5 millions de gallons d'eau pour refroidir ses serveurs, soit 6 % de l'approvisionnement total en eau du district.

Une étude récente de Le Washington Post et l'Université de Californie à Riverside ont découvert qu'un e-mail de 100 mots généré par ChatGPT nécessite à peu près l'équivalent d'une bouteille d'eau, soit 519 millilitres. L'utilisation de ChatGPT une fois par semaine pendant un an par 16 millions de personnes utilise 435 235 476 litres d'eau.

Bref, ça fait beaucoup d'eau. Et la soif de l’IA ne ralentira pas de si tôt. Une étude réalisée en 2023 par l’UC Riverside estime que l’IA pourrait consommer entre 4,2 et 6,6 milliards de mètres cubes d’eau en 2027, soit plus que le prélèvement d’eau annuel de la moitié du Royaume-Uni.

Qu’en est-il du reste de la consommation énergétique de ChatGPT ?

Dans la publication virale de Bernstein sur Instagram, il a écrit : « Une recherche sur ChatGPT utilise 10 fois plus d'énergie qu'une recherche Google. La formation d'un modèle d'IA produit la même quantité de dioxyde de carbone que 300 vols aller-retour entre New York et San Francisco et cinq fois les émissions à vie d'une voiture.

Ces résultats proviennent d’une étude réalisée en 2019 par l’Université du Massachusetts à Amherst quantifiant le coût environnemental du GPT-2, qui était l’un des premiers modèles d’IA d’OpenAI. Et l'utilisation de ChatGPT a explosé depuis lors, avec 300 utilisateurs actifs hebdomadaires selon les propres rapports d'OpenAI en décembre 2024.

En termes de consommation d'électricité nécessaire pour soutenir sa puissance de calcul massive, Sajjad Moazeni, professeur adjoint de génie électrique et informatique à l'Université de Washington, estime l'utilisation de ChatGPT à 1 gigawatt par heure (GWh) par jour, “ce qui équivaut à l'énergie quotidienne consommation d'environ 33 000 foyers américains.

ChatGPT n'est pas directement responsable des incendies de Los Angeles, mais être témoin des ravages en temps réel apporte une réalité viscérale au coût environnemental de l'utilisation de l'IA pour rédiger un e-mail.

Et si vous souhaitez aider mais ne savez pas par où commencer, le Los Angeles Times a un excellent guide ici.

Laisser un commentaire

WP Twitter Auto Publish Powered By : XYZScripts.com