fr en es pt
astronomie
 
Contacter l'auteur rss astronoo
 
 


Mise à jour 09 avril 2024

Intelligence artificielle : l'explosion du gigantisme

Gigantisme pour intelligence artificielle

Description de l'image : Intelligence artificielle - l'explosion du gigantisme.
Emporté par son succès, ce grand saut qualitatif se fait au prix d'une débauche d'énergie colossale.
Cette image a été générée par une intelligence artificielle.

IA : Des chiffres qui donnent le vertige !

Le traitement du langage naturel (NLP), propulsé par la brique "Transformer", est à l'origine du grand succès de l'intelligence artificielle. Cependant, d'autres facteurs ont permis l'émergence de l'IA, en particulier la disponibilité croissante des données, la puissance de stockage des datacenters et l'augmentation exponentielle de la puissance de calcul. En effet, le développement et l'utilisation croissante des IA s'accompagne d'une demande croissante de données, de capacité de stockage et de puissance de calcul.
Emporté par son succès, ce grand saut qualitatif se fait au prix d'une débauche d'énergie colossale.

• La première source de ce gigantisme réside dans l'explosion des données disponibles.
L'essor des technologies Internet génère un volume de données dont la croissance est exponentielle.

La taille gigantesque et la croissance des données internet donnent le vertige.
Le chiffre est tellement grand que les estimations sont impossibles ou très imprécises.
Selon certains rapports (Google Cloud Platform, AWS, Microsoft Azure, IDC, Gartner, Forrester Research, et d'autres), la quantité de données stockées sur Internet en 2020 se situait quelque part entre 40 et 50 zettabytes (1 byte est synonyme de 1 caractère ou de 1 octet). En 2021, elle était d'environ 60 à 70 zettabytes. En 2025, le chiffre probable se situe autour de 180 zettabytes. Cette quantité représente 180 milliards de disques SSD de 1 téraoctets (To). Le térabyte est devenu la taille de stockage des supports de données que nous utilisons au quotidien.

* 1 zettaoctets (Zo) = 10^21 octets, ce qui équivaut à 1 000 exaoctets ou 1 000 000 pétaoctets (Po) ou 1 000 000 000 téraoctets (To).

En 2024, L'estimation de la quantité de données internet générée chaque jour varie selon les sources, mais elle se situe généralement autour de 3,5 exabytes. Pour mettre en perspective cette quantité quotidienne de données (3.5 x 10^18 octets), on peut la comparer à 625 000 000 films HD de 2 heures (≈ 4 Go de données).

Selon une étude menée par Digital Universe, la datasphère double environ tous les deux ans.

Power Symbol Power Symbol
10^0 1 10^1 da (deca)
10^2 h (hecto) 10^3 k (kilo)
10^6 M (mega) 10^9 G (giga)
10^12 T (tera) 10^15 P (peta)
10^18 E (exa) 10^21 Z (zetta)
10^24 Y (yotta) 10^27 R (ronna)
10^30 Q (quetta)

• La deuxième source de ce gigantisme réside dans les datacenters hyperscale (les plus grands centres de données du monde).
La capacité de stockage la plus importante est concentrée principalement chez les grands acteurs comme Amazon Web Services, Microsoft Azure, Google Cloud, Meta Platforms, Equinix, Digital Realty.
Selon le rapport d'Omdia, il y a environ 8,6 millions de datacenters dans le monde en 2024.
Parmi ceux-ci, environ 600 000 sont des datacenters hyperscale appartenant à des géants du cloud comme Amazon, Microsoft et Google. Bien que dificile à estimer, il est probable que la capacité mondiale de stockage de données double tous les deux ans.

Le fonctionnement des datacenters consomme beaucoup d'énergie et la croissance du stockage pourrait mettre à rude épreuve les réseaux électriques. D'ici 2025, la consommation électrique des centres de données devrait atteindre 2 % de la consommation électrique mondiale.

• La troisième source de ce gigantisme réside dans la puissance de calcul des machines, mesurée en FLOPs (Floating-point Operations Per Second).

En 2024, les processeurs (CPU) peuvent atteindre une puissance de calcul de 1228 GFLOPs, soit environ 1 téraflops comme le processeur Intel Core i9-13900K.
Les coprocesseurs graphiques sont encore plus puissants pour réaliser des tâches spécifiques ou des calculs mathématiques. Ces accélérateurs matériels (GPU, FPGA) peuvent atteindre une puissance de calcul de 100 téraflops, comme la carte NVIDIA GeForce RTX 4090 Ti qui fonctionne avec 18 176 cœurs.

C'est la raison pour laquelle les superordinateurs les plus rapides du monde exploitent à la fois, la puissance de traitement des CPUs associée à celle des GPUs. Ainsi, les supercalculateurs ont atteint une puissance pétaflopique (plusieurs millions de milliards d'opérations par seconde).

En 2024, le Frontier de HPE aux États-Unis, a atteint la puissance exaflopique.
* 1 exaflops est égal à un milliard de milliards d'opérations par seconde.

Une croissance exponentielle ne peut pas durer très longtemps !


1997 © Astronoo.com − Astronomie, Astrophysique, Évolution et Écologie.
"Les données disponibles sur ce site peuvent être utilisées à condition que la source soit dûment mentionnée."