Descrição da imagem: Inteligência artificial – A explosão do gigantismo.
Levado pelo seu sucesso, este grande salto de qualidade ocorre ao custo de uma explosão colossal de energia.
Esta imagem foi gerada por inteligência artificial.
O processamento de linguagem natural (PNL), alimentado pelo bloco “Transformer”, está na origem do grande sucesso da inteligência artificial. No entanto, outros fatores permitiram o surgimento da IA, nomeadamente a crescente disponibilidade de dados, o poder de armazenamento dos data centers e o aumento exponencial do poder computacional. Na verdade, o desenvolvimento e a utilização crescente da IA são acompanhados por uma procura crescente de dados, capacidade de armazenamento e poder computacional.
Levado pelo seu sucesso, este grande salto de qualidade ocorre ao custo de uma explosão colossal de energia.
• A primeira fonte deste gigantismo reside na explosão de dados disponíveis.
A ascensão das tecnologias da Internet gera um volume de dados que cresce exponencialmente.
O tamanho gigantesco e o crescimento dos dados da Internet são estonteantes.
O número é tão grande que as estimativas são impossíveis ou muito imprecisas.
De acordo com alguns relatórios (Google Cloud Platform, AWS, Microsoft Azure, IDC, Gartner, Forrester Research e outros), a quantidade de dados armazenados na Internet em 2020 estava entre 40 e 50 zetabytes (1 byte é sinônimo de 1 caractere ou 1 byte). Em 2021, era cerca de 60 a 70 zetabytes. Em 2025, o número provável é de cerca de 180 zetabytes. Essa quantidade representa 180 bilhões de SSDs de 1 terabyte (TB). O terabyte tornou-se o tamanho de armazenamento da mídia de dados que usamos todos os dias.
* 1 zetabytes (ZB) = 10 ^ 21 bytes, o que equivale a 1.000 exabytes ou 1.000.000 petabytes (PB) ou 1.000.000.000 terabytes (TB).
Em 2024, a estimativa da quantidade de dados de Internet gerados diariamente varia de acordo com a fonte, mas geralmente gira em torno de 3,5 exabytes. Para colocar essa quantidade diária de dados (3,5 x 10 ^ 18 bytes) em perspectiva, podemos compará-la a 625 milhões de filmes HD de 2 horas (~ 4 GB de dados).
De acordo com um estudo realizado pela Digital Universe, a esfera de dados duplica aproximadamente a cada dois anos.
Power | Symbol | Power | Symbol |
10^0 | 1 | 10^1 | da (deca) |
10^2 | h (hecto) | 10^3 | k (kilo) |
10^6 | M (mega) | 10^9 | G (giga) |
10^12 | T (tera) | 10^15 | P (peta) |
10^18 | E (exa) | 10^21 | Z (zetta) |
10^24 | Y (yotta) | 10^27 | R (ronna) |
10^30 | Q (quetta) |
• A segunda fonte deste gigantismo reside nos data centers de hiperescala (os maiores data centers do mundo).
A maior capacidade de armazenamento está concentrada principalmente entre grandes players como Amazon Web Services, Microsoft Azure, Google Cloud, Meta Platforms, Equinix, Digital Realty.
De acordo com o relatório da Omdia, existem aproximadamente 8,6 milhões de data centers em todo o mundo em 2024.
Destes, cerca de 600.000 são data centers em hiperescala pertencentes a gigantes da nuvem como Amazon, Microsoft e Google. Embora seja difícil estimar, é provável que a capacidade global de armazenamento de dados duplique a cada dois anos.
A operação de data centers consome muita energia e o crescimento do armazenamento pode sobrecarregar as redes elétricas. Até 2025, espera-se que o consumo de energia dos data centers atinja 2% do consumo global de energia.
• A terceira fonte desse gigantismo está no poder computacional das máquinas, medido em FLOPs (operações de ponto flutuante por segundo).
Em 2024, os processadores (CPUs) podem atingir um poder computacional de 1228 GFLOPs, ou aproximadamente 1 teraflops como o processador Intel Core i9 -13900K.
Os coprocessadores gráficos são ainda mais poderosos para realizar tarefas específicas ou cálculos matemáticos. Esses aceleradores de hardware (GPU, FPGA) podem atingir um poder computacional de 100 teraflops, como a placa NVIDIA GeForce RTX 4090 Ti que funciona com 18.176 núcleos.
Esta é a razão pela qual os supercomputadores mais rápidos do mundo exploram tanto o poder de processamento das CPUs quanto o das GPUs. Assim, os supercomputadores atingiram potência em petaescala (vários milhões de bilhões de operações por segundo).
Em 2024, A fronteira da HPE nos Estados Unidos atingiu o poder em exaescala.
* 1 exaflops equivale a um bilhão de bilhões de operações por segundo.
O crescimento exponencial não pode durar muito tempo!