Algoritmo que reduz 6x o uso de memória em IA libera gargalos e permite treinar modelos maiores; preços de DRAM subiram 55-60% no 1º trimestre.
Analistas concluíram que o TurboQuant do Google, algoritmo detalhado em março que reduz em 6 vezes o uso de memória em modelos de IA e acelera inferência em 8 vezes, tende a aumentar a demanda por chips de memória em vez de reduzi-la. A lógica é o paradoxo de Jevons: remover gargalos libera o treinamento de modelos maiores e mais capazes.
Os parâmetros dos maiores LLMs cresceram de 0,09 bilhão em 2019 para mais de 1 trilhão hoje. Os preços de chips de memória DRAM já subiram 55-60% no primeiro trimestre, com HBM consumindo 23% da produção total de wafers de DRAM, ante 19% no ano anterior.
28 mar, 09:00
26 mar, 09:00
16 mar, 09:00
27 fev, 12:30
26 fev, 18:39