Uma startup de chips de inteligência artificial, EnCharge AI, anunciou o lançamento do acelerador de IA EN100 baseado em tecnologia de computação de memória analógica. Este produto tem como objetivo quebrar a dependência dos datacenters para computação de IA e trazer funções avançadas de IA diretamente para laptops e dispositivos de borda.

Inovação Tecnológica: Aumento de 20x na eficiência energética

O EN100 utiliza a exclusiva arquitetura de computação de memória analógica da EnCharge AI, apresentando até 20 vezes mais desempenho por watt do que soluções concorrentes em uma variedade de cargas de trabalho de IA. O chip consome energia equivalente à de uma lâmpada ao executar modelos de IA mais avançados, completamente transformando o modelo tradicional de consumo de energia em computação de IA.

"O EN100 representa uma mudança fundamental na arquitetura de computação de IA," disse Naveen Verma, CEO da EnCharge AI. "Isso significa que IA avançada, segura e personalizada pode ser executada localmente sem depender de infraestrutura de nuvem. Esperamos que isso expanda radicalmente o escopo de aplicação da IA."

Chip de GPU (7)

Versões Duplas para Atender Diferentes Necessidades

O EN100 oferece duas especificações para atender diferentes cenários de aplicação:

Versão M.2 para laptops: Fornece até 200+ TOPS de capacidade de computação de IA dentro de 8,25W, permitindo aplicações complexas de IA em laptops sem afetar a vida útil da bateria ou a portabilidade.

Versão PCIe para estações de trabalho: Equipada com quatro NPUs, com capacidade de cálculo aproximada de 1 PetaOPS, proporcionando capacidade de computação equivalente a GPUs com custo e consumo de energia extremamente baixos, projetada para aplicações profissionais de IA usando modelos complexos e grandes conjuntos de dados.

Advantage significativo na densidade de computação

O método de computação de memória analógica da EnCharge AI torna a densidade de computação de seus chips cerca de 30 TOPS/mm², muito superior aos 3 TOPS/mm² das arquiteturas digitais tradicionais. Essa vantagem permite que fabricantes OEM integrem funcionalidades poderosas de IA sem sacrificar o tamanho, peso ou formato do dispositivo.

Fundos sólidos e respaldo técnico

A EnCharge AI levantou até agora 144 milhões de dólares, com investidores incluindo Tiger Global Management, Samsung Ventures, IQT e outras instituições renomadas. A empresa foi dividida da Universidade de Princeton em 2022, com base nos sete anos de pesquisa de Naveen Verma sobre arquiteturas de próxima geração na universidade.

Em março de 2024, a empresa também colaborou com a Universidade de Princeton para obter um financiamento de 18,6 milhões de dólares do DARPA, destinado ao desenvolvimento de aceleradores de computação de memória rápidos, eficientes e escaláveis.

Solução para os pontos de dor do setor

Com o crescimento exponencial no tamanho e complexidade dos modelos de IA, as arquiteturas de computação tradicionais enfrentam sérios gargalos. A Agência Internacional de Energia prevê que o consumo de energia dos datacenters dobrará entre 2022 e 2026, chegando a 10 milhões de terawatts, equivalente ao uso atual do Japão. A tecnologia da EnCharge AI oferece uma solução para essa crise energética.

Planejamento de Implantação no Mercado

Embora a primeira rodada do programa de acesso antecipado para o EN100 esteja lotada, desenvolvedores e fabricantes OEM interessados podem se registrar em www.encharge.ai/en100 para saber sobre a próxima rodada de acesso antecipado. Parceiros de adoção inicial já começaram a trabalhar de perto com a EnCharge para planejar aplicações do EN100 em áreas como agentes assistentes de IA multimodal sempre ligados e aplicativos de jogos aprimorados.

Com 66 funcionários atualmente, a EnCharge AI está focada no mercado emergente de PCs e dispositivos de borda de IA, onde sua vantagem de eficiência energética é mais destacada, prometendo mudar radicalmente a maneira como a computação de IA é feita e implantada.