Společnost Qualcomm vstoupila do konkurenčního boje o trh s umělou inteligencí v datových centrech s oznámením dvou nových inferenčních akcelerátorů AI200 a AI250. Tyto čipy založené na neuronových procesorech Hexagon NPU mají začít konkurovat dominantním hráčům AMD a Nvidia s důrazem na efektivitu a nižší provozní náklady.
Architektura Hexagon pro datová centra
Oba akcelerátory AI200 i AI250 využívají upravené neuronové procesory Hexagon s konfigurací skalárních, vektorových a tenzorových akcelerátorů v uspořádání 12+8+1. Podporují širokou škálu datových formátů včetně INT2, INT4, INT8, INT16, FP8, FP16 a mikro-dlaždičkovou inferenci, která snižuje provoz paměti a zvyšuje efektivitu.
Impozantní paměťová kapacita
AI200 nabízí až 768 GB LPDDR paměti na jednu kartu, čímž překonává současné vlajkové lodě konkurence včetně Nvidie. Systém v rackové škále využívá PCIe pro interní škálování a Ethernet pro externí rozšíření, což umožňuje modulární nasazení s vysokou kapacitou.
Extrémní výkon a chlazení
Každý rack spotřebovává až 160 kW energie a využívá přímé kapalinové chlazení – což je bezprecedentní pro systémy zaměřené na inferenci. Tato vysoká spotřeba energie odráží masivní výpočetní výkon určený pro zpracování miliard AI požadavků.
Bezpečnost a virtualizace
Akcelerátory nabízejí pokročilé bezpečnostní funkce včetně důvěrného výpočetního prostředí (confidential computing), virtualizace, 64bitového adresování paměti a šifrování generativních AI modelů. Tyto vlastnosti jsou klíčové pro enterprise nasazení a ochranu citlivých dat.
AI250: Revoluce v architektuře paměti
Model AI250, který bude uveden o rok později než AI200, přináší průlomovou architekturu výpočtů v blízkosti paměti (near-memory compute). Tato inovace zvyšuje efektivní šířku pásma paměti více než desetinásobně a umožňuje dynamické sdílení výpočetního výkonu a paměti mezi kartami – což je obzvláště výhodné pro velké transformerové modely.
Softwarová platforma
Qualcomm buduje komplexní softwarovou platformu podporující hlavní frameworky strojového učení jako PyTorch, ONNX, vLLM, LangChain a CrewAI. Platforma zahrnuje disagregované servírování, důvěrné výpočty a zjednodušené nasazování modelů.
Plány nasazení
První instalace začnou v roce 2026, přičemž AI200 bude dostupný nejprve. Mezi hlavní projekty patří 200MW datové centrum v Saúdské Arábii provozované společností Humain, které má posílit pozici země jako globálního centra AI inference. Model AI250 bude následovat v roce 2027.
Tržní strategie
Na rozdíl od univerzálních GPU od Nvidie a AMD jsou AI200 a AI250 navrženy výhradně pro rozsáhlou inferenci – provádění miliard požadavků, nikoli trénování nových modelů. Qualcomm slibuje vynikající poměr výkonu na watt a nižší celkové náklady na vlastnictví (TCO) ve srovnání s konkurencí.
Vstup Qualcommu do segmentu AI akcelerátorů pro datová centra představuje významnou výzvu pro zavedené hráče. S důrazem na rackovou efektivitu, masivní paměťovou kapacitu a nákladově efektivní inferenci velkých jazykových modelů může Qualcomm přetvořit konkurenční prostředí v rychle rostoucím trhu generativní umělé inteligence.
Zdroj: tomshardware.com


