AI akcelerátory AI200 a AI250: Hexagon vyzývá AMD a Nvidia

Hexagon vyzývá AMD a Nvidia

Společnost Qualcomm vstoupila do konkurenčního boje o trh s umělou inteligencí v datových centrech s oznámením dvou nových inferenčních akcelerátorů AI200 a AI250. Tyto čipy založené na neuronových procesorech Hexagon NPU mají začít konkurovat dominantním hráčům AMD a Nvidia s důrazem na efektivitu a nižší provozní náklady.

Architektura Hexagon pro datová centra

Oba akcelerátory AI200 i AI250 využívají upravené neuronové procesory Hexagon s konfigurací skalárních, vektorových a tenzorových akcelerátorů v uspořádání 12+8+1. Podporují širokou škálu datových formátů včetně INT2, INT4, INT8, INT16, FP8, FP16 a mikro-dlaždičkovou inferenci, která snižuje provoz paměti a zvyšuje efektivitu.

Impozantní paměťová kapacita

AI200 nabízí až 768 GB LPDDR paměti na jednu kartu, čímž překonává současné vlajkové lodě konkurence včetně Nvidie. Systém v rackové škále využívá PCIe pro interní škálování a Ethernet pro externí rozšíření, což umožňuje modulární nasazení s vysokou kapacitou.

Extrémní výkon a chlazení

Každý rack spotřebovává až 160 kW energie a využívá přímé kapalinové chlazení – což je bezprecedentní pro systémy zaměřené na inferenci. Tato vysoká spotřeba energie odráží masivní výpočetní výkon určený pro zpracování miliard AI požadavků.

Bezpečnost a virtualizace

Akcelerátory nabízejí pokročilé bezpečnostní funkce včetně důvěrného výpočetního prostředí (confidential computing), virtualizace, 64bitového adresování paměti a šifrování generativních AI modelů. Tyto vlastnosti jsou klíčové pro enterprise nasazení a ochranu citlivých dat.

AI250: Revoluce v architektuře paměti

Model AI250, který bude uveden o rok později než AI200, přináší průlomovou architekturu výpočtů v blízkosti paměti (near-memory compute). Tato inovace zvyšuje efektivní šířku pásma paměti více než desetinásobně a umožňuje dynamické sdílení výpočetního výkonu a paměti mezi kartami – což je obzvláště výhodné pro velké transformerové modely.

Softwarová platforma

Qualcomm buduje komplexní softwarovou platformu podporující hlavní frameworky strojového učení jako PyTorch, ONNX, vLLM, LangChain a CrewAI. Platforma zahrnuje disagregované servírování, důvěrné výpočty a zjednodušené nasazování modelů.

Plány nasazení

První instalace začnou v roce 2026, přičemž AI200 bude dostupný nejprve. Mezi hlavní projekty patří 200MW datové centrum v Saúdské Arábii provozované společností Humain, které má posílit pozici země jako globálního centra AI inference. Model AI250 bude následovat v roce 2027.

Tržní strategie

Na rozdíl od univerzálních GPU od Nvidie a AMD jsou AI200 a AI250 navrženy výhradně pro rozsáhlou inferenci – provádění miliard požadavků, nikoli trénování nových modelů. Qualcomm slibuje vynikající poměr výkonu na watt a nižší celkové náklady na vlastnictví (TCO) ve srovnání s konkurencí.

Vstup Qualcommu do segmentu AI akcelerátorů pro datová centra představuje významnou výzvu pro zavedené hráče. S důrazem na rackovou efektivitu, masivní paměťovou kapacitu a nákladově efektivní inferenci velkých jazykových modelů může Qualcomm přetvořit konkurenční prostředí v rychle rostoucím trhu generativní umělé inteligence.

Zdroj: tomshardware.com

Napsat komentář