/
Source
В игру с чипами вступает новый игрок — Qualcomm анонсировала AI-ускорители серверного уровня. AI200 выйдет в 2026 году, AI250 в 2027-м. Чипы основаны на Hexagon NPU из смартфонных процессоров Qualcomm.
Qualcomm предназначает новые чипы для использования в inference, а не для обучении моделей. Это разумно — пока никто не смог составить конкуренцию Nvidia в обучении, при этом спрос на инференс применение растет даже быстрее.
Qualcomm заявляет 768 гигабайт памяти на карту — больше, чем у Nvidia и AMD. При этом используется модульный подход: можно покупать отдельно CPU и другие компоненты, а не только полные комплекты.
Возможно, впереди еще немало сложностей — нелегкая судьба AMD тому доказательство. Но будет интересно.