Тренд ТОП — Будущее уже наступило

Новости о технологиях и инновациях. ИИ, роботы, цифровизация и наука в одном месте.

Революция в мире ИИ: Гонка в производстве чипов для искусственного интеллекта

Американский стартап Cerebras Systems, фокусирующийся на создании специализированных процессоров для задач ИИ, в сентябре 2024 года объявил о планах первичного публичного размещения акций (IPO). Эта компания, бросившая вызов гигантам вроде Nvidia, уверена: будущее за уникальными микросхемами, способными кардинально ускорить вывод инновационных ИИ-моделей на рынок.

От SeaMicro к Cerebras: Путь основателей

Компания Cerebras родилась в 2015 году благодаря усилиям команды ветеранов индустрии: Эндрю Фельдмана, Гэри Лаутербаха, Майкла Джеймса, Шона Ли и Жан-Филиппа Фрикера. Ранее они основали и успешно продали производителю серверов SeaMicro компании AMD в 2012 году за внушительные 334 миллиона долларов.

Финансовая поддержка пришла быстро: уже в мае 2016 года стартап привлек 27 миллионов долларов в рамках раунда серии А под руководством Benchmark Foundation Capital и Eclipse Ventures. Всего через два года, в ноябре 2018-го, завершился раунд серии D с инвестициями в 88 миллионов долларов, что позволило Cerebras достичь статуса «единорога». Глобальная экспансия продолжилась в 2020 году открытием офиса в Японии и партнерством с Tokyo Electron Devices. Знаковый раунд финансирования 2021 года принес 250 миллионов долларов, а оценка компании перевалила за 4 миллиарда.

Сегодня Cerebras представлена в Кремниевой долине, Сан-Диего, Торонто и Токио. В числе ее инвесторов – влиятельные фигуры технологического мира: Сэм Альтман (глава OpenAI) и Энди Бехтольсхайм (сооснователь Sun Microsystems). Признание пришло в 2024 году: стартап вошел в топ-100 самых влиятельных компаний по версии Time и рейтинг Forbes AI 50.

Инновационная Архитектура: Чип-плата

Основатели Cerebras задумали компьютер, идеально адаптированный под специфику современных ИИ-задач. Главными требованиями были: сверхбыстрая передача огромных массивов данных, размещение памяти в непосредственной близости от вычислительных элементов и независимость ядер друг от друга. Решение оказалось радикальным: вместо универсальных процессорных ядер компания разработала тысячи специализированных ядер, оптимизированных под вычисления нейронных сетей. Связь между ними обеспечивает уникальная микросхема с минимальным энергопотреблением и максимальной скоростью передачи данных. Воплощением идеи стало создание единого гигантского чипа – Cerebras Wafer Scale Engine (WSE).

Представленный в 2019 году, первый WSE представлял собой цельный процессор площадью свыше 46 000 мм² (в 50 раз крупнее стандартных чипов), интегрирующий вычислительные блоки, память и коммуникационную матрицу. Он лег в основу ИИ-компьютера CS-1, предназначенного для обучения нейросетей в дата-центрах. CS-1 оснащался одним процессором WSE с 400 000 ядер, 1,2 триллиона транзисторов и 18 ГБ оперативной памяти, поддерживая 12 соединений Ethernet по 100 Гбит/с. При внешней схожести с обычными серверами, ключевым отличием была площадь самого ИИ-чипа (46 255 мм²). Cerebras заявляла о пятикратном преимуществе в энергоэффективности и 30-кратном – в компактности по сравнению с кластером Google TPU2, обеспечивая при этом втрое большую производительность. WSE сокращал время обучения моделей с месяцев до минут, а классификация изображения занимала микросекунды, ускоряя вывод моделей.

Программная составляющая CS-1 также была революционной: пользователи могли создавать модели на стандартных фреймворках (PyTorch, TensorFlow), а ПО автоматически распределяло ресурсы чипа по слоям нейросети для синхронного завершения вычислений. Система масштабировалась, позволяя кластеру из нескольких CS-1 функционировать как единый мощный компьютер.

Эволюция платформы: От CS-2 к суперкомпьютерам

В апреле 2021 года свет увидела система CS-2 на базе процессора WSE-2. Использование 7-нм технологического процесса TSMC позволило разместить на пластине того же размера 850 000 ядер, 2,6 триллиона транзисторов и до 40 ГБ памяти. Один CS-2, по утверждению Cerebras, заменял кластеры из сотен или тысяч графических процессоров.

В 2022 году стартап анонсировал суперкомпьютер Andromeda на архитектуре WSE-2. Объединив 13,5 миллионов ядер, система достигала производительности свыше 1 экзафлопса (квинтиллион операций с плавающей запятой в секунду) при запуске ИИ-приложений. Для сравнения, мощность суперкомпьютера Frontier в Окриджской лаборатории – 1,102 экзафлопса. Andromeda открыла возможности для обучения масштабных языковых моделей.

В марте 2024 года Cerebras представила вершину эволюции – чип WSE-3 (5-нм техпроцесс TSMC) с 4 триллионами транзисторов, 900 000 ядер и 44 ГБ памяти. Он стал основой платформы CS-3, предлагающей вдвое большую производительность, чем CS-2, при неизменном энергопотреблении. Пропускная способность памяти CS-3 колоссальна – 21 Петабайт/с (21 000 Терабайт/с), что на три порядка выше, чем у ускорителя Nvidia H100 (3,9 ТБ/с). Физически CS-3 в 57 раз крупнее H100 и примерно в 62 раза производительнее в задачах ИИ. Клиенты могут объединять до 2048 платформ CS-3 в единый ИИ-кластер.

Практическое применение: Нишевые лидеры

Технология Cerebras находит применение в требовательных научных и исследовательских областях. Среди первых клиентов:

  • Аргоннская и Ливерморская национальные лаборатории (LLNL)
  • Питтсбургский суперкомпьютерный центр (PSC, суперкомпьютер Neocortex AI)
  • Суперкомпьютерный центр Эдинбургского университета (EPCC)
  • Фармацевтические гиганты GlaxoSmithKline (GSK) и AstraZeneca.

В GSK с помощью CS-1 ускорили генетические исследования в 80 раз. AstraZeneca сократила время обучения моделей с двух недель на GPU-кластере до двух дней. Аргоннская лаборатория использует CS-1 для анализа данных о лечении рака и COVID-19, добившись ускорения экспериментов более чем в 300 раз. В LLNL система задействована в задачах физического моделирования.

Выход на биржу и финансовые аспекты

Подача заявки на IPO в конце сентября 2024 года сопровождалась публикацией финансовых результатов. По оценкам Bloomberg, компания планирует привлечь от 750 миллионов до 1 миллиарда долларов при оценочной капитализации в 7-8 миллиардов.

Динамика продаж впечатляет: за первое полугодие 2024 года выручка достигла 136,4 миллиона долларов, что в 16 раз превышает показатель за аналогичный период 2023 года (8,7 млн). Чистый убыток сократился до 66,6 млн долларов против 77,8 млн годом ранее.

Однако отчетность выявила серьезную зависимость: 87% выручки за полугодие пришлось на одного клиента – группу G42 из Абу-Даби, в которую инвестирует Microsoft. До сотрудничества с G42 продажи Cerebras падали (10 систем в 2022, всего 1 в 2023). Нынешняя финансовая стабильность уязвима из-за возможных ограничений экспорта систем CS-2 в ОАЭ со стороны правительства США. Пока все проданные системы будут развернуты в дата-центрах США.

Конкурентная борьба и будущее инференса

Доминирующая позиция Nvidia на рынке ИИ-обучения основана на мощных графических процессорах (GPU), способных параллельно выполнять множество операций. Однако Cerebras убеждена, что для глубокого обучения необходимы специализированные чипы, превосходящие GPU. Как отмечает Эндрю Фельдман, GPU изначально создавались для графики, а не для ИИ: «GPU не идеальны для машинного обучения. Они просто лучше CPU». Цель Cerebras – сократить время обучения до часов, открыв возможность тестировать тысячи идей.

В августе 2024 года стартап анонсировал Cerebras inference – самое быстрое решение для вывода ИИ-моделей, построенное на WSE-3. Чип с 44 ГБ встроенной памяти исключает потребность во внешней памяти, обеспечивая беспрецедентную пропускную способность в 21 ПБ/с (в 7000 раз выше, чем у Nvidia H100). Это единственный чип с петабайтными вычислительной мощностью и пропускной способностью памяти, предназначенный для моделей с миллиардами и триллионами параметров.

Показательный пример: Cerebras помогла Meta установить рекорд скорости вывода для открытой языковой модели Llama 3. Модель Llama 3 8B (8 млрд параметров) генерирует 1800 токенов в секунду (в 20 раз быстрее GPU-решений) при стоимости генерации 10 центов за миллион токенов. Более крупная Llama 3 70B (70 млрд параметров) выдает 450 токенов/сек (стоимость – 60 центов/млн токенов), демонстрируя превосходство в многопоточных диалогах, математике и логике.

Cerebras подчеркивает, что вывод моделей – самый быстрорастущий сегмент ИИ-вычислений (около 40% рынка оборудования). Высокоскоростной инференс открывает двери для новых приложений, включая обучение ИИ-агентов.

Компания активно внедряет CS-3 в свой глобальный суперкластер Condor Galaxy AI (проект поддержан G42), планируя развернуть девять суперкомпьютеров по всему миру. Первые две системы, собранные в 2023 году на базе 64 платформ CS-2 каждая, обладают совокупной ИИ-производительностью в 4 экзафлопса. Cerebras продолжает задавать новые стандарты в области аппаратного обеспечения для искусственного интеллекта.

Вы должны войти для комментирования