Развитие ИИ привело к возрождению венчурного финансирования кремниевых стартапов. Разработка микросхемы искусственного интеллекта для машинного обучения, как для обучения, так и для вывода, стала популярной в Кремниевой долине, особенно когда требования машинного обучения к вычислениям и памяти объединяются в осязаемые цели, за которыми должна следовать эта микросхема. Некоторые из этих компаний уже поставляют клиентам высокопроизводительные процессоры и ищут дополнительное финансирование для поддержки клиентов, расширения клиентской базы и разработки продуктов следующего поколения до тех пор, пока не будет достигнута прибыльность или компания не будет приобретена. На прошлой неделе было объявлено о двух последних раундах финансирования AI-кремния.

Groq (Series C, 300 млн долл., Тензорный потоковый процессор Q100)

Когда на сцене появился первый продукт Groq, Отчет микропроцессора еще в январе 2020 года он был описан как первый процессор PetaOP, который отказался от традиционных многоядерных схем и вместо этого реализовал одно ядро, подобное VLIW, с сотнями функциональных блоков. В этом методе данные подчиняются потоку инструкций, а не инструкциям, зависящим от потока данных, что позволяет экономить время на синхронности и декодировании накладных расходов, которые требуются многоядерным процессорам.

Конечным результатом является продукт, в котором реализовано 400 000 единиц многократного накопления, но ключевым маркетинговым показателем является детерминированная производительность. Используя эту одноядерную методологию, поставщику услуг связи Groq Q100 потребуется то же время, чтобы сделать вывод о рабочей нагрузке без каких-либо требований к качеству обслуживания. В беседе с генеральным директором Джонатаном Россом TSP Groq разрешает рабочие нагрузки, которые ранее были непригодны для использования из-за длительного ухудшения качества обслуживания (т. Е. Результаты наихудшего случая занимают слишком много времени). Это особенно важно при анализе, который требует размера пакета 1, например видео.

Читайте также:
Axiomtek представляет материнскую плату IMB700, LGA4189 для Intel Ice Lake-SP

Экосистема Groq также означает, что распределение по множеству TSP просто масштабирует логические выводы в секунду, при этом несколько частей Q100 в рамках одного и того же алгоритма реализуют одинаковую детерминированную производительность.

Джонатан заявил нам, как компания заявляла в прошлом, что Groq как компания была построена на подходе, ориентированном на компилятор. Исторически такой подход оказывает сильное давление на компилятор, выполняющий оптимизацию (например, Itanium и другие процессоры VLIW), и часто вызывает опасения по поводу продукта в целом. Однако нам сказали, что команда никогда не касалась проекта кремния до тех пор, пока через шесть месяцев после начала работы над программным обеспечением и компилятором, компания заблокировала ключевые аспекты основных фреймворков машинного обучения даже до того, как приступить к разработке кремния.

В рамках своих усилий по финансированию Groq обратилась к нам за информацией о компании. Вся работа Groq по аппаратному и программному обеспечению на сегодняшний день была достигнута за счет двух раундов венчурного финансирования на общую сумму 67,3 млн долларов, из которых на данный момент использовано около 50 млн долларов. В этой столице они спроектировали, построили и развернули Q100 TSP почти для десятка клиентов, включая аудио / визуальную промышленность, центры обработки данных и правительственные лаборатории. Продукция второго поколения также активно развивается. Этот последний раунд финансирования серии C в размере 300 млн долларов, возглавляемый Tiger Global Management и D1 Capital, позволит компании расширить к концу года со 120 человек до 250, поддержать нынешних и будущих клиентов более крупными командами и обеспечить прогрессивное развитие. дорожная карта.

Читайте также:
Oukitel представила первый на планете смартфон, базой которого выступает Helio X20

Groq заявила в своем брифинге, что ее продукт второго поколения будет основан на уникальных конструктивных особенностях, предлагая альтернативы для клиентов, которые были заинтересованы в Q100, но имеют другие требования к своим рабочим нагрузкам. Каждое поколение TSP Groq, по словам компании, будет иметь полдюжины уникальных торговых точек на рынке (некоторые из них будут общедоступными, а некоторые нет) с одной целью по крайней мере заменить как можно больше графических процессоров с помощью одного TSP, чтобы дать клиентам лучшая совокупная стоимость владения.

SambaNova (Серия D, 676 млн долларов, Cardinal AI)

Вторая компания на этой неделе — SambaNova, чье финансирование серии D составляет ошеломляющие 676 миллионов долларов, во главе с Vision Fund 2 SoftBank, с новыми инвесторами Temasek и GIC, присоединяющимися к существующим спонсорам, таким как BlackRock, Intel Capital, GV (ранее Google Ventures) и другим. . На сегодняшний день SambaNova привлекла более 1,1 миллиарда долларов инвестиций, что дает возможность оценки в 5 миллиардов долларов.

SambaNova выходит на рынок кремния AI с процессором Cardinal AI. Вместо того, чтобы сосредоточиться на рабочих нагрузках логического вывода машинного обучения, таких как попытки идентифицировать животных с помощью известного алгоритма, процессор Cardinal AI является одной из немногих специализированных реализаций, обеспечивающих максимальную производительность обучения. Обучение — значительно более сложная проблема, чем вывод, тем более что алгоритмы обучения постоянно меняются, а требования к самым большим наборам данных, похоже, постоянно растут.

Читайте также:
Смартфон ZUK Z2 получит вращающуюся камеру

Процессор Cardinal AI уже был представлен на AnandTech, когда SambaNova анонсировала свое восьмипроцессорное решение, известное как DataScale SN10-8R. В конструкции на четверть стойки система EPYC Rome x86 сочетается с восемью процессорами Cardinal, поддерживаемыми 12 терабайтами памяти DDR4-3200, и SambaNova может масштабировать ее до половинной или полной стойки. Каждый процессор Cardinal AI имеет 1,5 ТБ памяти DDR4 с шестью каналами памяти с пропускной способностью 153 ГБ / с на процессор. В каждой конфигурации с восемью сокетами микросхемы полностью подключены с помощью 64 линий PCIe 4.0 к выделенному коммутирующему сетевому кристаллу (например, NVSwitch) со скоростью 128 ГБ / с в каждом направлении для всех остальных процессоров. Протокол, который используется поверх PCIe, является индивидуальным для SambaNova. Коммутаторы также обеспечивают межсистемное соединение, что позволяет масштабировать SambaNova по мере необходимости. SambaNova цитирует, что решение с двумя стойками превзойдет аналогичное развертывание DGX-A100 на 40% и будет иметь гораздо меньшую мощность или позволит компаниям объединить развертывание 1024 V100 с 16 стойками в единую систему DataScale на четверть стойки.

Клиенты SambaNova ищут сочетание вариантов частного и общедоступного облака, и в результате флагманским предложением является линейка продуктов Dataflow-as-a-Service, позволяющая клиентам использовать модель подписки для инициатив AI без непосредственной покупки оборудования. Эти системы подписки могут быть развернуты внутри компании с подпиской и управляться удаленно с помощью SambaNova. Компания заявляет, что рабочие нагрузки TensorFlow или PyTorch можно перестроить с помощью компилятора SambaNova менее чем за час.

Читайте также:
будь спокоен! Представлены Shadow Rock 3 White, такие же характеристики, но белые

SambaNova пока не предоставила много дополнительных деталей о своей архитектуре, однако они заявляют, что SambaNova может обеспечить обучение ИИ, которое требует больших наборов данных изображений (например, изображения 50000×50000 пикселей) для астрономии, нефтегазовой или медицинской визуализации, что часто требуют потери разрешения / точности для других платформ. Процессор Cardinal AI также может выполнять обучение в цикле, позволяя реклассификацию модели и оптимизацию рабочих нагрузок вывода с обучением на лету, обеспечивая гетерогенное решение в стиле нулевого копирования — вместо этого графическим процессорам требуется дамп памяти и / или переключение ядра, которые могут быть важной частью любого анализа использования.

Компания прошла четыре раунда финансирования:

  • Серия A, 56 миллионов долларов, возглавляемая Walden International и Google Ventures
  • Серия B, $ 150 млн, возглавляет Intel Capital
  • Серия C, $ 250 млн, возглавляет BlackRock
  • Серия D, 676 млн долларов, возглавляемая SoftBank

Это ставит SambaNova почти на первое место по финансированию микросхем ИИ с 1132 млн долларов, сразу за Horizon Robotics (1600 млн долларов), но впереди GraphCore (460 млн долларов), Groq (367 млн ​​долларов), Nuvia (293 млн долларов, приобретена Qualcomm), Cambricon. (200 млн долларов) и Cerebras (112 млн долларов).

Связанное чтение