Google запускает новые чипы TPU и фонд в 750 миллионов долларов для ускорения развертывания искусственного интеллекта

Google Cloud запускает фонд в размере 750 миллионов долларов для консалтинговых компаний для ускорения внедрения искусственного интеллекта и агентских систем в бизнесе.

22 апреля 2026 г. | 19:12

Автор:
Джеймс Бут
Редактор:
Антон Груев

Блумберг ЛП

  • Google создает фонд в 750 миллионов долларов для внедрения агентного искусственного интеллекта
  • McKinsey, Accenture и Deloitte будут работать с ранними версиями моделей Gemini.
  • Цель состоит в том, чтобы компании перешли от тестирования к массовому использованию ИИ.
  • Компания стремится к снижению затрат, повышению эффективности и более быстрому реагированию.

Подразделение Google Cloud компании Alphabet Inc. представило последнее поколение своего процессор тензорной обработки (TPU) — фирменный чип, предназначенный для ускорения и повышения эффективности вычислений ИИ.

Новая серия выйдет в двух версиях, объявила компания в среду во время мероприятия Google Cloud Next, где она также объявила. Фонд в размере $750 млн. способствовать внедрению искусственного интеллекта в бизнес и продемонстрировать инструменты для создания ИИ-агентов. TPU 8t предназначен для создания программного обеспечения искусственного интеллекта, а TPU 8i предназначен для запуска сервисов искусственного интеллекта после их создания (этап, известный как вывод).

Акции Alphabet выросли на 1,7 процента на премаркете в Нью-Йорке.

Google зарекомендовала себя как один из самых успешных производителей собственных ИИ-чипов в отрасли, где доминирует корпорация Nvidia. В последние месяцы TPU стали очень востребованным ресурсом в Кремниевой долине, и компания надеется развить этот интерес с помощью нового поколения.

Более высокая эффективность и более низкие затраты

Этот шаг является частью более широкой стратегии по снижению стоимости и энергопотребления при развертывании программного обеспечения для искусственного интеллекта. Компания также работает над улучшением скорости реагирования сервисов. Новые TPU хранят больше информации непосредственно на чипе, что обеспечивает более быструю реакцию. В то же время требования ко все более сложным программным системам продолжают расти.

«Речь идет о том, как обеспечить минимально возможную задержку ответа при минимальных затратах на каждую операцию», — сказал Марк Ломейер, вице-президент по вычислительным ресурсам и инфраструктурам искусственного интеллекта в Google. «Количество операций быстро растет, и стоимость каждой из них должна снижаться, чтобы система могла масштабироваться».

Создание программного обеспечения искусственного интеллекта осуществляется с помощью систем, которые обрабатывают огромные объемы данных для обнаружения зависимостей и закономерностей, которые можно описать математически. Вывод — выполнение этих систем — выигрывает от процессоров с большим объемом встроенной памяти.

Сосредоточьтесь на умозаключениях и масштабировании

Такой подход позволяет быстрее реагировать, поскольку нет необходимости искать информацию за пределами самого чипа. Это особенно важно для систем, которые «рассуждают», проходят несколько этапов и учатся на собственных действиях.

Учебный чип TPU 8t можно комбинировать в конфигурации, содержащие до 9600 полупроводников. Google отмечает, что в таких крупномасштабных системах электричество становится серьезным ограничением, требующим более эффективных решений.

TPU 8t обеспечивает производительность на ватт на 124 % выше, чем предыдущее поколение, а TPU 8i — на 117 %. Это также связано с развитыми внутренними сетями, которые улучшают связь между чипами. Системы на базе новых ТПУ станут широко доступны позднее в этом году.

Конкуренция, партнерство и агенты искусственного интеллекта

Компания продолжит предлагать услуги на базе чипов Nvidia для клиентов, предпочитающих эти решения. Google планирует быть в числе первых, кто внедрит новый дизайн Nvidia во второй половине года.

Как и Google, Nvidia также концентрирует свои усилия на выводах. Будущие продукты компании будут включать в себя технологии, полученные в результате приобретения Groq, компании, специализирующейся на сверхбыстрых вычислениях на базе искусственного интеллекта.

Генеральный директор Nvidia Дженсен Хуанг заявил, что более 20% рабочих нагрузок ИИ могут наиболее эффективно обслуживаться этим типом чипов. Groq была основана в 2016 году бывшими инженерами Google, а в декабре Nvidia заплатила 20 миллиардов долларов за лицензию на технологию и привлекла большую часть команды инженеров.

Отдельно Google представила набор инструментов для создания ИИ-агентов, которые смогут отслеживать их деятельность внутри компаний, в том числе через специальный почтовый ящик для отчетов и прогресса. Компания также анонсировала обновления пакета Workspace и концепцию, согласно которой агенты ИИ существенно изменят повседневную работу.

Новый фонд стоимостью 750 миллионов долларов призван помочь консалтинговым фирмам внедрить искусственный интеллект на основе агентов.

Лаборатория ДипМайнд обеспечит ранний доступ к моделям Gemini, а инженеры Google будут работать с партнерами над решением проблем клиентов. Средства будут распределены в течение следующих 12 месяцев и будут использованы для обучения, разработки агентов искусственного интеллекта и поддержки их внедрения в бизнесе.