Nvidia представила новый графический чип для дата-центров
Intel и AMD уже плотно заняли свою нишу в производстве микропроцессоров, в то время как Nvidia представила новую линейку графических чипов, имеющих перспективу стать самыми быстрыми процессорами для запуска программ искусственного интеллекта.
Несмотря на то, что компания приобрела известность, продавая топовые видеокарты для видеоигр, но наряду с этим рынком, она быстро переориентировалась на более прибыльную нишу запуска приложений ИИ в корпоративных и облачных дата-центрах. В прошлом году Nvidia продала продукции почти на 3 миллиарда долларов в виде чипов для центров обработки данных, что составляет чуть более четверти от общего объема продаж.
Сейчас этот рынок становится еще более конкурентным. Компания Advanced Micro Devices представила новые чипы для центров обработки данных, в то время как Intel планирует начать продавать собственные графические чипы в следующем году.
Мода на приложения для искусственного интеллекта набирает обороты, поскольку центры облачных вычислений, управляемые Amazon, и другими транснациональными копрорациями, все чаще используются для запуска программ, распознающих речь или изображения, ставят диагнозы на основе медицинских тестов и обучаются по шаблонам, используя информацию из других больших наборов данных.
Ведущий продукт новой линейки Nvidia Ampere, A100, содержит 54 миллиарда транзисторов на одном чипе. Компания заявляет, что может запускать программы ИИ, которые обучаются с использованием глубокого обучения, таких как приложения для распознавания речи и изображений, со скоростью 312 триллионов операций в секунду или в 20 раз быстрее, чем его трехлетняя линия Volta. Это означает, что он не только может сэкономить деньги за счет более быстрого запуска программ обучения ИИ, но также может создавать новые и даже более сложные приложения ИИ, которые не могли бы работать на старых чипах, которые медленее.
Для общих задач высокопроизводительных вычислений A100 может выполнять почти 20 триллионов операций в секунду, что примерно в 2,5 раза быстрее, чем старые чипы Nvidia.
Генеральный директор Nvidia Дженсен Хуан сказал, что все крупные поставщики облачных услуг, включая Amazon, Google и Microsoft, уже согласились установить новые чипы на свои сервера. «Все буквально мгновенно выстроились в очередь», — сказал он в среду в интервью журналистам. Хотя дата-центры ранее полагались в основном на те же типы процессоров, что и на ПК, компании обнаружили, что использование графических чипов ускоряет многие виды задач, таких как ИИ, отметил он. «Ускорение центров обработки данных стало общепринятым мнением… Это не лишено здравого смысла», — сказал Хуан.
Другим ключевым аспектом новых чипов Nvidia является более быстрая технология соединения нескольких графических чипсетов вместе и подключения к системам хранения данных, что является важной функцией в огромных дата-центрах, состоящих из тысяч серверов. В прошлом месяце Nvidia завершила сделку по приобретению Mellanox Technologies, которая разрабатывает высокоскоростные соединения для передачи данных для сетевых серверов и облачных компьютеров, сумма сделки составила за 7 миллиардов долларов.
Еще до появления новейших чипов Nvidia наступала на пятки своим конкурентам на фондовом рынке. Акции Nvidia в этом году выросли на 32%, опередив AMD на 14% и Intel на 4%.