Как DeepSeek вызвал панику на фондовом рынке США и затмил chatGPT (86c1129fb2b164c21a0ee4a248884ac3)

На этой неделе искусственный интеллект DeepSeek R1 не только привёл к хаосу на фондовом рынке США, но и серьёзно ударил по OpenAI, опередив его в технологической гонке. Его внезапный выход привёл к обвалу рыночной капитализации на $1 трлн, из которых $600 млрд пришлись на потери Nvidia. Некоторые компании уже начали восстанавливаться, но очевидно, что DeepSeek R1 оказал огромное влияние на индустрию ИИ и крупнейших игроков в сфере вычислительных технологий.


Главный вопрос — как китайская компания DeepSeek смогла достичь такого результата? Разбираемся в деталях: что представляет собой DeepSeek R1, почему OpenAI обвиняют в лицемерии, и как миф о дешевизне обучения модели вызвал паническую реакцию инвесторов.

Что такое DeepSeek R1 и чем он отличается от DeepSeek V3?

Как DeepSeek вызвал панику на фондовом рынке США и затмил chatGPT ()

Компания DeepSeek представила сразу два крупных ИИ-моделя: V3 и R1. Несмотря на их схожесть, именно DeepSeek R1 стал главным поводом для дискуссий.

Подпишись на канал ForGeeks! Гаджеты, технологии и космос


  • DeepSeek V3 — это MoE-LLM (Mixture of Experts, смесь экспертов) с 671 млрд параметров. Он является универсальной языковой моделью.
  • DeepSeek R1 — это усовершенствованный ИИ с продвинутыми возможностями рассуждений, аналог OpenAI o1, но с дополнительной функцией «разговора с самим собой» перед выдачей ответа.

DeepSeek R1 основан на DeepSeek-V3-Base и доступен в различных вариантах — от 1,5B до 70B параметров. Полноценная версия с 671B параметрами также доступна для скачивания.

DeepSeek R1 можно использовать через веб-интерфейс компании, как ChatGPT. Однако серверы DeepSeek находятся в Китае, и часть запросов подлежит цензуре. Интересный момент: при запуске модели на локальном оборудовании ограничения можно снять, используя специальные методы «очищения» модели, что уже активно делают энтузиасты.

Сервер Nvidia H100 для тренировки ИИ
Сервер Nvidia H100 для тренировки ИИ

Украл ли DeepSeek R1 данные OpenAI?

Несмотря на отсутствие официальных обвинений, OpenAI и Microsoft уже начали расследование, чтобы выяснить, использовала ли DeepSeek чужие разработки. Однако здесь есть важный нюанс: если даже DeepSeek «украл» данные OpenAI, то это выглядит как абсолютное лицемерие.


OpenAI сама неоднократно обвинялась в незаконном использовании контента при обучении своих моделей. Среди поданных исков — судебные разбирательства с The New York TimesIntercept MediaCanadian News Outlets и другими изданиями.

Более того, OpenAI прямо заявляла, что «обучение ИИ на открытых данных из интернета — это допустимое использование (fair use)» и что этот принцип важен для конкуренции в сфере искусственного интеллекта. Теперь, если DeepSeek воспользовалась аналогичной стратегией, у OpenAI попросту нет морального права на возмущение.


Тем не менее, некоторые эксперты подозревают DeepSeek в применении метода «дистилляции» — обучения одной модели на основе другой через постоянный обмен вопросами и ответами. Американский венчурный инвестор Дэвид Сакс утверждает, что есть «существенные доказательства», что DeepSeek R1 обучался, копируя знания GPT-4o.

Однако есть серьёзное возражение против этой теории: модель OpenAI o1 скрывает логическую цепочку своих решений. Следовательно, даже если DeepSeek использовала её, то ей попросту неоткуда было бы взять данные для полного воспроизведения механизма рассуждений.

Почему инвесторы испугались? Реально ли обучить ИИ за $5,5 млн?

Финансовые рынки встревожило утверждение DeepSeek, что обучение модели стоило всего $5,576 млн. Если это правда, то это подрывает всю бизнес-модель Nvidia, которая зарабатывает на продаже мощных GPU для обучения ИИ.

Однако цифра $5,5 млн взята из whitepaper DeepSeek V3, и она отражает стоимость финального обучения, а не всего процесса разработки. В эту сумму не включены затраты на тестирование, предыдущие версии модели и исследования.

Как DeepSeek вызвал панику на фондовом рынке США и затмил chatGPT (aran komatsuzaki training cost ai)

Несмотря на это, DeepSeek действительно использовала менее мощные видеокарты Nvidia H800, которые на 50% медленнее топовых H100, но при этом справились с задачей. Это поставило под сомнение необходимость самых дорогих GPU для обучения ИИ, что и вызвало обвал акций Nvidia.

К тому же, разгорелись слухи, что DeepSeek нелегально приобрела 50 000 чипов Nvidia H100, обойдя экспортные ограничения США. Однако Nvidia и власти Сингапура заявили, что нет доказательств нарушения санкций.

Что это значит для будущего ИИ?

Несмотря на скандалы, DeepSeek R1 — это огромный шаг вперёд для индустрии. Более дешёвые модели, мощные алгоритмы рассуждений и «открытые веса» (не путать с «открытым исходным кодом») означают, что технологии ИИ станут доступнее и эффективнее.

Уже сейчас энтузиасты работают над созданием Open R1, аналога DeepSeek R1 на базе открытых данных. Конкуренты, включая Google и Meta*, активно изучают исследования DeepSeek, чтобы улучшить собственные модели.

Более того, даже OpenAI признала влияние DeepSeek, пообещав сделать свои ИИ-модели более прозрачными в части логики рассуждений.

DeepSeek R1 можно уже сейчас запускать локально, например, через LM Studio на MacBook Pro с чипом M4 Pro, используя версию 32B Qwen.

Вывод

DeepSeek R1 доказал, что можно обучить мощный ИИ без гигантских затрат и без топовых чипов Nvidia. Это встряхнуло рынок, поставило под сомнение бизнес-модель OpenAI и вызвало скандалы с обвинениями в краже данных.

Однако в итоге все выиграют: конкуренция ускоряет развитие ИИ, а открытые исследования DeepSeek помогут улучшить будущие технологии для всех.

* Принадлежит компании Meta, она признана экстремистской организацией в РФ и её деятельность запрещена.

Подпишись на ITZine в Дзен Новостях
Читай ITZine в Telegram
Подписаться
Уведомить о
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии