Учёные увидели в ИИ риск для самой культуры науки

ИИ в лабораториях уже делает больше, чем рутинную грязную работу. Он пишет код, помогает с грантами, подсказывает дизайн эксперимента и объясняет сложные темы быстрее любого научрука, у которого сегодня шесть созвонов и ноль времени. Именно это, по мнению южнокорейских исследователей, и становится реальной угрозой для науки: не ошибки моделей, а медленное вымывание навыка думать, спорить и учиться у живых людей.
Тревога здесь не на пустом месте. За последние два года крупные издатели, университеты и фонды спешно прописывали правила для генеративного ИИ, но почти все крутились вокруг плагиата, галлюцинаций и поддельных данных. Более неприятный сценарий выглядит тише: учёный получает удобного собеседника, который всегда доступен, всегда уверен в себе и никогда не закатывает глаза на «глупый» вопрос. Для академической среды это почти чит-код.
Как ИИ меняет работу молодых учёных
Авторы работы считают, что сильнее всего сдвиг ударит по начинающим исследователям. Когда модель берёт на себя код, первичную проверку гипотез и разбор литературы, студент или аспирант быстрее получает ответ, но хуже понимает, как он к нему пришёл. В науке это плохая сделка: скорость растёт, а внутренняя «механика» мышления ржавеет.
Проблема усугубляется устройством самой академии. Молодые учёные и без того работают в режиме постоянного дефицита времени, денег и нормального наставничества. По данным Nature, в опросе 2024 года генеративный ИИ для работы уже использовали заметные доли исследователей, прежде всего для письма, программирования и поиска литературы. Если живой наставник отвечает через три дня, а бот через три секунды, выбор понятен. Последствия тоже.
Соблазн в том, что ИИ не просто ускоряет работу, а создаёт иллюзию интеллектуального партнёрства. В биологии и химии это особенно заметно: после успеха AlphaFold лаборатории привыкли, что машина может резко срезать месяцы ручного анализа. Полезно, спору нет. Но между «ускорить вычисление» и «отучить человека разбирать проблему самостоятельно» дистанция меньше, чем хотелось бы.
Почему научные споры могут стать беднее
Самый неприятный тезис исследования касается не продуктивности, а конформизма. Генеративные модели по своей природе тянут ответ к наиболее вероятному и статистически привычному варианту. Научный прогресс, наоборот, часто вырастает из странной идеи, упрямого спора и человека, который отказывается верить «очевидному».
Если лаборатории начнут опираться на убедительный средний ответ машины, они рискуют получать меньше рискованных гипотез и больше аккуратного, предсказуемого мейнстрима. Мы уже видели похожий эффект в рекомендательных системах и поиске, где алгоритмы подталкивают пользователя к популярному и безопасному. Для науки это плохой инстинкт: она двигается не за счёт усреднения, а за счёт конфликтов идей.
Есть и культурный слой, о котором обычно молчат. Лаборатория держится не только на данных, но и на передаче ремесла: как сомневаться в красивом результате, как задавать неприятные вопросы, как спорить с руководителем, не превращая это в войну. ИИ такого не учит. Он отлично симулирует ясность, но не заменяет трение между людьми, из которого часто и выходит хорошая наука.
Какие правила для ИИ готовят университеты
Университетам и фондам придётся сдвинуть разговор с банального «можно ли использовать ChatGPT» на более скучную, но полезную территорию. Нужны регламенты, где ИИ допустим как инструмент, а где он уже подменяет обучение и научную дискуссию. В ряде американских и европейских вузов такие нормы начали появляться ещё в 2024 и 2025 годах, но чаще они касались авторства текста и раскрытия факта использования модели, а не когнитивной зависимости.
- ограничение ИИ для первичного обучения методам и статистике;
- обязательное раскрытие, где именно модель участвовала в анализе и письме;
- отдельное наставничество для аспирантов, которые работают в изоляции;
- проверка не только результата, но и логики, по которой студент к нему пришёл.
Иначе академия получит очень удобного ассистента и очень дорогую побочку: поколение исследователей, которое умеет быстро собирать правдоподобный ответ, но хуже держит удар сомнения. А наука без сомнения быстро превращается в фабрику гладких текстов с хорошими графиками и слабой мыслью.
Первые отдельные регламенты по когнитивным рискам ИИ в университетах могут выйти к осеннему семестру 2026 года.



