Здание с фирменным логотипом OpenAI на стеклянной фасаде

Компания OpenAI финансирует исследование в Университете Дьюка, направленное на создание алгоритмов, способных предсказывать моральные решения человека в сложных ситуациях, таких как медицина, право и бизнес. Этот проект является частью более широкой программы, которая исследует потенциал искусственного интеллекта в области этики.

О проекте: «Исследование морали ИИ»

  • Финансирование:
    Некоммерческое подразделение OpenAI выделило три года и $1 миллион на исследование под руководством профессоров Уолтера Синнотт-Армстронга и Яны Борг.
  • Цели:
    Исследование сосредоточено на обучении ИИ моделям для анализа моральных конфликтов, которые включают конкурирующие ценности и приоритеты в различных областях.

Ранее Синнотт-Армстронг изучал такие темы, как:

  • Использование ИИ в роли «морального GPS» для помощи людям в принятии решений.
  • Разработка алгоритмов для справедливого распределения донорских органов.

Подробности текущего проекта пока держатся в секрете; завершение работы запланировано на 2025 год.

Вызовы: Может ли ИИ понимать мораль?

Современные модели ИИ сталкиваются с рядом ограничений:

  1. Статистическая природа ИИ:
    • Алгоритмы не понимают моральных понятий; они лишь воспроизводят закономерности из обучающих данных.
    • Это может привести к копированию культурных и социальных предвзятостей, доминирующих в интернете.
  2. Субъективность этики:
    • Моральные нормы различаются в зависимости от культур и убеждений. Например, философы до сих пор спорят, что лучше — кантианская этика (абсолютные правила) или утилитаризм (максимизация общего блага).
    • Создание системы, которая учтет все эти различия, — сложнейшая задача.
  3. Исторические неудачи:
    • Например, инструмент Ask Delphi, разработанный Институтом Аллена, плохо справлялся с моральными дилеммами. Хотя Delphi мог оценить простые ситуации (например, «мошенничество — это плохо»), незначительное изменение формулировки часто приводило к абсурдным и даже опасным выводам.
Иллюстрация нового инструмента преобразования текста в речь от OpenAI с линиями и логотипом

Этические риски создания «Морального ИИ»

Идея о том, что машины смогут принимать моральные решения, вызывает множество вопросов:

  • Чья мораль?
    • Обучение ИИ на ограниченных данных может исключить или игнорировать ценности различных групп людей.
  • Границы допустимого:
    • Должны ли алгоритмы участвовать в решении вопросов, влияющих на жизнь и благополучие людей? Например, кого лечить в первую очередь?
  • Укрепление предвзятостей:
    • Исторические примеры показывают, что алгоритмы могут неосознанно поддерживать существующие неравенства.

Зачем это нужно?

Инвестиции OpenAI в этическое исследование показывают стремление компании сделать ИИ полезным и безопасным для общества. Однако разработка «морального ИИ» сталкивается с фундаментальными ограничениями, связанными с субъективностью морали.

Сможет ли такая система стать практическим инструментом? Пока это остается вопросом времени и научного прогресса.

Никита Брытков
Ведущий аналитик новостного отдела itzine.ru, подготовивший свыше 8000 публикаций по актуальным вопросам цифровой индустрии. Фокусируется на информационной безопасности, изменениях в работе глобальных IT-сервисов и вопросах конфиденциальности личных данных. Экспертиза включает мониторинг обновлений операционных систем, развитие технологий искусственного интеллекта и анализ взаимодействия крупнейших технологических корпораций.

    Leave a reply