OpenAI

Компания OpenAI финансирует исследование в Университете Дьюка, направленное на создание алгоритмов, способных предсказывать моральные решения человека в сложных ситуациях, таких как медицина, право и бизнес. Этот проект является частью более широкой программы, которая исследует потенциал искусственного интеллекта в области этики.

О проекте: «Исследование морали ИИ»

  • Финансирование:
    Некоммерческое подразделение OpenAI выделило три года и $1 миллион на исследование под руководством профессоров Уолтера Синнотт-Армстронга и Яны Борг.
  • Цели:
    Исследование сосредоточено на обучении ИИ моделям для анализа моральных конфликтов, которые включают конкурирующие ценности и приоритеты в различных областях.

Ранее Синнотт-Армстронг изучал такие темы, как:

  • Использование ИИ в роли «морального GPS» для помощи людям в принятии решений.
  • Разработка алгоритмов для справедливого распределения донорских органов.

Подробности текущего проекта пока держатся в секрете; завершение работы запланировано на 2025 год.

Вызовы: Может ли ИИ понимать мораль?

Современные модели ИИ сталкиваются с рядом ограничений:

  1. Статистическая природа ИИ:
    • Алгоритмы не понимают моральных понятий; они лишь воспроизводят закономерности из обучающих данных.
    • Это может привести к копированию культурных и социальных предвзятостей, доминирующих в интернете.
  2. Субъективность этики:
    • Моральные нормы различаются в зависимости от культур и убеждений. Например, философы до сих пор спорят, что лучше — кантианская этика (абсолютные правила) или утилитаризм (максимизация общего блага).
    • Создание системы, которая учтет все эти различия, — сложнейшая задача.
  3. Исторические неудачи:
    • Например, инструмент Ask Delphi, разработанный Институтом Аллена, плохо справлялся с моральными дилеммами. Хотя Delphi мог оценить простые ситуации (например, «мошенничество — это плохо»), незначительное изменение формулировки часто приводило к абсурдным и даже опасным выводам.
OpenAI

Этические риски создания «Морального ИИ»

Идея о том, что машины смогут принимать моральные решения, вызывает множество вопросов:

  • Чья мораль?
    • Обучение ИИ на ограниченных данных может исключить или игнорировать ценности различных групп людей.
  • Границы допустимого:
    • Должны ли алгоритмы участвовать в решении вопросов, влияющих на жизнь и благополучие людей? Например, кого лечить в первую очередь?
  • Укрепление предвзятостей:
    • Исторические примеры показывают, что алгоритмы могут неосознанно поддерживать существующие неравенства.

Зачем это нужно?

Инвестиции OpenAI в этическое исследование показывают стремление компании сделать ИИ полезным и безопасным для общества. Однако разработка «морального ИИ» сталкивается с фундаментальными ограничениями, связанными с субъективностью морали.

Сможет ли такая система стать практическим инструментом? Пока это остается вопросом времени и научного прогресса.

Подпишись на ITZine в Дзен Новостях
Читай ITZine в Telegram
Подписаться
Уведомить о
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии