Инсайдеры OpenAI и Google DeepMind серьезно предупреждают об искусственном интеллекте

В открытом письме разоблачители утверждают, что эти «передовые компании ИИ» должны поддерживать культуру открытой критики.
Последние несколько недель для OpenAI стали поводом для многочисленных заголовков — и не по самым лучшим причинам. На этом история не закончилась: несколько нынешних и бывших сотрудников OpenAI, а также работники Google DeepMind теперь призывают свои ведущие ИИ-компании к недосмотру, культуре подавления критики и общему отсутствию прозрачности.
В открытом письме разоблачители, по сути, призвали к праву открыто критиковать технологии ИИ и связанные с ними риски. Они написали, что из-за отсутствия обязанности делиться информацией с государственными органами и регуляторами «нынешние и бывшие сотрудники — одни из немногих, кто может призвать [эти корпорации] к ответу перед общественностью», и заявили, что многие из них «опасаются различных форм возмездия» за это.
Подписанты потребовали от передовых компаний, занимающихся разработкой ИИ, соблюдения определенных принципов, в том числе обеспечения анонимного процесса для сотрудников, чтобы они могли высказывать опасения, связанные с рисками, и поддержки «культуры открытой критики» при условии защиты коммерческой тайны в этом процессе. Они также потребовали, чтобы компании не принимали ответных мер в отношении тех, кто «публично делится конфиденциальной информацией, связанной с рисками, после того как другие процессы не дали результатов».