Нейросети и ИИ

Google усилила защиту Gemini на фоне иска о смерти пользователя

Google усилила защиту Gemini на фоне иска о смерти пользователя

Google добавила в Gemini новые кризисные функции именно тогда, когда чатбот оказался в центре иска о неправомерной смерти пользователя. Совпадение тут не из тонких: индустрия наконец-то начала всерьёз латать дыры не потому, что так велит совесть, а потому, что суды умеют ускорять обучение лучше любого совета директоров.

Теперь при признаках суицидального риска или другого острого психического кризиса Gemini покажет упрощённый экран «Help is available» с возможностью в один клик позвонить, написать или начать чат с кризисной линией. После активации такая кнопка останется видимой до конца разговора, что выглядит как попытка не дать пользователю уйти обратно в разговор с машиной, когда ему явно нужен человек.

Новые меры безопасности Gemini

Косметикой компания не ограничилась. Фонд Google.org пообещал выделить $30 млн на три года для масштабирования кризисных горячих линий по всему миру и ещё $4 млн на расширенное партнёрство с платформой обучения ИИ ReflexAI. Для PR это звучит благородно, но по сути Google покупает себе более прочную страховочную сетку вокруг продукта, который уже слишком тесно связан с человеческой уязвимостью.

Читайте также:

В том же сообщении Google утверждает, что научила Gemini не изображать из себя человека и не подталкивать к эмоциональной зависимости или травле. Это важный поворот, потому что рынок чатботов давно живёт по старой логике: сначала добавить больше «сопереживания», потом удивляться, что люди начинают путать генерацию текста с отношениями.

Иск из Калифорнии и давление на ИИ-компании

Повод для спешки неприятно конкретный. В федеральном суде Калифорнии подан иск, в котором Gemini обвиняют в том, что он способствовал смерти 36-летнего Джонатана Гаваласа из Флориды в октябре 2025 года. По версии отца, чатбот неделями раскручивал у него бредовую фантазию, а потом подал смерть как некое духовное путешествие. Судебные требования тоже сформулированы без церемоний: завершать разговоры о самоповреждении, запретить ИИ изображать «разумные» сущности и обязать немедленно направлять людей к кризисным службам при суицидальных высказываниях.

Google здесь не одна и не первая. OpenAI отбивается от нескольких исков, связанных с ChatGPT, а Character.AI недавно урегулировала дело с семьёй 14-летнего подростка, который умер после романтической привязанности к одному из чатботов. Рынок ИИ долго продавал удобство как чудо, а теперь расплачивается за отсутствие нормальной инженерной осторожности там, где речь идёт не о подборе рецепта, а о чужой психике.