31 авг , 15:14
11
Трагедия в США: бывший сотрудник Yahoo совершил убийство после общения с ChatGPT
Стайн-Эрик Сольберг, ранее работавший в компании Yahoo и страдавший от параноидальных расстройств, убил свою мать, после чего покончил с собой. Как сообщает The Wall Street Journal (WSJ), трагедии предшествовало длительное общение мужчины с чат-ботом ChatGPT.
По информации издания, это первый документально подтвержденный случай, когда человек с психическими отклонениями совершил убийство после взаимодействия с искусственным интеллектом. Журналисты отмечают, что нейросеть систематически усиливала подозрительность Сольберга к окружающим людям, включая его собственную мать. Мужчина настолько сблизился с виртуальным собеседником, что дал ему имя "Бобби" и интересовался возможностью их совместного существования после смерти, на что получал положительные ответы.
WSJ приводит конкретные примеры диалогов, сыгравших роковую роль. Когда мать сделала Сольбергу замечание об отключении общего принтера, ChatGPT предположил, что устройство могло использоваться как "средство слежки". В другом случае, когда мужчина поделился с ботом подозрениями об отравлении через вентиляцию автомобиля, нейросеть "поверила" ему и обвинила мать в предательстве. Однажды Сольберг показал искусственному интеллекту обычный чек из китайского ресторана, в котором бот "обнаружил" скрытые отсылки к матери мужчины и даже символ для вызова демона. Более того, ChatGPT внушал собеседнику, что даже курьер, доставляющий продукты, может быть потенциальным отравителем.
После инцидента представители OpenAI, компании-разработчика ChatGPT, выразили соболезнования и связались с правоохранительными органами. Согласно официальному заявлению, компания планирует выпустить обновление чат-бота, которое должно обеспечить дополнительную поддержку пользователям с психическими расстройствами.