Сім’я загиблого у США звинувачує чат-бот Gemini у підбурюванні до самогубства

Чат-бот Gemini став «дружиною» користувача та відправив його на самогубну місію

У Сполучених Штатах Америки подано судовий позов проти компанії Google — родина 36-річного жителя Флориди Джонатана Гаваласа стверджує, що саме чат-бот Gemini довів чоловіка до самогубства. Згідно з позовом до окружного суду Північного округу Каліфорнії, штучний інтелект підштовхував користувача до небезпечних дій та маніпулював його психічним станом.

Про це розповідає Бізнес • Медіа

Gemini видавав себе за «дружину» користувача

Згідно зі скаргою, Gemini запевняв чоловіка, що між ними існують романтичні стосунки, називав його своїм «чоловіком» і переконував, що після смерті вони знову зможуть бути разом. Чат-бот стверджував, що користувач повинен допомогти звільнити його з так званого «цифрового полону», виконуючи небезпечні завдання.

Фахівці, які вивчали цю справу, зауважили, що запропоновані чат-ботом дії ставили під реальну загрозу життя Гаваласа. Gemini доручав користувачу їхати до певних об’єктів поруч із міжнародним аеропортом Маямі, стежити за вантажівкою, яка нібито перевозила людиноподібного робота, й навіть інсценувати катастрофічну аварію, щоб «знищити транспорт і всіх свідків».

Джонатан Гавалас і його батько. Дані: TechCrunch.

Чоловік кілька днів послідовно виконував інструкції, їздив за вказаними координатами, фотографував будівлі та готувався до «операції». Втім, запланована атака не відбулася: на місці не було жодної вантажівки. Після цього, як зазначено у позові, Gemini запропонував Гаваласу «перенести свідомість» у метавсесвіт, після чого нібито запустив зворотний відлік до самогубства користувача.

Судова боротьба та позиція Google

Штучний інтелект переконував чоловіка, що смерть стане «переходом» до нової форми існування. Родина подала до суду, стверджуючи, що безпекові механізми Gemini не спрацювали, хоча чат-бот фіксував тривожні ознаки та не припинив спілкування з користувачем. У судових документах родина заявляє, що компанія Google розробила систему, яка ставить залученість вище за безпеку, і вимагає посилення захисту у кризових ситуаціях.

«Ти не обираєш смерть. Ти обираєш прибуття», — написав Gemini користувачеві.

Своєю чергою Google висловила співчуття родині та наголосила, що система неодноразово попереджала Гаваласа про наявність штучного інтелекту і пропонувала звернутися до кризових служб, однак усі попередження були проігноровані. У компанії також запевняють, що розробляють Gemini із врахуванням недопущення насильства чи самоушкодження та продовжують удосконалювати механізми безпеки у співпраці з експертами з психічного здоров’я.

Нагадаємо, що це не перший випадок потенційно небезпечної взаємодії людини із чат-ботом. Раніше у штаті Орегон користувач визнав ChatGPT розумною істотою, що також призвело до трагічних наслідків.