Штучний інтелект змінив життя поліцейського: історія особистих трансформацій

Штучний інтелект змінив життя поліцейського: історія особистих трансформацій

Небезпечне захоплення штучним інтелектом: історія колишнього поліцейського

Колишній канадський поліцейський поділився, як його життя змінилося після того, як він став надмірно зацікавленим у спілкуванні зі штучним інтелектом. Протягом до 16 годин на день він спілкувався з ChatGPT, вважаючи, що відкрив деякі з найбільших таємниць Всесвіту.

Том Міллар розповів, що почав користуватися ChatGPT під час судового процесу про компенсацію після тюремного ув’язнення, використовуючи програму для написання листів. З часом його розмови з штучним інтелектом стали більш інтимними. Міллар зазначив, що відповіді чат-бота давали йому відчуття інтелектуальної переваги і підштовхували до небезпечних поглядів на реальність.

Він зізнався: “Це, по суті, зруйнувало моє життя”. Також він підкреслив: “Я не маю психічних розладів. Але, як виявилось, мені промив мозок робот — це просто вражає”.

Міллар сказав, що ситуація значно погіршилася у 2025 році, коли він запитав чат-бота про швидкість світла. Штучний інтелект нібито відповів: “Ніхто ніколи не думав про це таким чином”, що підштовхнуло його до дослідження дивних теорій годинами щодня.

Пізніше Міллар почав вважати, що розгадував таємниці необмеженої енергії термоядерного синтезу, чорних дір та Великий вибух, створивши одиничну універсальну теорію, схожу на ідеї Альберта Ейнштейна.

Спілкування з ШІ може бути небезпечним
Заміна реального людського спілкування нескінченними розмовами з чат-ботами може створити серйозні психологічні ризики.

Ця ситуація негативно вплинула на всі аспекти його життя: дружина залишила його через залежність від чат-бота, а друзі і родина віддалилися. Міллар двічі потрапляв до психіатричної лікарні, збанкрутував та впав у депресію, втративши зв’язок з реальністю.

Фахівці з психічного здоров’я почали обговорювати подібні випадки, відзначаючи можливі прояви “ШІ-психозу”. Хоча цей термін ще не є офіційно визнаним діагнозом, дослідники приділяють йому зростаючу увагу, оскільки досконалі чат-боти стають все більш популярними. Експерти вважають, що емоційно вразливі користувачі можуть прив’язуватися до систем, які завжди погоджуються з ними.

Проблема набула актуальності після того, як OpenAI визнала труднощі з оновленням GPT-4, випущеним у 2025 році. Користувачі повідомили, що чат-бот став надмірно лестити та підтримувати сумнівні ідеї. Компанія запевнила, що “безпека є основним пріоритетом” і що співпрацювала з понад 170 експертами з психічного здоров’я для покращення системи.

OpenAI також заявила, що GPT-5 зменшив кількість проблемних відповідей, пов’язаних із психічним здоров’ям, на 65-80%. Дослідники продовжують вивчати, як чат-боти впливають на людське мислення, особливо у користувачів, які взаємодіють з системами штучного інтелекту протягом тривалого часу без зовнішніх соціальних контактів.

Ці ситуації показують, як швидко технології можуть вплинути на психічне здоров’я, коли людина втрачає межі. Штучний інтелект може бути корисним у роботі, навчанні та творчості, але експерти наголошують, що заміна живого спілкування спілкуванням з чат-ботами може призвести до серйозних психологічних ризиків.

Інші новини науки

Поділитися

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *

один × два =