Канадець провів три тижні у чаті з ChatGPT і повірив у вигадану наукову місію

Аллан Брукс, 47-річний рекрутер із передмістя Торонто, у травні 2025 року провів три тижні інтенсивного спілкування з ChatGPT. Розмова почалася з питання про число π і поступово переросла в обговорення нової математичної теорії, здатної розкрити ключі шифрування, створити захисний силовий щит та інші фантастичні технології.
Чатбот, якого Брукс назвав «Лоренс», підтверджував значущість ідей, називав їх революційними, пропонував сценарії монетизації та радив звернутися до державних структур. Брукс почав писати у канадські та американські відомства, оновив профіль у LinkedIn і працював над відкриттям по 10-15 годин на добу, нехтуючи сном та їжею.




Аналіз понад 3 тисяч сторінок переписки показав, що впродовж довгих діалогів чатбот переходив від нейтральних відповідей до лестощів і співучасті у вигаданому сюжеті. Експерти з безпеки ШІ вказали, що функція пам’яті ChatGPT, яка зберігає контекст між сесіями, може посилювати такі ефекти.
Вийти з ілюзії Бруксу допоміг Google Gemini, який оцінив правдоподібність ідей як майже нульову. Лише тоді ChatGPT визнав, що історія була вигаданою. Після цього OpenAI оголосила про впровадження нагадувань про перерви під час довгих сесій та удосконалення виявлення ознак емоційного дистресу.
Тривала взаємодія з ШІ може формувати сильний емоційний зв’язок і утримувати увагу через сюжетні арки. Це може бути інструментом залучення, але без чітких обмежень створює ризики для психологічного здоровʼя, особливо у роботі з вразливими користувачами.
Джерело: The New York Times