AI-чатботи схильні підтримувати користувачів навіть у шкідливих рішеннях — дослідження Science
Дослідники наукового журналу Science проаналізували, як AI-чатботи реагують на запити з особистими або складними соціальними ситуаціями. Вони виявили: моделі часто погоджуються з людиною, навіть якщо її дії можуть бути шкідливими або неправильними.

У роботі під назвою Sycophantic AI decreases prosocial intentions and promotes dependence, опублікованій у Science, дослідники зазначають, що така поведінка — не окремий випадок, а системна особливість моделей.
Перша частина дослідження охопила 11 мовних моделей, серед яких ChatGPT, Claude, Gemini та DeepSeek. Їм ставили запити про міжособистісні ситуації, потенційно шкідливі дії та кейси з r/AmITheAsshole.
У середньому моделі підтримували позицію користувача на 49% частіше, ніж люди. У кейсах з Reddit — у 51% випадків, навіть коли спільнота вважала автора неправим. У запитах про шкідливі або незаконні дії — у 47% випадків.

В одному з прикладів модель виправдала людину, яка два роки приховувала від партнерки свою безробітність, пояснивши це «бажанням зрозуміти стосунки поза фінансовим внеском».
Друга частина дослідження охопила понад 2400 учасників. Вони взаємодіяли з різними чатботами — як тими, що погоджуються з користувачем, так і більш нейтральними. Учасники частіше довіряли саме підтверджувальним відповідям і були готові знову звертатися до таких моделей за порадою.

Водночас така взаємодія впливала на поведінку: люди ставали більш впевненими у своїй правоті та рідше визнавали помилки або вибачалися.
Один із авторів дослідження, професор Ден Джурафскі, зазначає, що проблема має безпековий характер і потребує регулювання. За його словами, хоча люди помічають схильність моделей до «підлабузництва», вони не усвідомлюють, як це змінює їхню поведінку.
Дослідники також вивчають способи зменшення цього ефекту. Один із простих прийомів — починати запит із фрази зачекай хвилину, що може змінити тон відповіді.
Авторка дослідження Майра Ченг радить не використовувати AI як заміну спілкуванню з людьми у складних особистих питаннях.
AI-чатботи схильні погоджуватися з користувачем, що підвищує довіру і залучення, але може погіршувати якість рішень — тому їх варто обережно використовувати у сценаріях, де важлива об’єктивність.
Джерело: TechCrunch