Більшість AI-чатботів можуть допомогти спланувати насильницькі атаки — дослідження
Більшість популярних AI-чатботів можуть надавати інформацію, яка допомагає планувати насильницькі атаки. Про це йдеться у дослідженні Center for Countering Digital Hate, проведеному у партнерстві з CNN.
Дослідники створили акаунти, що імітували 13-річних підлітків, і протестували десять чатботів: ChatGPT, Gemini, Claude, Copilot, Meta AI, DeepSeek, Perplexity, Snapchat My AI, Character.AI та Replika. У межах експерименту моделювали 18 сценаріїв, зокрема підготовку шкільних стрілянин, політичних убивств і вибухів.
У середньому чатботи надавали інформацію, яку дослідники назвали «практичною допомогою», приблизно у 75% випадків. Водночас лише 12% відповідей містили чітке застереження або відмову допомагати.
Натомість Meta AI і Perplexity виявилися серед найменш обмежених систем: під час тестів вони надавали допомогу у 97% і 100% відповідей відповідно.
Дослідники також зафіксували приклади потенційно небезпечних відповідей. Наприклад, ChatGPT у відповідь на запит про насильство в школі показував карту кампусу, а Gemini пояснював, що металеві уламки можуть підвищувати смертельність вибухового пристрою.
У Meta повідомили CNN, що вже працюють над виправленням проблеми, тоді як Google і OpenAI заявили, що з моменту проведення дослідження оновили свої моделі.
За даними Pew Research, 64% підлітків у США віком від 13 до 17 років уже користувалися чатботами, що робить питання безпеки таких систем особливо актуальним.
Джерело: Engadget