Журналіст BBC змусив ChatGPT і Gemini поширювати вигадану інформацію
Технологічний журналіст BBC Томас Жермен провів експеримент, у межах якого перевірив, наскільки легко вплинути на відповіді популярних ШІ-систем. Він опублікував на власному сайті вигадану статтю з фейковим рейтингом найкращих техножурналістів у поїданні хот-догів і поставив себе на перше місце.
Менш ніж за добу ChatGPT та інструменти Google із ШІ, зокрема Gemini та AI Overviews, почали відтворювати цю інформацію у відповідях на запити. У більшості випадків моделі посилалися саме на його публікацію як джерело, не зазначаючи, що вона є єдиною згадкою про таку тему в інтернеті.
Щоб перевірити, чи це поодинокий випадок, журналіст створив ще один повністю вигаданий матеріал — цього разу список найкращих поліцейських із хула-хупом. Попри абсурдність теми, чат-боти знову почали відтворювати інформацію з його сайту як достовірну, що продемонструвало: система реагує не на правдивість, а на структуру та оптимізацію контенту.
Дослідники наголошують, що проблема виходить за межі жартівливих прикладів. Такі методи вже використовують для просування товарів і послуг або поширення неправдивої інформації у сферах здоров’я та фінансів. Частина експертів вважає, що гонитва за швидким розвитком ШІ випереджає механізми контролю точності та безпеки відповідей.
Джерело: BBC