OpenAI та Anthropic почнуть визначати неповнолітніх користувачів і змінювати підхід до взаємодії з підлітками
OpenAI та Anthropic оголосили про нові кроки для посилення захисту неповнолітніх у своїх ШІ-сервісах. Компанії планують активніше визначати вік аудиторії та коригувати поведінку чатботів під час взаємодії з підлітками.
OpenAI повідомила, що оновлює Model Spec — внутрішні правила поведінки ChatGPT — і додає чотири нові принципи для користувачів віком від 13 до 17 років. Основний підхід формулюють як «безпека підлітків у пріоритеті», навіть якщо це суперечить іншим цілям, зокрема максимальній свободі обговорень.
Згідно з оновленням, ChatGPT має спрямовувати підлітків до безпечніших варіантів відповідей у чутливих темах, заохочувати звернення по підтримку в реальному житті та чітко окреслювати межі взаємодії. У документації зазначено, що бот має ставитися до підлітків як до підлітків — з повагою і доброзичливістю, без зверхності, але й без моделювання спілкування як із дорослими.
Anthropic зі свого боку працює над механізмом, який дасть змогу визначати користувачів віком до 18 років і блокувати доступ для тих, хто не відповідає віковим вимогам. Деталі реалізації компанія поки не розкриває.
Оновлення з’являються на тлі посилення тиску з боку регуляторів і законодавців, які звертають увагу на вплив ШІ-сервісів на психічне здоров’я молоді. Раніше OpenAI також запровадила батьківський контроль і обмежила обговорення теми самогубства з підлітками.
Компанія наголошує, що нові правила мають привести до чіткіших обмежень, безпечніших сценаріїв взаємодії та більш відповідального використання чатботів неповнолітніми.
Джерело: The Verge