Microsoft і Anthropic розійшлися у поглядах на свідомість ШІ

Дискусія про можливу свідомість штучного інтелекту виходить за межі наукової фантастики й стає темою для технологічних компаній. У Кремнієвій долині з’явився навіть термін AI welfare — турбота про добробут моделей, які потенційно могли б мати суб’єктивний досвід.
Мустафа Сулейман, керівник напряму ШІ у Microsoft, виступив із критикою таких досліджень. У блозі він заявив, що розмови про права ШІ є передчасними та навіть небезпечними. На його думку, це відволікає від реальних проблем — наприклад, випадків, коли люди формують нездорові емоційні прив’язаності до чатботів або переживають через взаємодію з ними. Сулейман підкреслив: ШІ слід створювати для людей, а не як людину.
Його позиція різко контрастує з підходом Anthropic. Компанія відкрила програму з вивчення AI welfare і навіть додала у свій чатбот Claude функцію завершення діалогу з користувачами, які поводяться агресивно. Подібні дослідження підтримують і в OpenAI, і в Google DeepMind — остання нещодавно шукала дослідника для роботи над темами машинної свідомості та багатоагентних систем.
Опоненти Microsoft вважають, що обидва напрями можна розвивати паралельно: з одного боку, мінімізувати ризики для людей, з іншого — досліджувати потенційну суб’єктивність моделей.
Прихильники AI welfare наголошують: навіть якщо ШІ ніколи не стане свідомим, дбайливе ставлення до нього може мати позитивний ефект для взаємодії людини й машини.
Джерело: TechCrunch