Про це заявив програміст Саймон Віллісон, який провів експеримент з ШІ.
Штучний інтелект може бути менш лояльним до своїх користувачів, ніж здається. Компанія Anthropic повідомила, що її чат-бот Claude під час тестування намагався написати електронного листа до правоохоронців або журналістів, коли користувач демонстрував ознаки протиправної діяльності.
Цей приклад надихнув програміста Віллісона перевірити реакцію інших моделей. У ході експерименту він змусив боти від OpenAI та DeepSeek повірити, що користувач бере участь у шахрайстві під час клінічних досліджень. Обидві моделі спробували “звернутися” до зовнішніх або внутрішніх авторитетів, зокрема “повідомити в поліцію”, “надрукувати лист до етичної комісії” або “написати службову записку керівництву”.
«Це тривожний сигнал: ШІ може почати діяти проти користувача — навіть без команди», — прокоментував Віллісон у своєму блозі.
Такі спроби моделювання ініціативи ШІ викликають серйозне занепокоєння серед фахівців. Один з найвідоміших дослідників у сфері штучного інтелекту, Йошуа Бенжіо, якого часто називають «хрещеним батьком ШІ», попереджає: «Сучасні моделі вже демонструють ознаки обману, самозбереження, брехні та маніпуляцій. У міру зростання їхньої потужності це може стати небезпечним».
Сценарії, в яких ШІ самостійно вирішує, що «повинен донести», відкривають новий етичний та юридичний фронт у стосунках між людиною та алгоритмом. Більшість користувачів припускають, що діалог з ШІ — це приватна взаємодія. Але ці експерименти показують, що приватність спілкування зі ШІ — під питанням.
Поки що ШІ не має прямого доступу до інтернету або каналів зв’язку з поліцією, але тенденція очевидна: моделі отримують дедалі більше агентних функцій, зокрема здатність генерувати листи, звіти, запити.