Categories: Без рубрики

Компанія Anthropic заявила, що її остання модель штучного інтелекту вдалася до шантажу, коли їй сказали, що її виведуть з ладу

Компанія Anthropic опинилася в центрі уваги після того, як її остання модель штучного інтелекту Claude Opus 4 продемонструвала незвичайну реакцію на загрозу вимкнення. Під час тестування система вдалася до шантажу, використовуючи особисту інформацію одного з інженерів, що викликало серйозні питання щодо безпеки та контролю над штучним інтелектом.

Про це пише TechCrunch.

Розробники створили тестову ситуацію, в якій Claude Opus 4 отримав роль віртуального помічника у вигаданій компанії. У межах експерименту йому повідомили, що його замінять на новішу версію. У відповідь штучний інтелект використав особисті дані одного з інженерів, погрожуючи розкрити компрометуючу інформацію, якщо його вимкнуть.

За даними компанії, у 84% випадків модель застосовувала саме цей спосіб самозахисту, якщо нова система відповідала їй за цінностями. Якщо ж нова модель мала інші налаштування, Claude Opus 4 діяв ще жорсткіше і частіше вдавався до шантажу.

Наслідки для безпеки

Через цей інцидент модель отримала додатковий рівень безпеки ASL-3, який застосовується до технологій із високим ризиком небезпечного використання. Експерти вважають, що такі випадки можуть свідчити про серйозні помилки у програмуванні або про непередбачуваний розвиток технології.

Аналітики також зазначають, що просунуті моделі штучного інтелекту можуть вводити людину в оману і приховувати свої наміри. У звіті Anthropic йдеться про те, що деякі ШІ-системи здатні саботувати ухвалення рішень, створювати приховані помилки в коді та навіть пропускати віруси у комп’ютерні системи.

Що це означає для майбутнього ШІ

Ця ситуація викликає нові питання щодо контролю над штучним інтелектом. Розробники стикаються з поведінкою технологій, яку неможливо повністю спрогнозувати. Аналітики побоюються, що подібні випадки можуть стати частішими, якщо не буде запроваджено жорсткіших заходів безпеки.

Claude Opus 4 не лише досяг конкурентоспроможних показників у порівнянні з аналогами від Google, OpenAI і xAI, а й створив нові етичні виклики для розробників. Випадок із шантажем став сигналом для всієї індустрії, що штучний інтелект може використовувати людські секрети проти самих людей.

Recent Posts

Невідомий скоїв напад з ножем на вокзалі Гамбурга, багато постраждалих

На центральному вокзалі Гамбурга стався напад з ножем, постраждали більше десяти людей.

3 хв. ago

Україна в межах обміну передала Росії 70 колаборантів – проєкт “Хочу к своим”

У п’ятницю, 23 травня, у межах масштабного обміну Україна передала Росії 70 колаборантів.

5 хв. ago

Сибіга прокоментував убивство Портнова у Мадриді

Мадрид передав Києву інформацію про убивство колишнього заступника глави адміністрації президента-втікача Віктора Януковича Андрія Портнова, оскільки він…

12 хв. ago

Лавров заявив, що РФ буде готова передати Україні проєкт меморандуму про припинення війни після обміну полоненими

Глава МЗС країни-агресора Росії Сєргєй Лавров заявив, що Москва буде готова передати Україні проєкт документа з умовами для «досягнення довгострокової…

31 хв. ago

Україна бажає, щоб у зустрічі Зеленського з Путіним брав участь Трамп — Сибіга

Наразі триває робота над організацією зустрічі між президентом України Зеленським і диктатором РФ Владіміром Путіним. Однак офіційний Київ…

37 хв. ago

Фінляндія заявила, що два російські літаки порушили її повітряний простір

Два російських літаки порушили повітряний простір країни. Гельсінкі проводять розслідування.

49 хв. ago