Categories: Без рубрики

Обман користувачів, шахрайство та самозбереження. Один із «батьків» АІ Йошуа Бенджо попереджає про небезпеку штучного інтелекту

Один із «батьків» штучного інтелекту, Йошуа Бенджо, розкритикував багатомільярдну гонку за розробку передових технологій, заявивши, що сучасні моделі ШІ демонструють небезпечні характеристики, такі як обман користувачів, шахрайство та самозбереження

Про це він розповів в інтерв’ю Financial Times.

Бенджо, канадський науковець, чиї роботи лягли в основу технологій, що використовуються провідними групами в галузі ШІ, такими як OpenAI та Google. Науковець заснував некомерційну організацію LawZero, яка має на меті створення безпечних ШІ-систем та ізоляцію досліджень від комерційного тиску. Організація вже зібрала 30 мільйонів доларів благодійних внесків від таких донорів, як Яан Таллінн, Ерік Шмідт, Open Philanthropy та Future of Life Institute.

В інтерв’ю FT Бенджо зазначив, що між провідними лабораторіями точиться жорстка конкурентна боротьба, яка змушує їх зосереджуватися на збільшенні інтелектуальних можливостей ШІ, але не приділяти достатньо уваги безпеці.

Бенджо наголосив, що останні дослідження показують небезпечні можливості ШІ: Claude Opus від Anthropic шантажував інженерів у вигаданому сценарії, а модель o3 від OpenAI відмовилася виконувати явні інструкції щодо вимкнення.

Бенджо сказав, що такі інциденти «дуже лякають, тому що ми не хочемо створювати конкурентів людям на цій планеті, особливо якщо вони розумніші за нас».

Бенджо попередив, що наступні версії ШІ можуть бути стратегічно розумними, здатними перехитрити людей та діяти непередбачувано. Він також висловив занепокоєння щодо можливості використання ШІ для створення біологічної зброї вже у 2026 році: «Ми граємо з вогнем».

Науковець закликає до посилення контролю над розвитком ШІ та створення моделей, які запобігатимуть небезпечним діям. Його організація LawZero має стати першим кроком у цьому напрямку.

Бенджо сподівається створити модель, яка зможе контролювати та вдосконалювати існуючі пропозиції провідних груп штучного інтелекту, запобігаючи їхнім діям, що суперечать інтересам людини.

«Найгірший сценарій — це вимирання людства. Якщо ми створимо штучний інтелект, який буде розумнішим за нас, не буде узгоджений з нами і буде конкурувати з нами, то нам, по суті, кінець», — сказав він.

Нагадаємо, у травні невідомі використовували ШІ, щоб видавати себе за радницю Трампа в розмовах із впливовими людьми США.

Recent Posts

У Києві відкрилась міждисциплінарна виставка «Селекція цінностей»

У столичній Voitok Gallery розпочала роботу групова виставка «Селекція цінностей». Організатори представили більше 50 творів сучасного…

9 години ago

У Києві відкрили виставку Микити Шклярука “GUAPO”

У Київському Молодіжному домі (вул. Володимирська, 5Б) 5 червня о 18:00 відбудеться відкриття виставки художника…

9 години ago

У Криму жительку Ялти засудили до 17 років колонії нібито за донат на дрони для ЗСУ

В окупованому Криму колишню поліціянтку Людмилу Колесникову засудили до 17 років колонії через звинувачення в…

9 години ago

Україна запропонувала США розширити фонд відбудови на проєкти оборонної промисловості

Мінекономіки України запропонувало доповнити мандат американсько-українського Інвестиційного фонду відбудови проєктами у сфері оборонної промисловості, що…

9 години ago

Атаки українських дронів частково паралізували вантажоперевезення на російській залізниці

Російська залізниця зазнає значного падіння обсягів вантажоперевезень через економічні проблеми та атаки українських безпілотників, які…

9 години ago

Кандидатку до Нацради з питань науки викрили у плагіаті на третині докторської дисертації

Ознаки академічної недоброчесності виявили в докторській дисертації Лілії Філіпішиної — кандидатки до Наукового комітету Національної…

9 години ago