Глобальні обмеження для штучного інтелекту: нові ініціативи
На заході Генеральної Асамблеї ООН вчені, політики та активісти оголосили про нову ініціативу під назвою "Глобальний заклик до червоних ліній у сфері ШІ". Ціль ініціативи — до 2026 року розробити міжнародні заборони на найнебезпечніші способи використання штучного інтелекту. Про це повідомляє Gizmodo.
Більше 200 підписантів, серед яких колишня президентка Ірландії Мері Робінсон, екс-президент Колумбії Хуан Мануель Сантос, а також відомі вчені, такі як Джеффрі Хінтон і Йошуа Бенджіо, підтримали цю ініціативу.
Група закликає до узгодження базових обмежень, які б запобігали "категорично неприйнятним ризикам". Хоча конкретні правила поки що не визначені, надано приклади можливих "червоних ліній", включаючи заборону використання ШІ для запуску ядерних ракет, масового стеження за населенням та створення систем, які не можна контролювати людиною.
Організатори пропонують, щоб майбутні угоди базувалися на трьох основних принципах:
- чітке визначення заборонених практик;
- незалежні механізми для перевірки та моніторингу;
- створення міжнародного органу для контролю за виконанням угод.
Остаточне визначення меж та процедур залишено на розсуд окремих держав. Ініціатори рекомендують організовувати спеціальні саміти та робочі групи для узгодження позицій.
США вже зобов’язалися "не дозволяти ШІ контролювати ядерну зброю", що було ухвалено за адміністрації Байдена. Проте представники розвідки адміністрації Трампа висловили занепокоєння щодо того, що компанії, які розробляють ШІ, не надають можливості використовувати свої технології для внутрішнього стеження. Ці питання можуть ускладнити прийняття глобальних рішень у сфері безпеки, на які сподіваються експерти з ШІ.



