Глобальные ограничения для ИИ: новые инициативы
На Генеральной Ассамблее ООН группа ученых, политиков и активистов представила новую инициативу под названием "Глобальный призыв к красным линиям в области ИИ". Цель инициативы — разработать международные запреты на наиболее опасные сценарии использования искусственного интеллекта к 2026 году. Об этом сообщает Gizmodo.
Документ подписали более 200 человек, включая бывшего президента Ирландии Мэри Робинсон, экс-президента Колумбии Хуана Мануэля Сантоса, а также известных ученых, таких как Джеффри Хинтон и Йошуа Бенджио.
Участники призывают правительства согласовать основные ограничения, которые бы предотвратили "категорически неприемлемые риски". Хотя конкретные правила пока не определены, приводятся примеры возможных "красных линий", включая запрет на использование ИИ для запуска ядерного оружия, массового наблюдения за гражданами и создания систем, которые нельзя остановить человеком.
Организаторы предлагают, чтобы будущие соглашения основывались на трех основных принципах:
- четкий перечень запрещенных практик;
- независимые механизмы проверки и аудита;
- создание международного органа для контроля за соблюдением соглашений.
В то же время окончательное определение границ и процедур оставлено на усмотрение государств. Инициаторы рекомендуют проводить специальные саммиты и рабочие группы для согласования позиций.
США уже обязались "не позволять ИИ контролировать ядерное оружие", что было принято во время администрации Байдена. Однако представители разведки администрации Трампа выразили недовольство тем, что компании, разрабатывающие ИИ, не допускают использования своих технологий для внутренних наблюдений. Эти вопросы могут усложнить принятие глобальных решений по безопасности, на которые рассчитывают эксперты по ИИ.