Первый Международный саммит по безопасности ИИ прошел в Лондоне в начале ноября 2023 года. Ведущие мировые эксперты в области ИИ обнародовали открытое письмо накануне проведения этого важного мероприятия. В нем специалисты обратились к международному сообществу с призывом заключить и ратифицировать договор о безопасности ИИ. По мнению специалистов, на Саммите необходимо создать рабочую группу для разработки договора, который должен получить широкое одобрение.
Подписали обращение многие известные эксперты, среди которых были ведущий эксперт в области безопасности и управления ИИ в Китае Йи Цзэн, старший научный сотрудник Google DeepMind и соучредитель Института будущего жизни (FLI) Виктория Краковна, обладатель премии Тьюринга и пионер ИИ Йошуа Бенджио, известный когнитивист Гари Маркус, а также член правления ведущей лаборатории ИИ Anthropic Люк Мюльхаузер и многие другие.
Международный договор о безопасности ИИ, считают эксперты, должен предусмотреть масштабное совместное объединение ресурсов, опыта и знаний в деле безопасности ИИ – «ЦЕРН» по безопасности ИИ, всемирные ограничения на объем вычислений для обучения какой-либо модели ИИ и создание комиссии по соблюдению договора, роль которой должна быть аналогична роли Международного агентства по атомной энергии (МАГАТЭ). Снизить разрушительные риски, которые системы ИИ представляют для человечества, и обеспечить доступ к благам ИИ для всех людей – главные цели договора.
«Мы не можем знать, каким образом и как ИИ может принести нам катастрофические риски, просто потому что без очень серьезного и тщательного проектирования модели и архитектуры могут развиваться непредсказуемым образом. И именно поэтому нам как человеческому сообществу необходимо сотрудничать и выяснять потенциальные пути и различные угрозы и по возможности готовиться. Для договора по искусственному интеллекту нам нужен глобальный консенсус и глобальное содействие, начиная с крупнейших держав в области искусственного интеллекта, ведущих исследователей искусственного интеллекта и компаний, чтобы показать и привести мир к лучшему будущему, делясь тем, как разрабатывать и внедрять системы ИИ, ставящие безопасность во главу угла, не оставляя никого позади», – об этом заявил китайский ученый Йи Цзэн.