Американские компании OpenAI, Anthropic и Cohere, занимающиеся разработкой искусственного интеллекта, провели тайные дипломатические переговоры с китайскими экспертами в области ИИ, сообщает Financial Times со ссылкой на источники, которые присутствовали на переговорах. По их словам, в июле и октябре 2023 года в Женеве состоялись две встречи, на которых присутствовали ученые и эксперты по политике из американских групп, занимающихся ИИ, а также представители Университета Цинхуа и других китайских государственных учреждений, передает Forbes.ru.
Переговоры состоялись на фоне общей обеспокоенности из-за распространения дезинформации искусственным интеллектом и возможной угрозы обществу, добавляет газета. Источники сообщают, что эти встречи позволили обеим сторонам обсудить риски, связанные с развивающимися технологиями, и стимулировать инвестиции в исследования безопасности ИИ. Они добавили, что конечной целью является поиск научного пути для безопасного развития более сложных технологий в этой сфере. Кроме того, стороны обсудили возможное сотрудничество в области ИИ и более конкретные политические предложения, уточняют источники.
«Мы никак не сможем установить международные стандарты безопасности ИИ без соглашения между этим кругом участников», — сказал один из присутствовавших на переговорах. «А если они договорятся, то будет гораздо проще привлечь к этому остальных», — передает слова источника FT.
По словам одного из участников переговоров, женевские встречи были организованы с ведома Белого дома, а также официальных лиц Великобритании и Китая. «Китай поддерживает усилия по обсуждению управления ИИ и разработке необходимых норм и стандартов на основе широкого консенсуса», — заявили в посольстве Китая в Великобритании, передает FT. Газета также уточняет, что переговоры были организованы The Shaikh Group, частной посреднической организацией, которая способствует диалогу в конфликтных регионах, в частности на Ближнем Востоке.
При этом, по словам участников переговоров, китайские ИИ-компании ByteDance, Tencent и Baidu не принимали участия в переговорах, а Google DeepMind была проинформирована о деталях дискуссии, но не присутствовала на ней.
В марте 2023-го глава SpaceX, Tesla и X Илон Маск, сооснователь Apple Стив Возняк и более тысячи экспертов и руководителей отрасли по развитию искусственного интеллекта подписали открытое письмо с призывом приостановить разработку продвинутого ИИ до тех пор, пока не будут созданы, внедрены и проверены независимыми экспертами общие протоколы безопасности. «Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными, а риски — управляемыми», — говорится в документе, разработанном Институтом будущего жизни (Future of Life Institute).