Маск и Возняк призвали приостановить обучение систем ИИ из-за «риска для общества»

Глава SpaceX, Tesla и Twitter Илон Маск, сооснователь Apple Стив Возняк и более 1000 экспертов и руководителей отрасли по развитию искусственного интеллекта подписали открытое письмо с призывом приостановить разработку продвинутого ИИ до тех пор, пока не будут созданы, внедрены и проверены независимыми экспертами общие протоколы безопасности. «Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными, а риски — управляемыми», — говорится в документе, разработанном Институтом будущего жизни (Future of Life Institute), передает Forbes.ru.

Письмо призывает все ИИ-лаборатории немедленно приостановить как минимум на шесть месяцев обучение систем искусственного интеллекта более мощных, чем новая языковая модель GPT-4 от OpenAI. Если же такую паузу нельзя взять быстро, то «правительства должны вмешаться и ввести мораторий», говорится в письме.

Американская OpenAI представила новую версию языковой модели с генеративным искусственным интеллектом GPT-4 в марте 2023 года. На базе этой модели работает многозадачный чат-бот ChatGPT, который демонстрирует производительность на уровне человека в различных профессиональных и академических тестах и способен отвечать почти на любые вопросы пользователей и писать тексты по заданию.

Исполнительный директор OpenAI Сэм Альтман не подписал письмо, сообщил Reuters представитель Future of Life Institute. При этом сама OpenAI недавно заявила, что, прежде чем приступать к обучению будущих систем, следует согласиться ограничить скорость вычислений, используемых для создания новых моделей.

В открытом письме подчеркивается, что сегодня даже создатели «мощных цифровых умов» не в состоянии понимать их или надежно контролировать. При этом современные системы искусственного интеллекта уже становятся конкурентоспособными в решении общих задач, способны «наводнить информационные каналы пропагандой и неправдой» и заменить человека на важных рабочих местах. «Должны ли мы развивать нечеловеческие умы, которые в конечном итоге могут превзойти нас численностью, перехитрить и заменить? Должны ли мы рисковать потерей контроля над нашей цивилизацией?» — задаются вопросами авторы письма.

Ранее, 27 марта, полиция ЕС — Европол предупредил о потенциальном неправомерном использовании таких передовых систем искусственного интеллекта, как ChatGPT в фишинге, дезинформации и киберпреступности.

«Письмо не идеально, но суть верна: нам нужно притормозить, пока мы лучше не поймем последствия», — объяснил Reuters профессор Нью-Йоркского университета Гэри Маркус, также его подписавший. Он признал, что крупные игроки в сфере искусственного интеллекта становятся все более скрытными в отношении того, что они делают, «это осложняет защиту общества от вреда, который может материализоваться».

: Если вы обнаружили ошибку или опечатку, выделите фрагмент текста с ошибкой и нажмите CTRL+Enter
4109 просмотров
Поделиться этой публикацией в соцсетях:
Как спроектировать организацию, Или что значит систематизация бизнеса
Прежде чем приступать к систематизации, посмотрите на культуру, которая царит в компании
5 мин. 3566
The “Billions to Trillions” Charade
A growing number of commentators argue that governments and multilateral lenders alone cannot meet developing countries’ financing needs
5 мин. 2150
Уровень свободы в мире снижается пятый год подряд
Лишь пятая часть населения планеты проживает в странах, признанных свободными
3 мин. 3008
22 декабря родились
генеральный секретарь Казахстанской федерации футбола
министр внутренних дел РК
Forbes Video

Казахстанский фастфуд идёт в Россию

Обсуждаемые в Соцсетях
Самые Читаемые

Орфографическая ошибка в тексте:

Отмена Отправить