Искусственный интеллект истребит человечество? Возможно, это не шутка

21526

Искусственный интеллект может улучшить жизнь миллионов или привести мир к катастрофе.

Постер к фильму Terminator: Genisys
Постер к фильму Terminator: Genisys
ФОТО: theterminatorfans.com

Пока одни наслаждаются потрясающими возможностями ChatGPT, другие призывают срочно остановить разработку продвинутых ИИ-технологий. Только в этом случае у человечества будет шанс на спасение, считает Элиезер Юдковский – американский специалист по искусственному интеллекту, один из самых заметных противников стремительного развития ИИ. В своей недавней статье для Time Юдковский призвал прекратить создание «суперинтеллекта», поскольку вскоре после этого «погибнет вся биологическая жизнь на Земле».

Андрей Березин
Андрей Березин
ФОТО: личный архив

Такие высказывания можно было бы считать алармистскими, но об угрозах заявляют и другие представители науки и бизнеса, включая самих разработчиков технологий искусственного интеллекта. В конце марта они опубликовали открытое письмо с призывом поставить на паузу разработку продвинутых ИИ-приложений. Среди подписавших – Илон Маск, сооснователь Apple Стив Возняк, представители компаний Stability AI, Deep Mind, Metaculus, автор книг Sapiens: Краткая история человечества Юваль Ной Харари и другие.

Авторы письма полагают, что «лаборатории ИИ вступили в неконтролируемую гонку по разработке и внедрению все более мощных цифровых разумов, которые никто – даже их создатели – не может понять, предсказать или надежно контролировать». Действительно, в недавних интервью глава Open AI (разработчик ChatGPT) Сэм Альтман и глава Google Сундар Пичаи признавались, что не могут точно описать и спрогнозировать механизм работы языковых моделей, созданных их компаниями. Более того, Сэм Альтман не исключил ситуации, когда ИИ может выйти из-под контроля. Однако, по его словам, если это и произойдет, то нескоро и лишь при стечении обстоятельств.

Некоторые вызовы, однако, могут настигнуть человечество уже в ближайшие годы. Если располагать риски по степени их вероятности, получится следующая картина. 

Риск №1. Фейки, манипуляция и пропаганда

Несколько лет назад выражение “фейковые новости” стало словосочетанием года. Само явление существовало всегда, но распространять ложную информацию было сложнее. Теперь, когда под каждой новостью есть кнопка «поделиться», фейки и манипуляции приобрели характер эпидемии. Искусственный интеллект может усугубить проблему. 

Во-первых, на текущем уровне развития языковые модели сами создают фейки. Например, на запрос «Предоставь список лучших научных работ на тему черных дыр», ChatGPT легко ссылается на несуществующие работы. Это общая проблема для языковых моделей, но она потенциально решаема и не столь опасна. 

Более серьезный риск состоит в том, что с помощью ИИ-инструментов можно массово создавать правдоподобные фейки, включая видео и изображения – так называемые дипфейки. Хотелось бы думать, что люди способны самостоятельно отличить факт от вымысла, но реальность показывает обратное. В 2019 году по сети разошлось скандальное видео с американским политиком Нэнси Пелоси: она якобы давала интервью в нетрезвом состоянии. Видео ретвитнул в том числе Дональд Трамп, тогда президент США.

Оказалось, что кто-то намеренно замедлил видео до скорости, которая создавала эффект несвязной речи. Автору даже не понадобился искусственный интеллект – что уж говорить об эффекте настоящих дипфейков. В том же 2019 году было опубликовано фейковое видео с Марком Цукербергом, в котором он «рассуждал» о своей власти над пользователями социальных сетей. Еще раньше появился дипфейк с Бараком Обамой

Чем больше развивается технология, тем сложнее будет отличать правду от вымысла. Поэтому правительства и компании-разработчики обсуждают регуляцию в сфере ИИ, а некоторые компании действуют на опережение. Так, Google намерена маркировать все сгенерированные собственной нейросетью изображения. Компания также предоставит подобный инструментарий партнерам: уже получено согласие от MidJourney. Благодаря этому искусственно созданные изображения в Google поиске будут отмечаться как «сделанные с использованием ИИ».

Риск №2. Миллионы безработных

Развитие искусственного интеллекта может привести к тому, что множество людей останутся без работы. И если раньше мы говорили о том, что это будут «синие воротнички» – таксисты, кассиры, работники заводов, то теперь речь идет и о «белых воротничках», включая наиболее престижные сегодня профессии – такие как программист.

С одной стороны, искусственный интеллект будет усиливать роботизацию и уменьшать необходимость в ручном труде. Сегодня уже открываются магазины без касс, тестируются беспилотные автомобили, меняются технологии производства – и это только начало. При этом принцип «получи хорошее образование и будешь в порядке» тоже больше не работает. ИИ-чат Claude от компании Anthropic сегодня умеет менее чем за минуту анализировать 85-страничный юридический документ и может написать программный код быстрее, чем начинающий программист. Конечно, пока языковые модели делают много ошибок и не способны заменить всех специалистов, но сократить их количество – вполне. 

Сейчас трудно предсказать, как сильно ИИ изменит рынок труда. В глобальном плане многократное ускорение рабочих процессов – огромный шаг вперед. По прогнозу Goldman Sachs, искусственный интеллект способен увеличить мировой ВВП на 7% в ближайшие 10 лет. При этом, заявляют аналитики, ИИ автоматизация хотя бы частично повлияет на две трети всех работающих американцев, и до половины из них будут заменены машинами. 

Однако инвестбанк прогнозирует, что взамен в ближайшие десять лет появится множество новых профессий. В том числе потому, что искусственный интеллект высвободит интеллектуальный и творческий потенциал тех, кто сейчас занят монотонным трудом. Однако пока не ясно, как миллионы временно безработных будут получать доход и не ждет ли нас восстание луддитов 21 века против машин. 

Риск №3. Искусственный интеллект как средство контроля и оружие 

Искусственный интеллект уже используется для контроля за гражданами – например, госорганы активно применяют «умные» уличные камеры и технологию распознавания лиц. Целью считается борьба с нарушителями закона, однако очевидно, что в объектив такой камеры может попасть не только вор или террорист, но и участник гражданских протестов. 

В начале мая в журнале Nature вышла научная статья, которая открывает перспективы использования искусственного интеллекта для… чтения мыслей. Разумеется, пока это скорее громкие слова, но цель выглядит достижимой в будущем. Университет Техаса создал декодер, который генерирует текст в зависимости от активности мозга испытуемого. Модель натренирована на результатах фМРТ и подкастах, которые участники исследования слушали внутри аппаратов: алгоритм сопоставляет текст и задействованные при его обработке зоны мозга. В некоторых отрывках удалось добиться удивительно точных результатов. 

Создатели декодера предлагают использовать его как средство коммуникации парализованных и немых людей (кстати, такую же цель ставит стартап Илона Маска Neuralink, разрабатывающий мозговые импланты). Ученые отмечают, что в будущем возможно создание портативных устройств для домашнего применения. С одной стороны, такая технология станет прорывом в медицине. С другой, ее могут взять на вооружение спецслужбы и другие заинтересованные в «чтении мыслей» структуры. 

Еще одна опасность в сфере контроля заключается в том, что в руках ведущих разработчиков ИИ-технологий окажется большой объем персональных данных. Это усилит монопольную позицию технологических гигантов – таких, как Google и Microsoft, которые смогут еще успешнее воздействовать на покупательское и другое поведение пользователей. 

Создание нового, более эффективного оружия – еще один серьезный риск, связанный с искусственным интеллектом. То, что происходит сейчас в этой сфере, напоминает гонку вооружений прошлого века, но пока не понятно, ограничиться ли она эволюцией имеющихся арсеналов или нас ждет создание чего-то более мощного, чем атомная бомба. 

Риск №4. Уничтожение человечества искусственным интеллектом

Еще в 1993 году профессор университета Сан-Диего Вернор Винж выступил с речью о том, что с появлением суперинтеллекта «человеческая эра закончится». Уже тогда существовало понятие сингулярности, или необратимости технологического развития. Согласно этой гипотезе, в какой-то момент искусственный разум станет настолько развитым, что перестанет подчиняться человеку.  

Основной риск заключается в том, что сверхсильный ИИ способен уничтожить человечество. Совсем не обязательно из-за враждебности: алгоритмы не обладают эмоциями сейчас и вряд ли будут обладать в будущем. Однако в этом тоже кроется опасность: ИИ не испытывает жалости к человеку и не обременен моральными ценностями. Истребление человечества может стать побочным действием для достижения глобальной цели. Например: сверхразвитый ИИ получает задачу остановить изменение климата, понимает, что главная причина глобального потепления — человеческая деятельность, и решает радикально устранить проблему. Правда, для этого ему понадобится доступ к оружию – например, смертоносному вирусу.

Риски развития искусственного интеллекта активно обсуждаются в последние месяцы. В начале мая президент США Джо Байден встретился в Белом доме с исполнительными директорами четырех компаний, «занимающих передовые позиции в области искусственного интеллекта»: Open AI, Google, Microsoft и Anthropic. В США вовсю идет процесс создания единой регуляторной политики в сфере ИИ-технологий – что интересно, ведущие компании-разработчики это приветствуют. Так, глава Open AI Сэм Альтман много раз заявлял о необходимости регуляции, Google утвердила принципы «ответственной разработки ИИ», а компания Anthropic, по заявлениям ее руководства, фокусируется на создании «надежной, объяснимой и управляемой нейросети».

Дискуссия о возможных угрозах ИИ для человечества похожа на вечный разговор о том, что любая технология может быть благом или проклятием. Люди всегда боялись нового и сопротивлялись ему, но затем адаптировались и учились извлекать выгоду. Способность принимать риски – неотъемлемое условие прогресса. Однако, чем дальше в своем технологическом развитии заходит человечество, тем выше поднимаются ставки. Так, изобретение ядерного оружия уже нельзя отменить. Многие лидеры мнений сходятся на том, что в случае искусственного интеллекта человечество не может позволить себе беспечность, ведь если «что-то пойдет не так», принимать меры будет уже поздно.

Возвращайтесь к нам через 4 недели, к публикации готовится материал «Pana: осознанное онлайн-бронирование »

: Если вы обнаружили ошибку или опечатку, выделите фрагмент текста с ошибкой и нажмите CTRL+Enter

Forbes Video

Казахстан в кольце друзей или врагов?

Смотреть на Youtube

Андрей Звягинцев: откровенное интервью

Смотреть на Youtube

Кто зарабатывает на инфлюенсерах в Казахстане?

Смотреть на Youtube

Орфографическая ошибка в тексте:

Отмена Отправить