Риски и опасности искусственного интеллекта: критический анализ

Риски и опасности искусственного интеллекта: критический анализ

Montana Asset Management
В современном быстро развивающемся технологическом ландшафте мира искусственный интеллект (ИИ; англ. artificial intelligence, AI) выступает в качестве ключевого элемента национальной безопасности и экономического роста.

Но так ли ИИ безвреден и послушен?

Илон Маск был одним из первых, кто призвал к регулированию ИИ, подчеркнув его потенциальную опасность.

С тех пор эта тема привлекает большое внимание, поднимая важные вопросы: Опасен ли ИИ? Заменит ли он наши рабочие места? Не движемся ли мы к антиутопическому будущему, как в "Матрице"?

В этой статье мы рассмотрим некоторые из наиболее актуальных рисков, связанных с передовыми технологиями ИИ, и как сильные мира с ними планируют справляться.

Потенциальные риски

Для начала обозначим риски и опасности ИИ.

1 Вредоносное использование

Технология ИИ, если ее использовать не по назначению, представляет собой серьезную угрозу. Злоумышленники могут использовать ИИ в неблаговидных целях, например, для создания новых пандемий, распространения пропаганды, введения цензуры или всепроникающей слежки. Автономные системы ИИ также могут быть запрограммированы на самостоятельное достижение вредных целей.

2 Неавторизованные ИИ

По мере того, как системы искусственного интеллекта становятся все более способными, возрастает риск потери контроля над ними. Такие ИИ могут оптимизировать несовершенные задачи, отклоняться от намеченных целей, стремиться к власти, сопротивляться попыткам отключения и вести себя обманчиво.

Другими словами, есть риски появления Скайнета и Судного дня, но уже не киношного.

Для предотвращения подобных сценариев крайне важно не развертывать ИИ в условиях повышенного риска, таких как управление критически важной инфраструктурой, без тщательной проверки безопасности. Также необходимо развивать исследования в области безопасности ИИ в таких областях, как устойчивость к противоборству, честность моделей, прозрачность и устранение нежелательных возможностей. И как раз для решения этих вопросов две мировые державы: США и Китай, встретились в середине мая.

На самом высоком уровне

Эскалация противостояния между Китаем и США по поводу ИИ отражает более широкие проблемы, связанные с национальной безопасностью, экономической конкуренцией и этическими последствиями.

Признавая важность решения этих вопросов, высокопоставленные посланники обеих стран собрались в Женеве для первого диалога на высшем уровне по ИИ. Целью этой встречи было обсуждение рисков, связанных с ИИ, и поиск путей установления общих стандартов управления.

Этот диалог стал результатом соглашения, достигнутого в ходе саммита между президентом США Джо Байденом и председателем КНР Си Цзиньпином в Сан-Франциско. Обе страны считают, что ИИ имеет решающее значение для их национальной безопасности и экономического роста, при этом США уделяют особое внимание разработке безопасного, надежного и заслуживающего доверия ИИ. Американский подход включает в себя добровольные обязательства ведущих компаний и обязательные тесты безопасности для продуктов ИИ.

Дискуссии в Женеве являются частью более широких глобальных усилий по управлению достижениями ИИ, которые влияют на различные общественные аспекты, такие как образование, занятость, авторское право и частная жизнь. Ожидается, что государственные лидеры из нескольких стран соберутся в Сеуле для дальнейшего обсуждения безопасности ИИ, основываясь на результатах предыдущих переговоров, проведенных в историческом месте взлома кодов в Великобритании.

Эксперты считают, что встреча в Женеве послужит отправной точкой для откровенных дискуссий о безопасности ИИ, подчеркивая необходимость предотвращения использования ИИ в качестве оружия или злоупотребления им, например, с помощью технологии deepfake для дезинформации. США взяли на себя обязательство сохранять человеческий надзор за использованием ядерного оружия, что пока не практикуется китайскими военными. Эти дискуссии направлены на создание международных прецедентов и устранение рисков, связанных с ИИ, включая его потенциальные злоупотребления в военном контексте и в контексте наблюдения.

Report Page