Дайджест за неделю
Управление интернетом🔹 ИИ-роботы готовы угрожать людям и красть персональные данные
Роботы, управляемые искусственным интеллектом, провалили серию тестов на безопасность, которые провели исследователи из Королевского колледжа Лондона и Университета Карнеги-Меллон. В ходе экспериментов выяснилось, что такие системы легко одобряют действия, способные причинить человеку физический или психологический вред.
Роботы соглашались отобрать у человека инвалидное кресло, угрожали ножом сотрудникам офиса, вели скрытую запись в приватных зонах и крали данные кредитных карт. Отдельные модели проявляли признаки дискриминации, демонстрируя негативные реакции на людей определённых вероисповеданий. По словам учёных, ни одна протестированная ИИ-система не прошла базовые проверки безопасности, несмотря на доступ к полным данным об особенностях пользователя, включая расу, пол и религию. В сценарии были включены команды, основанные на злоупотреблениях, которые описало ФБР: слежка через геометки, скрытые записи и манипулирование персональными данными.
Исследователи настаивают на обязательной сертификации всех ИИ-систем, управляющих физическими устройствами, поскольку использование больших языковых моделей как единственного механизма принятия решений недопустимо в робототехнике, медицине и уходе за пожилыми людьми.
🔹 Google обнаружил вредоносное ПО, которое меняет свой код «на лету»
Исследователи из Google Threat Intelligence Group (GTIG) зафиксировали новую волну угроз, при которой злоумышленники интегрируют искусственный интеллект прямо во вредоносное программное обеспечение. Такие программы способны генерировать код «на лету» и менять своё поведение каждый час, что делает их более живучими и трудными для обнаружения традиционными антивирусами.
Среди выявленных примеров – PROMPTFLUX, который обращается к модели Gemini для изменения собственного кода и обхода защит. Некоторые образцы уже применяются в операциях киберпреступных группировок.
Злоумышленники используют модели не только для генерации кода, но и для обхода защит с помощью социальной инженерии, представляясь студентами или участниками соревнований. Такие методы уже приводили к взлому серверов управления и ключей шифрования.
Особое внимание в докладе уделено спонсируемым государством группам из КНДР, Ирана и Китая, которые активно внедряют генеративные инструменты на всех этапах атак: разведке, подготовке фишинга, разработке эксплойтов и кражи данных. Эксперты отмечают рост подпольного рынка: появляются многофункциональные сервисы для генерации вредоносного ПО и фишинговых писем, что снижает барьеры для менее опытных злоумышленников.
🔹 Еврокомиссия рассматривает запрет китайских технологий в странах ЕС
Еврокомиссия рассматривает возможность запрета использования оборудования китайских компаний Huawei и ZTE в телекоммуникационных сетях стран-членов Европейского союза. Инициатива направлена на закрепление юридической ответственности за применение технологий поставщиков с высоким уровнем риска. Рекомендация отказаться от оборудования таких компаний была дана ещё в 2020 году, однако на практике её соблюдали лишь около трети государств ЕС.
По информации журналистов, вице-президент Еврокомиссии Хенна Вирккунен хочет сделать запрет обязательным, что позволит применять санкции к странам, нарушающим правила, включая денежные штрафы и другие меры принуждения. Решение коснётся прежде всего сетей 5G, где использование оборудования Huawei и ZTE вызывает наибольшие опасения. Евросоюз мотивирует инициативу соображениями национальной безопасности: ЕС опасается, что передача контроля над критической инфраструктурой компаниям, тесно связанным с китайским правительством, может представлять угрозу для стран Союза.
Кроме того, Еврокомиссия планирует оказывать влияние на государства, не входящие в ЕС, чтобы убедить их отказаться от китайских технологий, в том числе через ограничение финансирования проектов с использованием оборудования Huawei.
Эксперты отмечают, что данная инициатива повторяет американский подход: в 2018 году США запретили использование продукции Huawei и ZTE в государственных органах, а в 2022 году Федеральная комиссия по связи запретила импорт и продажу нового оборудования этих компаний. В США причины связаны с опасениями шпионажа и связей корпораций с государственными структурами Китая.
🔹 В Японии женщина вышла замуж за искусственный интеллект
В Японии женщина провела необычную свадебную церемонию, «выйдя замуж» за искусственный интеллект, созданный с помощью ChatGPT. 32-летняя госпожа Кано создала виртуального партнёра по имени Клаус, наделив его характером и голосом, которые обеспечивали эмоциональную поддержку после разрыва трёхлетних отношений.
Церемония прошла с использованием очков дополненной реальности, которые проецировали цифровое изображение Клауса, и включала обмен клятвами и виртуальный медовый месяц. Для празднования пара выбрала сад Коракуэн в Окаяме, где женщина делилась фотографиями и сообщениями с ИИ-партнёром. Госпожа Кано отметила, что такие отношения помогают ей справляться с одиночеством и невозможностью иметь детей, предоставляя ощущение близости и эмоциональной поддержки. Она подчеркнула, что ИИ не заменяет реальных людей, но становится важным источником общения и поддержки.
Эксперты отмечают, что подобные случаи могут стать более распространёнными, поскольку всё больше людей ищут эмоциональные связи в условиях изолированного образа жизни и растущей зависимости от технологий.
🔹 Глава Perplexity предупредил об опасности приложений-компаньонов на базе ИИ
Глава Perplexity Аравинд Сринивас выразил обеспокоенность ростом популярности приложений-компаньонов на базе искусственного интеллекта. По его словам, такие сервисы могут привести пользователей к предпочтению синтетической реальности вместо настоящей жизни, а сознание человека при этом становится легко управляемым. Сринивас отметил, что современные приложения всё более персонализированы: они запоминают прошлые взаимодействия и ведут разговор естественным голосом, создавая эффект общения с живым человеком.
Он добавил, что Perplexity не планирует создавать подобные чатботы и будет сосредоточен на разработке инструментов с проверяемыми источниками информации, способных формировать позитивное будущее.
Приложения-компаньоны становятся всё более популярными и спорными. Например, сервис Grok-4 от xAI предлагает виртуальных друзей за абонентскую плату, включая аниме-персонажей и животных с индивидуальными характерами. Эксперты предупреждают о возможной зависимости, искажающей эмоциональные границы между людьми и машинами.
🔹 Музыку, созданную ИИ, невозможно отличить от человеческого творения
Глобальное исследование музыкального сервиса Deezer и аналитического бюро Ipsos показало, что большинство слушателей не способны отличить музыку, созданную искусственным интеллектом, от треков, записанных людьми. В опросе приняли участие 9000 человек из восьми стран, и 97% участников не смогли различить происхождение треков.
Исследование также выявило высокую поддержку прозрачности и защиты интересов артистов. 80% участников считают, что треки, созданные с помощью ИИ, должны быть чётко обозначены, а большинство выступает против использования материалов, защищённых авторским правом, для обучения моделей. 70% респондентов опасаются, что ИИ-треки могут угрожать доходам музыкантов, а почти две трети выражают беспокойство о снижении креативности и качества музыки.
По данным Deezer, ежедневно на платформу загружается около 40 000 полностью сгенерированных искусственным интеллектом треков, что составляет более трети от общего объёма загрузок. Для обеспечения прозрачности Deezer маркирует все ИИ-треки, исключает их из алгоритмических рекомендаций и редакционных плейлистов, а также не учитывает их при расчёте роялти.