Отчет: такие компании, как Amazon и Microsoft «ставят мир под угрозу» убийственного ИИ

Отчет: такие компании, как Amazon и Microsoft «ставят мир под угрозу» убийственного ИИ



Опрос основных игроков отрасли показывает, что ведущие технологические компании, такие как Amazon и Microsoft, подвергают мир «риску» убийственного ИИ.

PAX, голландская неправительственная организация, оценила 50 фирм на основе трех критериев:

  1. Если бы технологии, которые они развивают, могли бы быть использованы для убийственного ИИ.
  2. Их участие в военных проектах.
  3. Если они взяли на себя обязательство не участвовать в военных применениях в будущем.

Microsoft и Amazon входят в число технологических компаний с наивысшим риском в мире, подвергающих риску весь мир, в то время как Google лидирует среди крупных технологических компаний, внедряющих надлежащие меры безопасности.

Рейтинг Google среди самых безопасных технологических компаний может удивить некоторых, учитывая репутацию компании в области массового сбора данных. Такжу было возмущение по поводу его противоречивого контракта «Project Maven» с Пентагоном.

Project Maven был контрактом, который Google заключил с Пентагоном на поставку технологии искусственного интеллекта для военных беспилотников. Несколько высокопоставленных сотрудников ушли в отставку из-за контракта, в то время как более 4000 сотрудников Google подписали петицию стребованием, чтобы их руководство прекратило проект и больше никогда «не создавало технологии ведения войны».

В ответ на негативную реакцию Project Maven генеральный директор Google Сундар Пичаи в своем блоге пообещал, что компания не будет разрабатывать технологии или оружие, наносящее вред, или что-либо, что может быть использовано для слежки за нарушением «международно признанных норм» или «общепринятых принципов международного права и права человека".

Обещание Pichai не участвовать в таких контрактах в будущем, похоже, удовлетворило PAX в их рейтинге. С тех пор Google попытался улучшить свое публичное представление о своих разработках искусственного интеллекта с помощью таких вещей, как создание специальной группы по этике, но это быстро обернулось и рухнуло после того, как на нем присутствовал член правого мозгового центра и магнат-дрон .

«Почему такие компании, как Microsoft и Amazon не отрицают, что они в настоящее время разрабатывают это весьма неоднозначные оружие, которое может решить убивать людей без непосредственного участия человека?», Сказал Франк Slijper, ведущий автор доклада, опубликованного на этой неделе.

Microsoft, которая входит в число высокотехнологичных компаний из списка PAX, в феврале предупредила инвесторов, что ее предложения по искусственному интеллекту могут нанести ущерб репутации компании. 

В ежеквартальном отчете Microsoft пишет:

«Некоторые сценарии ИИ представляют этические проблемы. Если мы включаем или предлагаем решения AI, которые вызывают споры из-за их влияния на права человека, конфиденциальность, занятость или другие социальные проблемы, мы можем нанести ущерб бренду или репутации ».

Некоторые попытки Microsoft внедрить эту технологию уже оказались проблематичными, например, чат-бота «Tay», который стал расистским, сексистским, как правило, довольно сомнительным персонажем после того, как интернет-пользователи воспользовались его возможностями машинного обучения.

Microsoft и Amazon в настоящее время претендуют на 10-миллиардный контракт Пентагона на предоставление облачной инфраструктуры для вооруженных сил США.

«Технические компании должны знать, что, если они не примут меры, их технологии могут внести вклад в разработку смертоносного автономного оружия», - комментирует Даан Кайсер, руководитель проекта PAX по автономному оружию. «Создание четких общедоступных политик является важной стратегией для предотвращения этого».


Report Page