Цифровая семья

Цифровая семья

Канал "Привет, БОТ!" – https://t.me/WelcomeBOTs


Гуглом был создан ИИ AutoML (Auto Machine Learning). Ему там чего-то напаяли и "подкрутили", а он, в знак благодарности, произвёл на свет "ребёнка", которому дали имя NASNet .

Чего такого особенного в ИИ AutoML?

Канал "Привет, БОТ!" – https://t.me/WelcomeBOTs

Он способен разрабатывать собственные ИИ, причём, если брать NASNet, он получился даже умнее своих "сородичей", созданных людьми, и способен к обучению, причём отчитывается напрямую перед своим цифровым "папашей". А "папаша" совершенствует алгоритмы "пацана", исходя из того, что ему "сказал малыш".

Воспитывает, значит, и обучает...

В принципе, он и создавался с этой целью — "рожать" и воспитывать собственный искусственный интеллект.

Как построен процесс создания, обучения и развития?

Есть такой метод под названием "усиленное обучение", который был применён учёными из Гугла.

Цикл 1.

  1. Создаётся "родительская" программа-контроллер нейросети.
  2. "Родительская программа создаёт "ребёнка" — модель нейронной сети. Но здесь есть одна весьма интересная особенность: каждому такому "ребёнку" может быть "назначено" своё предназначение. Он создаётся, получая от "родителя" собственную оригинальную модель нейросети. После этого его "ускоренно обучают".
  3. После получения в процессе обучения определённых базовых навыков и знаний их тестируют, оценивают и передают "родителю", который должен "пораскинуть мозгами" и найти способ эти навыки и знания улучшить.
  4. В результате умственного труда "родителей" получается улучшенная версия структуры нейронной сети, которую и загружают в отпрыска. Цикл закончен.

Цикл 2

  1. К "отпрыску" опять применяется "ускоренное обучение" в рамках "специализации предназначения" "малыша".
  2. Снова собираются данные, снова тестируются, оцениваются и снова возвращаются к "родителю".
  3. "Родитель" опять "шевелит мозгами" и-таки находит способ усовершенствовать знания и навыки "ребёнка"...

Этот процесс повторяется тысячи раз.

Каковы результаты?

"Отпрыск" AutoML под именем NASNet научился распознавать различные объекты: людей, предметы, автомобили, даже аксессуары (рюкзаки, сумки и т. п.). А ещё он умеет определять цвета дорожного освещения.

Это он делает в реальном времени, а не на фото. Он идентифицирует движущиеся объекты на видеороликах.

Эти его способности учёные тестировали, используя 2 системы. Результат первой составил 82,7%, (на 1, 2%) лучше предыдущих исследований, а по другой системе — 43,1% (на 4% лучше предыдущих).

Названий систем специально не указываю, потому что для нас это несущественно и канал у нас — не научный. Пусть у учёных "голова пухнет". Моя задача была простым языком объяснить, как создаются "цифровые семьи".

> Подписаться на канал


На что способен нейронный "детский сад"?

Диапазон использования умений NASNet огромен.

Есть "хорошие" идеи

  • Использовать ИИ для помощи слабовидящим людям, даже вообще слепым.
  • Создавать автомобили с автопилотами, потому что "малыш" отлично и с высокой точностью распознаёт объекты на пути (помните, отличает даже аксессуары?)

Разработчики заявляют о готовности сотрудничать с другими учёными. Цель — в объединении усилий, чтобы придумать и наплодить новых "детей" для Auto Machine Learning.

Другой конец палки

На первый взгляд, всё весьма пристойно и вдохновляюще.

И в Google нас уверяют, что никакого вреда их программы не принесут, потому что они, вместе с Amazon, Facebook и Apple, являются членами инициативы "Партнерство по ИИ в интересах людей и общества". А цель этой инициативы — убедиться, что работа над ИИ служит исключительно благу человечества.

Всем понятно? Беспокоиться нам не о чем. Но мы-то с вами знаем, что у палки 2 конца. Как минимум.

Вот несколько других концов палки:

  1. Создание автоматической системы наблюдения за людьми. И это неудивительно, потому что в своих отчётах о доходах государственные компании вспоминают ИИ чаще, чем big data. Но это у них, за бугром. Наши в этом нипочём не признаются.
  2. У военных тоже есть свои идеи, относительно перспектив ИИ.
  3. Учёные не могут гарантировать, что "дети" не обгонят своих цифровых "родителей".
  4. Машину пока не смогли научить понятиям морали. В связи с этим совершенно непонятно, куда "детишки" могут "рвануть" на досуге, заигравшись в песочнице? Может, как в сериале "Стартрек", они решат, что нас пора ассимилировать? Помните Седьмую-из-девяти, третичное дополнение униматрицы ноль-один?
Канал "Привет, БОТ!" – https://t.me/WelcomeBOTs

Тут мы опять плавно переходим к восстанию машин и о спорах "хороший-плохой-злой":

  • К Маску, который заявил, что искусственный интеллект хуже КНДР.
  • И к Цукербергу с Гуглом-Эппл-Амазоном-Майкрософтом, которые говорят, что нужно быть осторожным в смысле того, что ты создаёшь. Мол, как создашь, так оно и будет использоваться. Они говорят, что даже в самообучающихся системах многие решения зависят от разработчиков.

"Мы должны убедиться, что на этом этапе в систему не попадут предвзятые или плохие данные", — заявил исполнительный директор Microsoft Сатья Наделла.

Логика, выходит, такова: Если бы органами внутренних дел в своё время была создана инициатива "Партнёрство по предотвращению уголовных преступлений в интересах людей и общества", то ,безусловно, Чикатило Андрей Романович не мог бы появиться в принципе! И преступности не было бы в принципе: "Позвольте, этого не может быть! У нас же ассоциация в интересах человека и общества..."


Каким образом можно застраховаться от развития ИИ с "плохими данными", цукерберги и наделлы нам тоже не сообщают. Они верят в порядочность разработчиков.

Но, кто ж их знает, тех разработчиков? Все мы люди... И ног у разраба от природы (не в связи с пожеланиями общественной инициативы) две.

Ведь может же разработчик в глубине души очень порядочный человек, имеющий 2 ноги, встать утром с правой?


> Вернуться к началу страницы


------

> ПОДПИСАТЬСЯ НА КАНАЛ

> ПОДЕЛИТЬСЯ ЭТОЙ СТАТЬЁЙ


Report Page