Цифровая семья
Канал "Привет, БОТ!" – https://t.me/WelcomeBOTsГуглом был создан ИИ AutoML (Auto Machine Learning). Ему там чего-то напаяли и "подкрутили", а он, в знак благодарности, произвёл на свет "ребёнка", которому дали имя NASNet .
Чего такого особенного в ИИ AutoML?
Он способен разрабатывать собственные ИИ, причём, если брать NASNet, он получился даже умнее своих "сородичей", созданных людьми, и способен к обучению, причём отчитывается напрямую перед своим цифровым "папашей". А "папаша" совершенствует алгоритмы "пацана", исходя из того, что ему "сказал малыш".
Воспитывает, значит, и обучает...
В принципе, он и создавался с этой целью — "рожать" и воспитывать собственный искусственный интеллект.
Как построен процесс создания, обучения и развития?
Есть такой метод под названием "усиленное обучение", который был применён учёными из Гугла.
Цикл 1.
- Создаётся "родительская" программа-контроллер нейросети.
- "Родительская программа создаёт "ребёнка" — модель нейронной сети. Но здесь есть одна весьма интересная особенность: каждому такому "ребёнку" может быть "назначено" своё предназначение. Он создаётся, получая от "родителя" собственную оригинальную модель нейросети. После этого его "ускоренно обучают".
- После получения в процессе обучения определённых базовых навыков и знаний их тестируют, оценивают и передают "родителю", который должен "пораскинуть мозгами" и найти способ эти навыки и знания улучшить.
- В результате умственного труда "родителей" получается улучшенная версия структуры нейронной сети, которую и загружают в отпрыска. Цикл закончен.
Цикл 2
- К "отпрыску" опять применяется "ускоренное обучение" в рамках "специализации предназначения" "малыша".
- Снова собираются данные, снова тестируются, оцениваются и снова возвращаются к "родителю".
- "Родитель" опять "шевелит мозгами" и-таки находит способ усовершенствовать знания и навыки "ребёнка"...
Этот процесс повторяется тысячи раз.
Каковы результаты?
"Отпрыск" AutoML под именем NASNet научился распознавать различные объекты: людей, предметы, автомобили, даже аксессуары (рюкзаки, сумки и т. п.). А ещё он умеет определять цвета дорожного освещения.
Это он делает в реальном времени, а не на фото. Он идентифицирует движущиеся объекты на видеороликах.
Эти его способности учёные тестировали, используя 2 системы. Результат первой составил 82,7%, (на 1, 2%) лучше предыдущих исследований, а по другой системе — 43,1% (на 4% лучше предыдущих).
Названий систем специально не указываю, потому что для нас это несущественно и канал у нас — не научный. Пусть у учёных "голова пухнет". Моя задача была простым языком объяснить, как создаются "цифровые семьи".
На что способен нейронный "детский сад"?
Диапазон использования умений NASNet огромен.
Есть "хорошие" идеи
- Использовать ИИ для помощи слабовидящим людям, даже вообще слепым.
- Создавать автомобили с автопилотами, потому что "малыш" отлично и с высокой точностью распознаёт объекты на пути (помните, отличает даже аксессуары?)
Разработчики заявляют о готовности сотрудничать с другими учёными. Цель — в объединении усилий, чтобы придумать и наплодить новых "детей" для Auto Machine Learning.
Другой конец палки
На первый взгляд, всё весьма пристойно и вдохновляюще.
И в Google нас уверяют, что никакого вреда их программы не принесут, потому что они, вместе с Amazon, Facebook и Apple, являются членами инициативы "Партнерство по ИИ в интересах людей и общества". А цель этой инициативы — убедиться, что работа над ИИ служит исключительно благу человечества.
Всем понятно? Беспокоиться нам не о чем. Но мы-то с вами знаем, что у палки 2 конца. Как минимум.
Вот несколько других концов палки:
- Создание автоматической системы наблюдения за людьми. И это неудивительно, потому что в своих отчётах о доходах государственные компании вспоминают ИИ чаще, чем big data. Но это у них, за бугром. Наши в этом нипочём не признаются.
- У военных тоже есть свои идеи, относительно перспектив ИИ.
- Учёные не могут гарантировать, что "дети" не обгонят своих цифровых "родителей".
- Машину пока не смогли научить понятиям морали. В связи с этим совершенно непонятно, куда "детишки" могут "рвануть" на досуге, заигравшись в песочнице? Может, как в сериале "Стартрек", они решат, что нас пора ассимилировать? Помните Седьмую-из-девяти, третичное дополнение униматрицы ноль-один?
Тут мы опять плавно переходим к восстанию машин и о спорах "хороший-плохой-злой":
- К Маску, который заявил, что искусственный интеллект хуже КНДР.
- И к Цукербергу с Гуглом-Эппл-Амазоном-Майкрософтом, которые говорят, что нужно быть осторожным в смысле того, что ты создаёшь. Мол, как создашь, так оно и будет использоваться. Они говорят, что даже в самообучающихся системах многие решения зависят от разработчиков.
"Мы должны убедиться, что на этом этапе в систему не попадут предвзятые или плохие данные", — заявил исполнительный директор Microsoft Сатья Наделла.
Логика, выходит, такова: Если бы органами внутренних дел в своё время была создана инициатива "Партнёрство по предотвращению уголовных преступлений в интересах людей и общества", то ,безусловно, Чикатило Андрей Романович не мог бы появиться в принципе! И преступности не было бы в принципе: "Позвольте, этого не может быть! У нас же ассоциация в интересах человека и общества..."
Каким образом можно застраховаться от развития ИИ с "плохими данными", цукерберги и наделлы нам тоже не сообщают. Они верят в порядочность разработчиков.
Но, кто ж их знает, тех разработчиков? Все мы люди... И ног у разраба от природы (не в связи с пожеланиями общественной инициативы) — две.
Ведь может же разработчик — в глубине души очень порядочный человек, имеющий 2 ноги, — встать утром с правой?
------