Обучение макро-действию

Обучение макро-действию

sergey shishkin

Для обучения с копированием более сложных цепочек, содержащих последовательность из нескольких действий необходим набор алгоритмов полностью тождественный тому, что был рассмотрен в предыдущей главе для простейшей цепочки:

  • близкое расположение нескольких эвольверов, обладающих согласованным набором признаков, действий и символов-идентификаторов;
  • совместное обнаружение признака исходной ситуации, являющейся элементом копируемой цепочки;
  • исполнение цепочки обучающим эвольвером, в ходе которого принимающему эвольверу передаются символы-идентификаторы всех полезных выполняемых обучающим эвольвером действий: действие(<1>), действие(<2>), ... , действие(<N>).
  • приём обучаемым эвольвером всех символов с комплементарным исполнением связанных с ними действий в момент получения.

В описанной ситуации у принимающего эвольвера параллельно с неизменными выполняющимися цепочками-реакциями, запускающими рекомендуемые действия, будет синтезирована следующая цепочка

Цепочка("скопированное поведение")
[
    признак("исходной ситуации")
    действие(<1>)
    действие(<2>)
    ...
    действие(<N>)
]

Эта цепочка впоследствии может быть подкреплена у обученного эвольвера на основе своей полезности, обусловленной сходством среды обитания и потребностей родственных организмов.

Если рассматривать способы комплементарной идентификации действий, то можно отметить, что в этом процессе необязательно наличие развитой Языковой системы символов. Процесс обучения может быть реализован проще для эвольверов, обладающих способностью наблюдения (например, с использованием зрения в биологической прикладной области). Способность наблюдения и сопоставления себя и учителя может обеспечить обучающегося эвольвера идентификаторами комплементарного действия. С этими возможностями обучающему эвольверу нет необходимости генерировать идентифицирующие действия символы, а достаточно исполнения этих действий. В режиме обучения у принимающего эвольвера включается выполнение сопоставленных действий, наблюдаемых у обучающего, что обеспечивает исполнение требуемых переносящейся цепочке действий на стороне обучаемого.

Все методы обучения описанные выше имеют ограничение применимости. Они основываются на факте, что обучаемый эвольвер уже владеет признаком("исходной ситуации"). Но это не всегда истинно, особенно для макро-признака со сложной структурой, синтезированной самостоятельно обучающим эвольвером последовательностью наблюдений множества ситуации. В таком случае действия, выполняемые обучающимся эвольвером, могут закрепиться за отличающийся признак, а потому впоследствии будут выполняться в неподходящих ситуациях. В этом случае полученная цепочка не будет копией исходной, и высока вероятность, что эта цепочка не будет полезна эвольверу и впоследствии расформируется.

Достаточно очевидно, что эвольверу будет полезна процедура, которая подобна описанной выше, но заменяет случайный выбор сложного признака обучающимся эвольвером на комплементарное копирование структуры этого признака.

https://telegra.ph/Obshchaya-teoriya-algoritmov-01-20

Report Page