Разработка искусственной нейронной сети - Программирование, компьютеры и кибернетика дипломная работа

Разработка искусственной нейронной сети - Программирование, компьютеры и кибернетика дипломная работа




































Главная

Программирование, компьютеры и кибернетика
Разработка искусственной нейронной сети

Математическая модель искусственной нейронной сети. Структура многослойного персептрона. Обучение без учителя, методом соревнования. Правило коррекции по ошибке. Метод Хэбба. Генетический алгоритм. Применение нейронных сетей для синтеза регуляторов.


посмотреть текст работы


скачать работу можно здесь


полная информация о работе


весь список подобных работ


Нужна помощь с учёбой? Наши эксперты готовы помочь!
Нажимая на кнопку, вы соглашаетесь с
политикой обработки персональных данных

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Целью данной работы является разработка искусственной нейронной сети для адаптивной настройки параметров регулятора, управляющего объектом с переменными параметрами.
Структуру построенной нейронной сети необходимо оптимизировать: для заданного объекта и регулятора найти оптимальное число слоев нейронов в каждом слое и оптимальную функцию активации для каждого слоя.
Нейронная сеть должна работать в двух режимах: режим обучения и режим функционирования. Для режима обучения используются данные экспертной настройки регулятора. В режиме функционирования нейронная сеть должна обеспечивать требуемое качество системы, путем изменения параметров регулятора, в зависимости от параметров объекта.
За последнее время развитие теории нейронных сетей ушло далеко вперед, но по-прежнему многие утверждения У. Маккаллока остаются актуальными. В частности, при большом разнообразии моделей нейронов принцип их действия, заложенный У. Маккаллоком и У. Питтсом, остается неизменным. Недостатком модели У. Маккаллока является то, что эта модель использует пороговый вид активационной функции нейрона, который не дает нейронной сети достаточную гибкость при обучении и настройке для решения поставленной задачи.
Дальнейшее развитие теория нейронных сетей получила в работах американского нейрофизиолога Френсиса Розенблатта (Rosenblatt F.).
В 1958 году Ф. Розенблат создал собственную модель нейронной сети, путем введения в модель У. Маккаллока и У. Питтса способность связей к модификации, что сделало ее обучаемой. Эта модель была названа персептроном. [2]
Первоначально персептрон представлял собой однослойную структуру с жесткой пороговой функцией процессорного элемента и бинарными или многозначными входами, в дальнейшем эта модель была значительно усовершенствована.
Построение любой нейронной сети предполагает большой объем вычислений (обучение сети обычно является итерационным процессом). Поэтому только с ростом вычислительной мощности компьютеров появилась возможность практического применения нейронных сетей, что дало мощный толчок к широкому распространению программ, использующих принципы нейросетевой обработки данных.
Искусственный нейрон (базовый процессорный элемент) - является основой любой искусственной нейронной сети.
Рис. 1. Схематическое изображение искусственного нейрона
Нейроны представляют собой относительно простые, однотипные элементы, имитирующие работу нейронов мозга. Каждый нейрон характеризуется своим текущим состоянием (возбужден или заторможен) по аналогии с нервными клетками головного мозга.
Искусственный нейрон, также как и его естественный прототип, имеет группу синапсов (входов), которые соединены с выходами других нейронов, а также аксон - выходную связь данного нейрона - откуда сигнал возбуждения или торможения поступает на синапсы других нейронов. Общий вид нейрона показан на рис. 1.
Искусственный нейрон состоит из двух элементов - взвешенного сумматора и нелинейного преобразователя.
На вход искусственного нейрона поступает некоторое множество сигналов, каждый из которых является выходом другого нейрона. Каждый вход умножается на соответствующий вес, аналогичный синаптической силе, и все произведения суммируются, определяя уровень активации нейрона. Взвешенный сумматор производит суммирование по формуле:
где, - номер входа нейрона; - номер нейрона в слое; номер слоя
входные сигналы, совокупность всех входных сигналов нейрона, образующих вектор .
весовые коэффициенты, совокупность весовых коэффициентов, образующих вектор весов .
- вес, моделирующий пороговый уровень нейрона
взвешенная сумма входных сигналов, значение передается на нелинейный элемент.
где - вектор входных сигналов нейрона, подающийся на вход с весом ;
Нелинейный элемент преобразует выход сумматора по формуле:
Где функция активации, которая подбирается спецификой решаемой задачи, удобством реализации нейронной сети и алгоритмом обучения.
Среди простейших типов искусственных нейронов наиболее известен «Adaline», созданный Б. Уидроу, для которого функция - линейная, а выход определяется соотношением:
где, - весовые коэффициенты, - входы
Рис. 2. Схематическое представление однослойной линейной искусственной нейронной сети
Простейшая однослойная линейная ИНС состоит из K нейронов типа «adaline» (рис. 2) и называется «madaline». Она имеет K выходов и входов и может быть записана в векторно-матричной форме так:
где - вектор выхода; вектор входа; с учетом входа инициализации , одинакового для всех адалин, вектор входа , матрица весовых коэффициентов; матрица, получаемая из матрицы удалением последнего столбца - вектора коэффициентов инициализирующих связей
В соответствии с формулой линейная многослойная сеть типа «madaline» осуществляет отображение в [3].
Существует много разных активационных функций, но чаще всего используются следующие:
1. Пороговая функция или единичный скачок (рис. 3) - кусочно-линейная функция. Если входное значение меньше порогового, то значение функции активации равно минимально допустимому, иначе - максимально допустимому.
2. Линейный порог или гистерезис (рис. 4) - несложная кусочно-линейная функция, которая имеет два линейных участка, где функция активации тождественно равна минимально допустимому и максимально допустимому значению и есть участок, на котором функция строго монотонно возрастает.
Рис. 4. График функции линейного порога
3. Сигмоидальная функция (рис. 5) - монотонно возрастающая всюду дифференцируемая образная нелинейная функция с насыщением. Сигмоидальная функция, является самой распространенной функцией, используемой для создания нейронных сетей. Это быстро возрастающая функция, которая поддерживает баланс между линейным и нелинейным поведением. Часто под сигмоидальной функцией понимают логистическую функцию. Функцию можно описать следующим выражением:
Изменяя этот параметр, можно построить функции с разной крутизной.
4. Гиперболический тангенс (рис. 6)
Данную функцию можно представить выражением:
Где, параметр, влияющий на наклон сигмоидальной функции
Рис. 6. График гиперболического тангенса
По архитектуре связей ИНС могут быть сгруппированы в два класса (рис. 7): сети прямого распространения, и рекуррентные сети (с обратными связями).
Рис. 7. Классификация искусственных нейронных сетей
В сетях прямого распространения сигнал по сети проходит только в одном направлении: от входа к выходу.
Совокупность нейронов, объединенных в один слой, называют однослойной нейросетью. Объединение однослойных нейросетей в несколько слоев определяет многослойную нейросеть.
Рис. 8. Структура однослойного персептрона
Рис. 9. Структура многослойного персептрона
Многослойная сеть состоит из нейронов, которые расположены на разных уровнях. Помимо входного и выходного слоёв имеется как минимум ещё один слой - скрытый. При задании функции активации сигмоидального типа будем иметь многослойный персептрон (рис. 9).
В многослойном персептроне каждый нейрон на данном уровне иерархии принимает и обрабатывает сигналы от каждого нейрона более низкого уровня.
Скрытый слой нейронов позволяет сети обучаться решению сложных задач, последовательно извлекая наиболее важные признаки из входного слоя.
Многослойные персептроны оказались весьма эффективными для решения разнообразных задач управления.
Нейронные сети, имеющие обратную связь, называются «рекуррентными сетями» . Каждый шаг сети называется итерацией. Рекуррентная сеть может состоять из единственного слоя нейронов, каждый из которых направляет свой выходной сигнал на входы всех остальных нейронов слоя. Например, сеть Хопфилда, представленная на рис. 10 не имеет скрытых нейронов. Стоит отметить, что на рисунке видно, что отсутствуют обратные связи нейронов с самими собой.
На рисунке ниже (рис. 11) представлен другой класс рекуррентных сетей со скрытыми слоями нейронов. Здесь обратные связи исходят, как из выходных, так и из скрытых нейронов.
Рис. 11. Структура рекуррентной сети со скрытыми нейронами
Наличие обратных связей в сети, показанной на рис. 11, оказывает непосредственное влияние на производительность и способность сети к обучению. Более того, обратная связь подразумевает использование элементов единичной задержки (обозначены как z -1 ), что приводит к нелинейному динамическому поведению, если, конечно, в сети содержатся нелинейные нейроны.
Процесс обучения нейронных сетей представляет собой настройку архитектуры сети, а также ее весовых коэффициентов для эффективного решения поставленной задачи.
Сеть должна настроить веса по обучающим примерам. Именно эта особенность обучения на примерах и выделяет нейронные. Существует два класса обучения:
Параметры сети изменяются по шагам (итерациям), основываясь на текущих параметрах входов и желаемых выходов. Наиболее популярным примером детерминированного метода является алгоритм «обратного распространения ошибки»
Параметры сети изменяются случайным образом. Но сохраняются только те изменения, которые привели к улучшениям.
Рассмотрим парадигмы обучения нейронных сетей. Начнем с парадигмы обучения с учителем. На рисунке 12 показана блочная диаграмма, иллюстрирующая эту форму обучения. Концептуально участие учителя можно рассматривать как наличие знаний об окружающей среде, представленных в виде пар вход-выход. При этом сама среда неизвестна обучаемой нейронной сети.
Рис. 12. Схема обучения сети с учителем
Теперь предположим, что учителю и обучаемой сети подается обучающий вектор из окружающей среды. На основе встроенных знаний учитель может сформировать и передать обучаемой нейронной сети желаемый отклик, соответствующий данному входному вектору. Этот желаемый результат представляет собой оптимальные действия, которые должна выполнить нейронная сеть. Параметры сети корректируются с учетом обучающего вектора и сигнала ошибки. Сигнал ошибки - это разность между желаемым сигналом и текущим откликом нейронной сети. Корректировка параметров выполняется пошагово с целью имитации нейронной сетью поведения учителя. Эта эмуляция в некотором статистическом смысле должна быть оптимальной. Таким образом, в процессе обучения знания учителя передаются в сеть в максимально полном объеме. После окончания обучения учителя можно отключить и позволить нейронной сети работать со средой самостоятельно. [4]
Розенблатт в 1957 году разработал модель обучения, которая использовала алгоритм обучения с учителем. Впоследствии эта модель стала основой для более сложных алгоритмов обучения.
Принцип состоит в постепенном уменьшении ошибки.
Метод, который к слову, был разработан в 1949 году (один из самых старых обучающих правил), основывался на нейрофизических процессах, протекающих в мозге человека.
Хэбб предположил, что вес соединения между двумя нейронами усиливается, если оба эти нейрона возбуждены. Хэбб основывался на следующих нейрофизиологические наблюдениях: если связанные между собой нейроны активизируются одновременно и регулярно, то сила связи возрастает. Главная особенность этого правила такова, что изменение веса синаптической связи зависит только от активности нейронов, соединенных данной связью.
1. На стадии инициализации всем весовым коэффициентам присваиваются небольшие случайные значения.
2. На входы сети подается входной образ и сигналы проходят по всем слоям согласно принципу сетей прямого распространения. Ддя каждого нейрона рассчитывается сумма его входов, к которой применяется активационная функция нейрона, в результате получается выход нейрона.
3. На основании полученных выходных значений нейронов по формуле
производится изменение весовых коэффициентов.
4. Повтор шага (2), пока выходные значения сети не стабилизируются с заданной точностью.
При соревновательном обучении выходные нейроны соревнуются между собой за активизацию. Обучение таким методом позволяет объединять входные данные, т.е. одинаковые примеры группируются (объединяются) сетью в соответствии с корреляциями и представляются как один элемент. При данном обучении модифицируются веса только «победителя».
Эффект этого правила достигается за счет такого изменения сохраненного в сети образца (вектора весов связей победившего нейрона), при котором он становится чуть ближе к входному примеру.
Генетический алгоритм [5] является достаточно мощным средством и может с успехом применяться для широкого класса прикладных задач, включая те, которые трудно, а иногда и вовсе невозможно, решить другими методам. Однако, генетический алгоритм, как и другие методы эволюционных вычислений, не гарантирует обнаружения глобального решения за полиномиальное время, не гарантирует и того, что глобальное решение будет найдено, но они хороши для поиска «достаточно хорошего» решения задачи «достаточно быстро». Главным же преимуществом генетического алгоритма является то, что они могут применяться даже на сложных задачах, там, где не существует никаких специальных методов.
Рис. 13. Граф многослойного персептрона с двумя скрытыми слоями
Рис. 14. Граф передачи сигнала для процесса обучения по методу обратного распространения. Верхняя часть графа - прямой проход, нижняя - обратный проход
1. Инициализация. Предполагая отсутствие априорной информации, генерируем синаптические веса и пороговые значения с помощью равномерно распределенных чисел со средним значением 0. Дисперсия выбирается таким образом, чтобы стандартное отклонение индуцированного локального поля нейронов приходилось на линейную часть сигмоидальной функции активации (и не достигало области насыщения).
2. Предъявление примеров обучения. В сеть подаются образы из обучающего множества (эпохи). Для каждого образа последовательно выполняются прямой и обратный проходы, описанные далее в п. 3 и 4.
3. Прямой проход (forward computation). Пусть пример обучения представлен паро й , где - входной вектор, предъявляемый входному слою сенсорных узлов; - желаемый отклик, предоставляемый выходному слою нейронов для формирования сигнала ошибки. Вычисляем индуцированные локальные поля и функциональные сигналы сети, проходя по ней послойно в прямом направлении.
Индуцированное локальное поле нейрона слоя вычисляется по формуле
где - выходной (функциональный) сигнал нейрона , расположенного в предыдущем слое , на итерации n; - синаптический вес связи нейрона слоя с нейроном слоя . Для , а - порог, применяемый к нейрону j слоя l. Если используется сигмоидальная функция, то выходной сигнал нейрона j слоя l выражается следующим образом:
Если нейрон j находится в первом скрытом слое (т.е. ), то
где, - j-й элемент входного вектора x(n).Если нейрон j находится в выходном слое (т.е. , где -глубина сети), то
Где j-й элемент вектора желаемого отклика .
Обратный проход. Вычисляем локальные градиенты узлов сети по следующей формуле:
для нейрона выходного слоя , для нейрона скрытого слоя ,
где штрих в функции обозначает дифференцирование по аргументу. Изменение синаптических весов слоя l сети выполняется в соответствии с обобщенным дельта-правилом
где -параметр скорости обучения; -постоянная момента.
4. Итерации. Последовательно выполняем прямой и обратный проходы (согласно пп. 3,4), предъявляя сети все примеры обучения из эпохи, пока не будет достигнут критерий останова.
Порядок представления примеров обучения может случайным образом меняться от эпохи к эпохе. Параметры момента и скорости обучения настраиваются (и обычно уменьшаются) по мере роста количества итераций.
Целью обучения является нахождение такого набора весовых коэффициентов сети, который обеспечивает решение данной конкретной задачи [4]. Рассмотрим обучение сети данным алгоритмом на примере трехслойной нейронной сети, представленной на рисунке 15:
Рис. 15. Схема многослойной нейронной сети
Для обучения нейронной сети мы должны подготовить обучающие примеры.
Имеются примеры, состоящие из входных сигналов ( и ) и желаемого результата .
В каждой итерации весовые коэффициенты нейронов подгоняются с использованием новых данных из обучающих примеров. Изменение весовых коэффициентов синаптической связи и составляет суть алгоритма.
Каждый шаг обучения начинается с воздействия входных сигналов из обучающих примеров. После этого можно определить значения выходных сигналов для всех нейронов в каждом слое сети. На рис. 16 показано направление сигнала в сети.
- вес связи между входом  и нейрона  во входном слое.  - выход нейрона n.
Рис. 16. Распространение сигнала от входа к 1-му скрытому слою
- веса связей между выходом нейрона  и входом нейрона  в следующем слое.
Рис. 17. Распространение сигнала ко 2-му скрытому слою
На рисунке 17 показано как распространяется сигнал от первого слоя ко второму. В таком направлении вычисляются выходы всех нейронов, в том числе и выходного.
Далее идет проход сигнала через выходной слой:
Следующий этап алгоритма состоит в следующем: выходной сигнал сравнивается с желаемым выходом сети . - ошибка (разница) между сигналами и :
На рисунке 18 показано распределение ошибки по сети
Далее сигнал распространяется в обратном направлении на все нейроны, чьи выходные сигналы были входящими для последнего нейрона.
Рис. 19. Распространение ошибки от выходного слоя ко 2-му скрытому слою
Весовые коэффициенты  равны тем же коэффициентам, что использовались во время вычисления выходного сигнала .
Изменяется направление потока данных (сигналы передаются от выхода к входу).
Процесс повторяется для всех слоёв сети. Если ошибка пришла от нескольких нейронов - она суммируются (рис. 20):
Рис. 20. Распространение ошибки в обратном направлении в 1-й скрытом слое
Когда вычисляется ошибка для каждого нейрона - можно скорректировать весовые коэффициенты каждого нейрона (Рис. 21).
Рис. 21. Корректировка весов в 1-ом слое
где, - производная от функции активации нейрона (того, чьи веса настраиваются), - коэффициент, влияющий на скорость обучения.
На рис. 22 изображено, в каком направлении проходит коррекция весов в выходном слое.
Рис. 22. Корректировка весов в выходном слое
Существует несколько способов выбора параметра скорости обучения .
1. Начать процесс обучения с большого значения . Во время коррекции весов постепенно уменьшать этот параметр.
2. Начать процесс обучения с маленького значения. В процессе обучения увеличивать этот параметр, а затем вновь уменьшить уже на завершающей стадии обучения. Начало обучения с низким значением параметра позволяет определить знак весов w .
Нейронные сети используются для структурного и параметрического синтеза регуляторов в двух случаях:
Одной из особенностей нейронной сети является способность к обучению, эта способность позволяет передавать нейронной сети опыт эксперта.
Для регулятора, в котором используется нейронная сеть для настройки его коэффициентов, не нужно формулировать правила, достаточно того, чтобы сам эксперт несколько раз настроил регулятор в процессе обучения нейросети.
Благодаря большому количеству настраиваемых коэффициентов и нелинейных функций активации нейронов, нейросеть может выполнять достаточно точно нелинейное отображение множества входных сигналов во множество выходных.
Структура системы автоматического регулирования с ПИД-регулятором и нейронной сетью в качестве блока автонастройки коэффициентов изображена на рис. 23.
Одной из главных частей в проектировании регуляторов с нейросетью является процедура обучения.
Процесс поиска является пошаговым (итерационным), на каждой итерации находят все коэффициенты сети, сначала для выходного слоя нейронов, затем предыдущего и так до первого слоя (метод обратного распространения ошибки). Используются также другие методы поиска минимума, в том числе генетические алгоритмы, метод моделирования отжига, метод наименьших квадратов.
Процесс обучения нейросети показан на рисунке 24.
Рис. 24. Схема обучения нейронной сети в блоке автонастройки: а) - система управления, подстраиваемая экспертом; б) - нейронная сеть, обучаемая при помощи сигналов, которые получены в представленной системе
В соответствии с теорией нейросетей, уже обученная сеть должна работать так же, как и эксперт, если даже на вход подать те сигналы, которые не были включены в набор при ее обучении.
Длительность процесса обучения является основным недостатком при использовании нейросетей в ПИД-регуляторах, поэтому этот метод не сильно распространен.
Другим недостатком нейросетей является невозможность предсказания погрешности регулирования для входных сигналов, которые не использовались при обучении сети. Также не существует специальных критериев выбора количества нейронов в сети и длительности обучения. Не существует специального диапазона и количества обучающих воздействий сети.
Итак, в ходе решения проблемы предстоит разработать искусственную нейронную сеть, для адаптивной настройки параметров регулятора, управляющего объектом с переменными параметрами.
В качестве примера рассмотрим модель динамического объекта, описывающую крестокрылый снаряд, который требуется стабилизировать относительно центра тяжести по заданной траектории.
Рис. 25. Схема угловых и линейных координат, характеризующих положение снаряда относительно прямолинейной траектории в боковом движении
Пусть MN - заданная прямолинейная траектория, по которой должен двигаться снаряд. В этом случае заданное значение координаты центра тяжести снаряда по оси есть .
Рассмотрим систему управления боковым отклонением центра тяжести крестокрылого снаряда, учитывая переходные процессы в угловом движении снаряда.
Изначально структурная схема данной системы выглядит так:
Рис. 26. Схема динамического объекта с регулятором
Выбор параметров автопилота (передаточных чисел) будет состоять в задаче синтеза регулятора.
В качестве объекта управления возьмем снаряд с параметрами, заданными в таб. 1.
Параметры скорости () и аэродинамического коэффициента () будут изменяться в пределах:
Все расчеты будут производиться в среде Matlab 7.11.0 (R2010b). Моделирование будет производиться в среде Simulink 7.6
При решении задачи будут использованы пакеты Matlab Neural Network Toolbox и Control System Toolbox. Пакет для работы с нейронными сетями Neural Network Toolbox представляет собой полноценную среду MATLAB для решения прикладных задач.
Требуется настроить ПИД-регулятор для системы, исходя из критериев:
ПИД-регулятор будет использован в виде, представленном на рис. 27:
Входные значения снаряда показаны в таблице 2:
В результате настройки мы получили коэффициенты Kp Ki Kd Tf, соответствующие значениям и .
На основе этих 10 пар и будет обучена нейронная сеть. Таким образом, будет выбран один из алгоритмов обучения с учителем (т. к. нам известен вход и желаемый выход).
Определимся с архитектурой сети: сеть будет двухслойной, с прямым распространением сигнала ( newff ) и нелинейной функцией активации.
Будем использовать активационную функцию гиперболического тангенса (tansig) в первом скрытом слое нейронов и логистическую функцию активации (logsig) в выходном слое.
Вектор P будет входом в нейронную сеть, вектор T - выходом.
Структура нейросети представлена на рис. 29.
Наша сеть состоит из 2-х слоев, в первом слое 16 нейронов, в выходном слое 4 нейрона.
Обучение сети будет производиться по модифицированному алгоритму обратного распространения ошибки ( trainlm ) Левенберга-Марквардта.
Итак, наша сеть обучилась на 10 примерах за 131 эпоху.
Рис. 30. Средняя квадратичная ошибка
На графиках (рис. 30 и рис. 31) показаны результаты обучения сети.
MSE (рис. 30) - функция производительности сети. Она показывает производительность, в соответствии со средней квадратичной ошибкой.
На (рис. 31) видно, как изменялся градиент и коэффициент обучения сети (mu) в процессе обучения сети.
Конечная структурная схема нашей системы выглядит так:
Рис. 32. Схема системы с нейронной сетью и динамическим объектом
Чтобы проанализировать систему, построим график переходного процесса при значениях скорости = 341 м/с и коэффициента = 0.368 м/с.
Моделирование будет производиться на интервале [0 40] c.
И так, время переходного процесса составило 7.87 секунд, перерегулирование 1.72%, что можно увидеть на рисунке 33.
Теперь подадим на вход неизвестные коэффициенты (те, которые не использовались при обучении сети).
Рис. 33. График переходного процесса при параметрах 341 / 0.368
График переходного процесса, при коэффициентах м/с и м/с представлен на рисунке 34 и выглядит следующим образом:
Рис. 34. Переходная характеристика при параметрах 345 / 0.345
Перерегулирование составило 2.87%, переходный процесс 12 сек.
Рис. 35. Переходная характеристика при параметрах 330/0.340
График, при коэффициентах м/с и м/с показан на рисунке 35.
Перерегулирование составило - 2.36%, Переходный процесс - 12 сек.
Из всего этого можно сделать вывод, что при найденных параметров автопилота (коэффициентов ПИД-регулятора) обученная нейронная сеть показывает хорошие результаты даже с теми входными сигналами, которые не были включены в набор при ее обучении (что соответствует теории о нейронных сетях). Скорость и аэродинамический коэффициент снаряда напрямую влияют на его переходную характеристику. Построим два графика поверхностей. Первый график будет показывать зависимость 50 значений , от их перерегулирования. Второй будет состоять из тех же 50 значений и зависеть от времени переходного процесса.
Рис. 36. График зависимости значений от перерегулирования
Как показывает график зависимости скорости и аэродинамического сопротивления от перерегулирования (рис. 36), чем меньше скорость и аэродинамический коэффициент, тем меньше значение перерегулирования.
Рис. 37 График зависимости значений от времени переходного процесса
На втором графике зависимости скорости и аэродинамического сопротивления от времени переходного процесса (рис. 37) видно, что чем больше скорость снаряда и чем меньше аэродинамический коэффициент, тем меньше время переходного процесса.
Очевидно, что в реальных условиях будет использоваться гораздо больше параметров, которые влияют на стабилизацию снаряда, нежели скорость и аэродинамический коэффициент. Но гибкость нейронной сети позволит применить данную модель для решения таких задач.
В рамках данной дипломной работы разработана и исследована искусственная нейронная сеть, для адаптивной настройки регулятора, управляющего объектом с переменными параметрами.
Была выбрана сеть прямого распространения сигнала, обученная алгоритмом обратного распространения ошибки и активационной функцией гиперболического тангенса в первом скрытом слое и логистической функцией в выходном слое. Сеть была обучена на примере пар значений скорости снаряда, аэродинамического коэффициента и коэффициентов ПИД-регулятора.
Алгоритм был протестирован с использованием неизвестных пар параметров скорости и аэродинамического коэффициента и показал хорошие результаты.
for Kb = linspace (0. 255,0.425, count)
InitialPopulation (k,:) = [K. Kp K. Ki K. Kd K. Tf];
gaopts = gaoptimset ('Display', 'iter', 'Generations', 15, 'CreationFcn',…
@gacreationlinearfeasible, 'PopulationSize', 100, 'InitialPopulation', … InitialPopulation, 'UseParallel', 'always');
for Kb = linspace (0. 255,0.425, count)
fit_fun = @(x) fitness (x, Kb, Ve);
C {k1, k2} = gamultiobj (fit_fun, 4, eye(4) * (-1), zeros (4, 1), [], [], [], [], gaopts);
Ks = sim (net, [Ve1 (s); Kb1 (k)]);
reg = pid (Ks(1), Ks(2), Ks(3), Ks(4));
R = tf([Kb1 (k)*Ve1 (s)], [1 Kb1 (k) 0]);
S = stepinfo (sys3, 'RiseTimeLimits', [0.05, 0.95]);
reg = pid (Ks(1), Ks(2), Ks(3), Ks(4));
xlabel ('Аэродинамический коэффициент, Kb')
zlabel ('Время переходного процесса, с')
нейронный сеть искусственный обучение
Математическая модель нейронной сети. Однослойный и многослойный персептрон, рекуррентные сети. Обучение нейронных сетей с учителем и без него. Алгоритм обратного распространения ошибки. Подготовка данных, схема системы сети с динамическим объектом. дипломная работа [2,6 M], добавлен 23.09.2013
Обучение простейшей и многослойной искусственной нейронной сети. Метод обучения перцептрона по принципу градиентного спуска по поверхности ошибки. Реализация в программном продукте NeuroPro 0.25. Использование алгоритма обратного распространения ошибки. курсовая работа [1019,5 K], добавлен 05.05.2015
Общие сведения о принципах построения нейронных сетей. Искусственные нейронные системы. Математическая модель нейрона. Классификация нейронных сетей. Правила обучения Хэбба, Розенблатта и Видроу-Хоффа. Алгоритм обратного распространения ошибки. дипломная работа [814,6 K], добавлен 29.09.2014
Разработка алгоритма и программы для распознавания пола по фотографии с использованием искусственной нейронной сети. Создание алгоритмов: математического, работы с приложением, установки весов, реализации функции активации и обучения нейронной сети. курсовая работа [1,0 M], добавлен 05.01.2013
Механизм работы нервной системы и мозга человека. Схема биологического нейрона и его математическая модель. Принцип работы искусственной нейронной сети, этапы ее построения и обучения. Применение нейронных сетей в интеллектуальных системах управления. презентация [98,6 K], добавлен 16.10.2013
Прогнозирование валютных курсов с использованием искусственной нейронной сети. Общая характеристика среды программирования Delphi 7. Существующие методы прогнозирования. Характеристика нечетких нейронных сетей. Инструкция по работе с программой. курсовая работа [2,2 M], добавлен 12.11.2010
Описание структурной схемы искусственного нейрона. Характеристика искусственной нейронной сети как математической модели и устройств параллельных вычислений на основе микропроцессоров. Применение нейронной сети для распознавания образов и сжатия данных. презентация [387,5 K], добавлен 11.12.2015
Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д. PPT, PPTX и PDF-файлы представлены только в архивах. Рекомендуем скачать работу .

© 2000 — 2021



Разработка искусственной нейронной сети дипломная работа. Программирование, компьютеры и кибернетика.
Реферат: Бизнес-план создания предприятия в области международных грузовых перевозок
Критерии Оценки Эссе Английский Егэ
Дипломная работа по теме Влияние глобализации на мировую экономику, международный маркетинг и общество
Реферат по теме Страдание святых мучеников Адриана и Наталии
Система Дополнительного Образования Реферат
Курсовая работа по теме Курортно-санаторная и восстановительная медицина. Исследование структуры медико-реабилитационного обеспечения в сфере спортивно-оздоровительного сервиса (на примере санаториев Приморского края)
Написать Эссе Загрязнение Воды Экологическая Проблема России
Курсовая работа: Масштабы и структура мирового хозяйства. Скачать бесплатно и без регистрации
Курсовая работа: Оптичні явища в природі
Реферат: Организация паблик рилейшнз на предприятии
Реферат: С. Асфендияров – основоположник исторической школы в Казахстане
Реферат по теме Билеты по астрономии с ответами
Реферат: по истории студентки факультета ияиОД
Производственный Цикл И Его Длительность Реферат
Курсовая работа по теме Обоснование системы мероприятий по защите лугового клевера
Проверка Сочинения На Английском Онлайн
Зачем Нужна Литература Человеку Сочинение
Голландская Технология Возделывания Картофеля Курсовая
Роль Друзей В Жизни Человека Сочинение
Курсовая работа: Порядок та зміст роботи командира механізованого взводу у сторожовій охороні
Экономика Швеции - Международные отношения и мировая экономика эссе
Бухгалтерский учёт и аудит - Бухгалтерский учет и аудит курс лекций
Добровольный отказ и деятельное раскаяние: сравнительный анализ институтов уголовного права - Государство и право курсовая работа


Report Page