Использование нейронных сетей в системе Matlab - Программирование, компьютеры и кибернетика курсовая работа

Использование нейронных сетей в системе Matlab - Программирование, компьютеры и кибернетика курсовая работа




































Главная

Программирование, компьютеры и кибернетика
Использование нейронных сетей в системе Matlab

Способы применения нейронных сетей для решения различных математических и логических задач. Принципы архитектуры их построения и цели работы программных комплексов. Основные достоинства и недостатки каждой из них. Пример рекуррентной сети Элмана.


посмотреть текст работы


скачать работу можно здесь


полная информация о работе


весь список подобных работ


Нужна помощь с учёбой? Наши эксперты готовы помочь!
Нажимая на кнопку, вы соглашаетесь с
политикой обработки персональных данных

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.
Размещено на http :// www . allbest . ru /
ПОЯСНИТЕЛЬНАЯ ЗАПИСКА К КУРСОВОЙ РАБОТЕ
ИСПОЛЬЗОВАНИЕ НЕЙРОННЫХ СЕТЕЙ В СИСТЕМЕ MATLAB
по дисциплине: ИНФОРМАЦИОННЫЕ ТЕХНОЛОГИИ
1.1 Распознавание образов и классификация
1.6 Сжатие данных и ассоциативная память
3. Самоорганизующиеся нейронные сети
Теория нейронных сетей возникла из исследований в области искусственного интеллекта, а именно из попыток воспроизвести способность нервных биологических систем обучаться и исправлять ошибки, моделируя низкоуровневую структуру мозга. Основой исследований по искусственному интеллекту в 60-80-е гг. были экспертные системы. Такие системы основывались на высокоуровневом моделировании процесса мышления (в частности, на представлении, что процесс нашего мышления построен на манипуляциях с символами).
Теория нейронных сетей включают широкий круг вопросов из разных областей науки: биофизики, математики, информатики, схемотехники и технологии. Поэтому понятие "нейронные сети" детально определить сложно.
Искусственные нейронные сети (НС) -- совокупность моделей биологических нейронных сетей.
Представляют собой сеть элементов -- искусственных нейронов -- связанных между собой синоптическими соединениями. Сеть обрабатывает входную информацию и в процессе изменения своего состояния во времени формирует совокупность выходных сигналов. Работа сети состоит в преобразовании входных сигналов во времени, в результате чего меняется внутреннее состояние сети и формируются выходные воздействия. Обычно НС оперирует цифровыми, а не символьными величинами.
1.1 Распознавание образов и классификация
В качестве образов могут выступать различные по своей природе объекты: символы текста, изображения, образцы звуков и т. д. При обучении сети предлагаются различные образцы образов с указанием того, к какому классу они относятся. Образец, как правило, представляется как вектор значений признаков. При этом совокупность всех признаков должна однозначно определять класс, к которому относится образец. В случае, если признаков недостаточно, сеть может соотнести один и тот же образец с несколькими классами, что неверно. По окончании обучения сети ей можно предъявлять неизвестные ранее образы и получать ответ о принадлежности к определённому классу.
Топология такой сети характеризуется тем, что количество нейронов в выходном слое, как правило, равно количеству определяемых классов. При этом устанавливается соответствие между выходом нейронной сети и классом, который он представляет. Когда сети предъявляется некий образ, на одном из её выходов должен появиться признак того, что образ принадлежит этому классу. В то же время на других выходах должен быть признак того, что образ данному классу не принадлежит. Если на двух или более выходах есть признак принадлежности к классу, считается, что сеть «не уверена» в своём ответе.
Эта задача близка к задаче классификации. Классификации подлежат ситуации, характеристики которых поступают на вход нейронной сети. На выходе сети при этом должен появиться признак решения, которое она приняла. При этом в качестве входных сигналов используются различные критерии описания состояния управляемой системы.
Под кластеризацией понимается разбиение множества входных сигналов на классы, при том, что ни количество, ни признаки классов заранее не известны. После обучения такая сеть способна определять, к какому классу относится входной сигнал. Сеть также может сигнализировать о том, что входной сигнал не относится ни к одному из выделенных классов -- это является признаком новых, отсутствующих в обучающей выборке, данных. Таким образом, подобная сеть может выявлять новые, неизвестные ранее классы сигналов. Соответствие между классами, выделенными сетью, и классами, существующими в предметной области, устанавливается человеком. Кластеризацию осуществляют например, нейронные сети Кохонена.
Способности нейронной сети к прогнозированию напрямую следуют из ее способности к обобщению и выделению скрытых зависимостей между входными и выходными данными. После обучения сеть способна предсказать будущее значение некой последовательности на основе нескольких предыдущих значений и/или каких-то существующих в настоящий момент факторов. Следует отметить, что прогнозирование возможно только тогда, когда предыдущие изменения действительно в какой-то степени предопределяют будущие. Например, прогнозирование котировок акций на основе котировок за прошлую неделю может оказаться успешным (а может и не оказаться), тогда как прогнозирование результатов завтрашней лотереи на основе данных за последние 50 лет почти наверняка не даст никаких результатов.
Нейронные сети могут аппроксимировать непрерывные функции. Доказана обобщённая аппроксимационная теорема: с помощью линейных операций и каскадного соединения можно из произвольного нелинейного элемента получить устройство, вычисляющее любую непрерывную функцию с некоторой наперёд заданной точностью. Это означает, что нелинейная характеристика нейрона может быть произвольной: от сигмоидальной до произвольного волнового пакета или вейвлета, синуса или многочлена. От выбора нелинейной функции может зависеть сложность конкретной сети, но с любой нелинейностью сеть остаётся универсальным аппроксиматором и при правильном выборе структуры может достаточно точно аппроксимировать функционирование любого непрерывного автомата.
1.6 Сжатие данных и ассоциативная память
Способность нейросетей к выявлению взаимосвязей между различными параметрами дает возможность выразить данные большой размерности более компактно, если данные тесно взаимосвязаны друг с другом. Обратный процесс -- восстановление исходного набора данных из части информации -- называется (авто)ассоциативной памятью. Ассоциативная память позволяет также восстанавливать исходный сигнал/образ из зашумленных/поврежденных входных данных. Решение задачи гетероассоциативной памяти позволяет реализовать память, адресуемую по содержимому.
Neural Network Toolbox - это пакет расширения MATLAB, содержащий средства для проектирования, моделирования, разработки и визуализации нейронных сетей.
Нейросетевые технологии позволяют решать такие задачи, решение которых классическими формальными методами затруднено или не возможно. Пакет обеспечивает всестороннюю поддержку типовых нейросетевых парадигм и имеет открытую модульную архитектуру. Пакет содержит функции командной строки и графический интерфейс пользователя для быстрого пошагового создания нейросетей.
Линейные нейронные сети по своей структуре аналогичны персептрону и отличаются лишь функцией активации, которая является линейной. Выход линейной сети может принимать любое значение, в то время как выход персептрона ограничен значениями 0 или 1. Линейные сети, как и персептроны, способны решать только линейно отделимые задачи классификации, однако в них используется другое правило обучения, основанное на методе наименьших квадратов, которое является более мощным, чем правило обучения персептрона. Настройка параметров выполняется таким образом, чтобы обеспечить минимум ошибки. Поверхность ошибки как функция входов имеет единственный минимум, и определение этого минимума не вызывает трудностей. В отличие от персептрона настройка линейной сети может быть выполнена с помощью как процедуры адаптации, так и процедуры обучения.
Формирование адаптируемого линейного слоя
Инициализация нулевых весов и смещений
Функции настройки параметров персептрона
Оценка максимального значения параметра настройки
Пример функционирования линейной сети
Задача с линейно зависимыми данными
Оценка влияния параметра скорости настройки
Адаптивная идентификация линейной системы
3. Самоорганизующиеся нейронные сети
В процессе анализа больших информационных массивов данных неизменно возникают задачи, связанные с исследованием топологической структуры данных, их объединением в группы (кластеры), распределением по классам и т. п. Это могут быть экономические, финансовые, научно-технические, медицинские и другие приложения, где требуется решение таких практических задач, как сжатие данных, их хранение и поиск, определение характеристик объекта по ограниченному набору признаков. Такие задачи могут быть успешно решены с применением специального класса самоорганизующихся нейронных сетей.
Нейронные сети Кохонена -- класс нейронных сетей, основным элементом которых является слой Кохонена. Слой Кохонена состоит из адаптивных линейных сумматоров («линейных формальных нейронов»). Как правило, выходные сигналы слоя Кохонена обрабатываются по правилу «победитель забирает всё»: наибольший сигнал превращается в единичный, остальные обращаются в ноль.
По способам настройки входных весов сумматоров и по решаемым задачам различают много разновидностей сетей Кохонена. Наиболее известные из них:
· Сети векторного квантования сигналов, тесно связанные с простейшим базовым алгоритмом кластерного анализа (метод динамических ядер или K-средних)
· Самоорганизующиеся карты Кохонена (Self-Organising Maps, SOM)
· Сети векторного квантования, обучаемые с учителем (Learning Vector Quantization)
Где: p -евклидово расстояние (начальное значение), IW 11 - матрица весов, n 1 - вход функции активации, b - расстояние вектора смещения, a 1 -вектор выхода слоя.
Для создания самоорганизующихся нейронных сетей, являющихся слоем или картой Кохонена, предназначены М-функции newc и newsom соответственно.
По команде help selforg можно получить следующую информацию об М-функциях, входящих в состав ППП Neural Network Toolbox и относящихся к построению сетей Кохонена:
Создание слоя Кохонена Создание карты Кохонена
Сетка со случайно распределенными узлами
Инициализация весов по правилу средней точки
Правило настройки весов для слоя Кохонена
Правило настройки смещений для слоя Кохонена
Правило настройки весов карты Кохонена
Повекторное обучение весов и смещений
Создание сети для классификации входных векторов
Инициализация весов по правилу средней точки
Повекторное обучение весов и смещений
Радиальные базисные нейронные сети состоят из большего количества нейронов, чем стандартные сети с прямой передачей сигналов и обучением методом обратного распространения ошибки, но на их создание требуется значительно меньше времени. Эти сети особенно эффективны, когда доступно большое количество обучающих векторов.
Создание радиальной базисной сети с нулевой ошибкой
Создание обобщенной регрессионной сети
Нормированное скалярное произведение
Функция активации с жесткими ограничениями
Радиальная базисная функция активации
Преобразование индексного вектора в матрицу связности
Преобразование матрицы связности в индексный вектор
Пример неперекрывающихся функций активации
Пример перекрывающихся функций активации
Производная скалярного произведения
Производная суммы взвешенных входов
Производная гиперболического тангенса
Среднеквадратичная ошибка обучения при применении регуляризации
Производная среднеквадратичной ошибки обучения
Производная среднеквадратичной ошибки обучения при применении регуляризации
Функция настройки методом градиентного спуска
Функция настройки методом градиентного спуска с возмущением
Градиентный спуск по правилу обратного распространения ошибки
Градиентный спуск с адаптацией параметра скорости настройки
Нейромнная сеть Хопфилда -- полносвязная нейронная сеть с симметричной матрицей связей. В процессе работы динамика таких сетей сходится (конвергирует) к одному из положений равновесия. Эти положения равновесия являются локальными минимумами функционала, называемого энергией сети (в простейшем случае -- локальными минимумами отрицательно определённой квадратичной формы на n-мерном кубе). Такая сеть может быть использована как автоассоциативная память, как фильтр, а также для решения некоторых задач оптимизации. В отличие от многих нейронных сетей, работающих до получения ответа через определённое количество тактов, сети Хопфилда работают до достижения равновесия, когда следующее состояние сети в точности равно предыдущему: начальное состояние является входным образом, а при равновесии получают выходной образ.
По команде help hopfield можно получить следующую информацию об М-функциях, входящих в состав ППП Neural Network Toolbox и относящихся к построению модифицированных сетей Хопфилда:
Рекуррентная модифицированная сеть Хопфилда
Создание модифицированной сети Хопфилда
Симметричная линейная функция с ограничениями
Пример двумерной модифицированной сети Хопфилда
Пример неустойчивой точки равновесия
Пример трехмерной модифицированной сети Хопфилда
Пример устойчивых паразитных точек равновесия
Сеть Элмана. Исследуется на примере такой задачи детектирования амплитуды гармонического сигнала. Пусть известно, что на вход нейронной сети поступают выборки из некоторого набора синусоид. Требуется выделить значения амплитуд этих синусоид.
%Требуется выделить значения амплитуд этих синусоид.
%Далее рассматриваются выборки из набора двух синусоид с амплитудами 1.0 и 2.0:
%Целевые выходы сети являются векторы
%Сформированный набор векторов входа и целевых выходов
%Сформирование обучающих последовательностей в виде массивов ячеек:
S2 = 1;% Число нейронов выходного слоя
S1 = 10; % Число нейронов рекуррентного слоя
net = newelm([-2 2],[S1 S2],{'tansig','purelin'},'traingdx');
net.trainParam.epochs = 1000; %Максимальное количество эпох тренировки;
net.trainParam.show = 25; %Количество эпох между графиками;
net.trainParam.goal = 0.01; %Условие остановки по отклонению от эталона;
[net,tr] = train(net,Pseq,Tseq); % Pseq и Tseq входные элементы
plot(time, t, '--', time, cat(2,a{:}))
plot(time, tg, '--', time, cat(2,a{:}))
Как следует из анализа графика 1, сеть справляется с решением задачи детектирования амплитуды на наборах обучающего множества. Однако неясно, как она будет вести себя на других наборах входа, поэтому мы подадим на сеть набор сигналов, составленный из двух синусоид с амплитудами 1.6 и 1.2 соответственно. Потом посмотрим, обладает ли построенная сеть Элмана свойством обобщения.
На графике 2 мы видим, что сеть хуже справляется с задачей. Сеть стремится детектировать значение амплитуды, но делает это не очень точно. Улучшенное обобщение могло быть получено, обучая сеть на большее количество амплитуд, чем только на значения 1.0 и 2.0. Использование трех или четырех гармонических сигналов с различными амплитудами может привести к намного лучшему датчику амплитуд.
Развитие нейронных сетей вызвало немало энтузиазма и критики. Некоторые сравнительные исследования оказались оптимистичными, другие - пессимистичными. Для многих задач, таких как распознавание образов, пока не создано доминирующих подходов. Нужно пытаться понять возможности, предпосылки и область применения различных подходов и максимально использовать их дополнительные преимущества для дальнейшего развития интеллектуальных систем. Множество надежд в отношении нейронных сетей сегодня связывают именно с аппаратными реализациями, но пока время их массового выхода на рынок, видимо, еще не пришло. Они или выпускаются в составе специализированных устройств, или достаточно дороги, а зачастую и то и другое. На их разработку тратится значительное время, за которое программные реализации на самых последних компьютерах оказываются лишь на порядок менее производительными, что делает использование нейропроцессоров нерентабельным. Но все это только вопрос времени -- нейронным сетям предстоит пройти тот же путь, по которому еще совсем недавно развивались компьютеры, увеличивая свои возможности и производительность, захватывая новые сферы применения по мере возникновения новых задач и развития технической основы для их разработки.
Сегодня нейронные сети используются для работы в относительно узких областях, и неизвестно, доверят ли им когда-нибудь решение вопросов, которые требуют понимания социального контекста. Между тем нейронные сети уверенно продолжают проникать в нашу жизнь, и примеров тому немало.
1) Медведев В.С. Нейронные сети. MATLAB 6 / В.С. Медведев, В.Г. Потёмкин // М: Диалог-МИФИ. - 2008
2) Хайкин С. Нейронные сети - полный курс 2006
3) Уоссермен Ф. - Нейрокомпьютерная техника. Теория и практика
4) Круглов, Борисов - Искусственные нейронные сети. Теория и практика, 2012
5) Гольдштейн Б.С. - Интеллектуальные сети, 2010
6) Смоленцев - Основы теории вейвлетов в MatLab
Способы применения технологий нейронных сетей в системах обнаружения вторжений. Экспертные системы обнаружения сетевых атак. Искусственные сети, генетические алгоритмы. Преимущества и недостатки систем обнаружения вторжений на основе нейронных сетей. контрольная работа [135,5 K], добавлен 30.11.2015
Технологии решения задач с использованием нейронных сетей в пакетах расширения Neural Networks Toolbox и Simulink. Создание этого вида сети, анализ сценария формирования и степени достоверности результатов вычислений на тестовом массиве входных векторов. лабораторная работа [352,2 K], добавлен 20.05.2013
Особенности нейронных сетей как параллельных вычислительных структур, ассоциируемых с работой человеческого мозга. История искусственных нейронных сетей как универсального инструмента для решения широкого класса задач. Программное обеспечение их работы. презентация [582,1 K], добавлен 25.06.2013
Рост активности в области теории и технической реализации искусственных нейронных сетей. Основные архитектуры нейронных сетей, их общие и функциональные свойства и наиболее распространенные алгоритмы обучения. Решение проблемы мертвых нейронов. реферат [347,6 K], добавлен 17.12.2011
Преимущества и недостатки нейронных сетей с радиальными базисными функциями (РБФ). Функции newrbe и newrb для построения РБФ общего вида и автоматической настройки весов и смещений. Пример построения нейронной сети с РБФ в математической среде Matlab. лабораторная работа [238,7 K], добавлен 05.10.2010
Описание технологического процесса напуска бумаги. Конструкция бумагоделательной машины. Обоснование применения нейронных сетей в управлении формованием бумажного полотна. Математическая модель нейрона. Моделирование двух структур нейронных сетей. курсовая работа [1,5 M], добавлен 15.10.2012
Понятие и свойства искусственных нейронных сетей, их функциональное сходство с человеческим мозгом, принцип их работы, области использования. Экспертная система и надежность нейронных сетей. Модель искусственного нейрона с активационной функцией. реферат [158,2 K], добавлен 16.03.2011
Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д. PPT, PPTX и PDF-файлы представлены только в архивах. Рекомендуем скачать работу .

© 2000 — 2021



Использование нейронных сетей в системе Matlab курсовая работа. Программирование, компьютеры и кибернетика.
Контрольная работа: Тепловые эффекты химических реакций. Скачать бесплатно и без регистрации
Дипломная работа: Совершенствование технологии очистки сточных вод химического предприятия на примере ОАО. Скачать бесплатно и без регистрации
Pr Технологии Формирования Имиджа Государственного Учреждения Диссертация
Сочинение На Тему Роль Жизни Человека
Негосударственное Пенсионное Обеспечение Курсовая
Контрольная работа по теме Понятие и виды теплопередачи
Курсовая Работа На Тему Материальная Культура Германцев (По Тациту)
Контрольная работа по теме Современные накопители
Реферат Спринтерский Бег Физкультура 8 Класс
Курсовая работа по теме Расчет результатов прямых измерений
Курсовая Работа На Тему Инструменты Региональной Политики
Реферат: Тема 24. Преобразование гильберта-хуанга судьба новой истины такова: в начале своего существования она всегда кажется ересью
Контрольная работа по теме Дифференцированный подход к детям старшего дошкольного возраста на занятиях по английскому языку
Реферат: Природній і супутній нафтові гази
Знаменитые Пловцы Мира Реферат
Великобритания Реферат Кратко
Дипломная работа: Порядок налогообложения индивидуальных предпринимателей в Республике Беларусь
Контрольная работа по теме Уголовная ответственность при совокупности преступлений
Реферат На Тему Аудиторські Докази
Становление эндокринной функции в онтогенезе
Обоснование амортизационной политики предприятий - Бухгалтерский учет и аудит дипломная работа
Проект мероприятий по повышению конкурентоспособности предприятия - Менеджмент и трудовые отношения отчет по практике
Тема "втрачених ілюзій" в творах Оноре де Бальзака. "Втрачені ілюзії" та Гюстава Флобера "Виховання почуттів" - Литература курсовая работа


Report Page