Однослойный персептрон.
Английская версия названия |
Single layer perceptron. |
||||||
Другие названия |
Нет. |
||||||
История создания |
Модель разработана Розенблаттом в 1959 г. |
||||||
Модель |
Однослойный персептрон способен распознавать простейшие образы. Отдельный нейрон вычисляет взвешенную сумму элементов входного сигнала, вычитает значение смещения и пропускает результат через жесткую пороговую функцию, выход которой равен +1 или -1. В зависимости от значения выходного сигнала принимается решение: +1 - входной сигнал принадлежит классу A, -1 - входной сигнал принадлежит классу B. На рисунке 3.1 показана схема нейронов, используемых в однослойных персептронах, график передаточной функции и схема решающих областей, созданных в многомерном пространстве входных сигналов. Решающие области определяют, какие входные образы будут отнесены к классу A, какие - к классу B. Персептрон, состоящий из одного нейрона, формирует две решающие области, разделенные гиперплоскостью. На рисунке показан случай, когда размерность входного сигнала равна 2. При этом разделяющая поверхность представляет собой прямую линию на плоскости. Входные сигналы над разделяющей линией относятся к классу A, под линией - к классу B. Уравнение, задающее разделяющую прямую, зависит от значений синаптических весов и смещения. Далее описывается классическая процедура настройки персептрона, предложенная Розенблаттом. Рис. 3.1. а). Схема нейрона; б). График передаточной функции; в). Разделяющая поверхность Алгоритм обучения однослойного персептрона: Шаг 1. Инициализация синаптических весов и смещения: Значения синаптических весов wi(0) (0 <= i <= (N - 1)) и смещение нейрона b устанавливаются равными некоторым малым случайным числам. Обозначение: wi(t) - вес связи от i-го элемента входного сигнала к нейрону в момент времени t. Шаг 2. Предъявление сети нового входного и желаемого выходного сигналов: Входной сигнал x = (x0, x1... xN-1) предъявляется нейрону вместе с желаемым выходным сигналом d. Шаг 3. Вычисление выходного сигнала нейрона:
Шаг 4. Адаптация (настройка) значений весов:
где r - шаг обучения (меньше 1), Если сеть принимает правильное решение, синаптические веса не модифицируются. Шаг 5. Переход к шагу 2. ТИП ВХОДНЫХ СИГНАЛОВ: бинарные или аналоговые (действительные). РАЗМЕРНОСТИ ВХОДА И ВЫХОДА ограничены при программной реализации только возможностями вычислительной системы, на которой моделируется нейронная сеть, при аппаратной реализации - технологическими возможностями. ЕМКОСТЬ СЕТИ совпадает с числом нейронов. |
||||||
Модификации |
Многослойные персептроны дают возможность строить более сложные разделяющие поверхности и поэтому имеют более широкое применение при решении задач распознавания. |
||||||
Достоинства |
Программные или аппаратные реализации модели очень просты. Простой и быстрый алгоритм обучения. |
||||||
Недостатки |
Примитивные разделяющие поверхности (гиперплоскости) дают возможность решать лишь самые простые задачи распознавания. |
||||||
Области применения |
Распознавание образов, классификация. |
[
Обнаружен организм с крупнейшим геномом Новокаледонский вид вилочного папоротника Tmesipteris oblanceolata, произрастающий в Новой Каледонии, имеет геном размером 160,45 гигапары, что более чем в 50 раз превышает размер генома человека. | Тематическая статья: Тема осмысления |
Рецензия: Рецензия на статью | Топик ТК: Главное преимущество модели Beast |
| ||||||||||||