Перцептрон: відмінності між версіями

[перевірена версія][перевірена версія]
Вилучено вміст Додано вміст
м Скасування редагування № 17408757 користувача 188.163.78.34 (обговорення) пасив
м →‎Алгоритми навчання: скорочення перенаправлення
Рядок 133:
Крім класичного методу навчання перцептрону, Розенблат також ввів поняття про [[навчання без учителя]], запропонувавши наступний спосіб навчання:
* '''Альфа-система підкріплення'''&nbsp;— це система підкріплення, за якої ваги всіх ''активних'' зв'язків <math>c_{ij}</math>, що ведуть до елемента <math>u_j</math>, змінюються на однакову величину r, а ваги ''неактивних'' зв'язків за цей час не змінюються.<ref>Розенблатт, Ф., с. 86.</ref>
Пізніше, з розробкою поняття [[багатошаровий перцептрон Румельхарта|багатошарового перцептрону]], альфа-систему було модифіковано, і її стали називати ''[[дельта-правило]]м''. Модифікацію було проведено з метою зробити функцію навчання [[Диференціювання (математика)|диференційовною]] (наприклад, [[Сигмоїда|сигмоїдною]]), що в свою чергу потрібно для застосування методу [[МетодГрадієнтний найшвидшого спускуспуск|градієнтного спуску]], завдяки якому можливе навчання більше ніж одного шару.
 
=== Метод зворотного поширення помилки ===
{{Головна|Метод зворотного поширення помилки}}
Для навчання багатошарових мереж ряд учених, у тому числі {{Не перекладено|Девід Румельхарт|Д.&nbsp;Румельхартом||David Rumelhart}}, було запропоновано [[МетодГрадієнтний найшвидшого спускуспуск|градієнтний алгоритм]] навчання з учителем, що проводить сигнал помилки, обчислений ''виходами'' перцептрона, до його ''входів'', шар за шаром. Зараз це є найпопулярніший метод навчання багатошарових перцептронов. Його перевага в тому, що він може навчити ''всі'' шари нейронної мережі, і його легко прорахувати локально. Однак цей метод є дуже довгим, до того ж, для його застосування потрібно, щоб передавальна функція нейронів була диференційовною. При цьому в перцептронах довелося відмовитися від бінарного сигналу, і користуватися на вході [[Дійсні числа|неперервними значеннями]].<ref>Хайкин С., 2006, с. 225—243, 304—316.</ref>
 
== Традиційні помилки ==