Зрі́заний ліні́йний ву́зол[1][2], іноді ви́прямлений ліні́йний ву́зол[3] (англ. rectified linear unit, ReLU[4]), або випрямля́ч[5][6] (англ. rectifier) у контексті штучних нейронних мереж є передавальною функцією, яка визначена таким чином:

Графіки ReLU (синій) та softplus (зелений) передавальних функцій в околі x = 0
,

де x вхідне значення нейрона. Вона є аналогом напівперіодичного випрямляча у схемотехніці. Ця передавальна функція була запроваджена для динамічних мереж Ганлозером (англ. Hahnloser) та іншими у 2000 році[7] з біологічним підґрунтям та математичним обґрунтуванням.[8] В 2011 році вперше було продемонстровано, як забезпечити краще навчання глибинних мереж,[9] на відміну від передавальних функцій, які широко використовувались до цього, а саме, логістичною функцією (яка була запозичена з теорії ймовірностей; дивись логістична регресія) і виявились більш практичними[10] ніж гіперболічний тангенс. ReLU є, станом на 2018, найбільш популярною передавальною функцією для глибинних нейронних мереж.[11][12]

Гладке наближення ReLU є гладкою функцією

яка називається softplus-функцією.[13] Похідною softplus є , тобто логістична функція.

ReLU часто використовується при глибинному навчанні в задачах комп'ютерного зору[9] та розпізнавання мовлення[14][15].

ВаріаціїРедагувати

ReLU з шумомРедагувати

До ReLU можна додати гаусів шум[en], що дає ReLU з шумом[4]

 , з  

ReLU з шумом успішно використовуються в задачах комп'ютерного зору в обмежених машинах Больцмана.[4]

Нещільна ReLUРедагувати

Нещільна ReLU використовує невеличкий додатній градієнт, коли передавач не активний.[15]

 

Параметрична ReLUРедагувати

Параметрична ReLU узагальнює нещільну ReLU, а саме додається параметр нещільності, який навчається разом з іншими параметрами нейронної мережі.[16]

 

Зауважте, що для  , це еквівалентно

 

і тому таке відношення називають «максимальним виводом» (англ. maxout) мережі.[16]

ELUРедагувати

Експоненціально-лінійна ReLU робить середнє передавача ближчим до нуля, що прискорює навчання. Було показано, що ELU може отримати більш високу точність класифікації, ніж ReLU.[17]

 

  є гіперпараметром[en], який налаштовується і   — константа.

ПеревагиРедагувати

  • Біологічна правдоподібність: Одностороння на відміну від центрально симетричного гіперболічного тангенса.
  • Розріджена активація: наприклад, у випадково ініціалізованій мережі, тільки близько 50 % прихованих елементів активуються (мають не нульове значення).
  • Краще градієнтне поширення: рідше виникає проблема зникання градієнту у порівнянні з сигмоїдальною передавальною функцією, яка може виникнути в обох напрямках.[18]
  • Швидкість обчислення: тільки порівняння, додавання та множення.
  • Інваріантність відносно масштабування:   для  .

ReLU було використано для відокремлення специфічного збудження та неспецифічного інгібування у піраміді з нейронною абстракцією (англ. Neural Abstraction Pyramid), яка була навчена з учителем, щоб вирішувати декілька завдань комп'ютерного зору.[19] У 2011,[9] ReLU використовували як елемент нелінійності з метою показати, можливість глибокого навчання нейронної мережі без попереднього навчання без учителя. ReLU, на відміну від сигмоїда та подібних передавальних функцій, дозволяє швидше та ефективніше навчання глибоких нейронних мереж на великих та складних наборах даних.

Потенційні складнощіРедагувати

  • Не регулярна у нулі: проте похідна існує в усіх інших точка, також можна на власний розсуд задати значення у нулі — 0 або 1.
  • Несиметрична
  • Необмежена
  • Наявність мертвих зон: може трапитись так, що нейрони будуть переведені у стан, в якому вони стануть неактивними для всіх вхідних значень. Для такого стану відсутнє зворотне поширення градієнту, яке проходить через нейрон і тому в такому стані нейроном потрапляє у незмінний стан і «вмирає». Це один з різновидів проблеми зникання градієнту. В деяких випадках велика кількість нейронів мережі може застигнути у мертвому стані, і справити ефект зменшення місткості моделі. Така проблема зазвичай виникає коли встановлено дуже велику швидкість навчання. Цей ефект можна послабити, якщо натомість використати нещільну ReLU.

Див. такожРедагувати

ПриміткиРедагувати

  1. Білоус, Наталія; Комаров, Олексій (2018). Використання методів глибинного навчання для сегментації пухлин головного мозку на МРТ-зображеннях Інформаційні системи та технології. Коблеве — Харків. с. 438. 
  2. Проніна, О. І. (2019). Робоча програма навчальної дисципліни «Машинне навчання» для здобувачів освітнього ступеня магістра за спеціальністю 122 «Комп’ютерні науки», освітньої програми «Інформаційні системи та технології». Маріуполь: ПДТУ. 
  3. Момотюк, П. В. (2016). Оптимізація архітектури згорткових нейронних мереж за розташуванням вузлів ReLU Перспективи розвитку сучасної науки. Львів. с. 94—96. 
  4. а б в Vinod Nair and Geoffrey Hinton (2010). Rectified Linear Units Improve Restricted Boltzmann Machines ICML. 
  5. Бубенщиков, О. В.; Лєпа, Є. В. (2019). Використання згортальних нейронних мереж для ідентифікації обличчя людини. Інформаційні технології. Вісник ХНТУ (Херсон: ХНТУ) 1 (68): 136—142. 
  6. Ялова, К. М.; Яшина, К. В.; Ткаченко, М. В. (2018). Розпізнавання образів згортковою нейронною мережею. Технічні науки. Вісник ХНУ (Хмельницький: ХНУ) 2 (259). 
  7. R Hahnloser, R. Sarpeshkar, M A Mahowald, R. J. Douglas, H.S. Seung (2000). Digital selection and analogue amplification coexist in a cortex-inspired silicon circuit. Nature 405: 947–951. 
  8. R Hahnloser, H.S. Seung (2001). Permitted and Forbidden Sets in Symmetric Threshold-Linear Networks NIPS 2001. 
  9. а б в Xavier Glorot, Antoine Bordes and Yoshua Bengio[en] (2011). Deep sparse rectifier neural networks AISTATS. 
  10. Yann LeCun, Leon Bottou, Genevieve B. Orr and Klaus-Robert Müller[en] (1998). «Efficient BackProp». У G. Orr and K. Müller. Neural Networks: Tricks of the Trade. Springer. http://yann.lecun.com/exdb/publis/pdf/lecun-98b.pdf. 
  11. LeCun, Yann; Bengio, Yoshua; Hinton, Geoffrey (2015). Deep learning. Nature 521 (7553): 436–444. Bibcode:2015Natur.521..436L. PMID 26017442. doi:10.1038/nature14539. 
  12. Ramachandran, Prajit; Barret, Zoph; Quoc, V. Le (October 16, 2017). «Searching for Activation Functions». arXiv:1710.05941 [cs.NE]. 
  13. C. Dugas, Y. Bengio, F. Bélisle, C. Nadeau, R. Garcia, NIPS'2000, (2001), Incorporating Second-Order Functional Knowledge for Better Option Pricing.
  14. László Tóth (2013). Phone Recognition with Deep Sparse Rectifier Neural Networks ICASSP. 
  15. а б Andrew L. Maas, Awni Y. Hannun, Andrew Y. Ng (2014). Rectifier Nonlinearities Improve Neural Network Acoustic Models
  16. а б He, Kaiming; Zhang, Xiangyu; Ren, Shaoqing; Sun, Jian (2015). «Delving Deep into Rectifiers: Surpassing Human-Level Performance on Image Net Classification». arXiv:1502.01852 [cs.CV]. 
  17. Clevert, Djork-Arné; Unterthiner, Thomas; Hochreiter, Sepp (2015). «Fast and Accurate Deep Network Learning by Exponential Linear Units (ELUs)». arXiv:1511.07289 [cs.LG]. 
  18. Glorot, Xavier; Bordes, Antoine; Bengio, Yoshua (2011-06-14). Deep Sparse Rectifier Neural Networks. PMLR (en). 
  19. Behnke, Sven (2003). Hierarchical Neural Networks for Image Interpretation. Lecture Notes in Computer Science 2766. Springer. doi:10.1007/b11963.