Softmax: відмінності між версіями

[неперевірена версія][неперевірена версія]
Вилучено вміст Додано вміст
Alkvitk (обговорення | внесок)
м →‎Властивості: зовнішні посилання
шаблон Нп: {{Нп|''українська назва''|''текст посилання, якщо відрізняється від назви''|''назва вікі, якщо відмінна від en''|''оригінальна назва статті''}}
Рядок 4:
: <math>\sigma(\mathbf{z})_j = \frac{e^{z_j}}{\sum_{k=1}^K e^{z_k}}</math> &nbsp;&nbsp; for ''j'' = 1, …, ''K''.
 
В [[теорія ймовірності|теорії ймовірності]], результат софтмакс-функції може використовуватись для того щоб представити [[категорійний розподіл]], тобто [[розподіл ймовірності]] при {{mvar|K}} різних можливих варіантах. Функція софтмакс використовується різних методах {{нп|Багатокласова класифікація|багатокласової класифікації|||Multiclass classification}}, таких, як наприклад {{нп|мультиноміальна логістична регресія|||Multinomial logistic regression}} (також відома як софтмакс-регресія)<ref name="bishop">{{cite book |first=Christopher M. |last=Bishop |year=2006 |title=Pattern Recognition and Machine Learning |publisher=Springer}}</ref>, багатокласовий [[лінійний розділювальний аналіз]], [[наївний баєсів класифікатор]], і [[штучні нейронні мережі]].<ref>ai-faq [http://www.faqs.org/faqs/ai-faq/neural-nets/part2/section-12.html What is a softmax activation function?]</ref>
 
== Інтерпретації ==