Відмінності між версіями «Штучна нейронна мережа»

заміна: графічна модель →‎ графова модель
(→‎Застосування: правопис)
(заміна: графічна модель →‎ графова модель)
 
=== Нейронні мережі як функції ===
{{Див. також|ГрафічніГрафові моделі}}
 
Нейромережеві моделі можна розглядати як прості математичні моделі, що визначають функцію <math>\textstyle f : X \rightarrow Y </math>, або розподіл над <math>\textstyle X</math>, або над <math>\textstyle X</math> та <math>\textstyle Y</math>. Іноді моделі тісно пов'язують з певним правилом навчання. Поширене використання фрази «модель ШНМ» насправді є визначенням ''класу'' таких функцій (де членів цього класу отримують варіюванням параметрів, ваг з'єднань, або особливостей архітектури, таких як число нейронів або їхня зв'язність).
Перший погляд є функційним: вхід <math>\textstyle x</math> перетворювано на 3-вимірний вектор <math>\textstyle h</math>, який відтак перетворювано на 2-вимірний вектор <math>\textstyle g</math>, який нарешті перетворювано на <math>\textstyle f</math>. Цей погляд найчастіше зустрічається в контексті [[Оптимізація (математика)|оптимізації]].
 
Другий погляд є ймовірнісним: [[випадкова змінна]] <math>\textstyle F = f(G) </math> залежить від випадкової змінної <math>\textstyle G = g(H)</math>, яка залежить від <math>\textstyle H=h(X)</math>, яка залежить від випадкової змінної <math>\textstyle X</math>. Цей погляд найчастіше зустрічається в контексті [[ГрафічнаГрафова модель|графічнихграфових моделей]].
 
Ці два погляди є здебільшого рівнозначними. В кожному з випадків, для цієї конкретної архітектури, складові окремих шарів не залежать одна від одної (наприклад, складові <math>\textstyle g</math> є незалежними одна від одної за заданого їхнього входу <math>\textstyle h</math>). Це природно уможливлює якусь міру паралелізму в реалізації.
==== Семантичне гешування ====
 
Підходи, які представляють попередній досвід безпосередньо, і [[Навчання на прикладах|використовують схожий досвід для формування локальної моделі]], часто називають методами {{нп|Найближчий сусід|найближчого сусіда||Nearest neighbour}} або [[Метод k-найближчих сусідів|''k''-найближчих сусідів]].<ref>{{cite journal|last2=Schaal|first2=Stefan|year=1995|title=Memory-based neural networks for robot learning|url=|journal=Neurocomputing|volume=9|issue=3|pages=243–269|doi=10.1016/0925-2312(95)00033-6|last1=Atkeson|first1=Christopher G.}} {{ref-en}}</ref> В семантичному гешуванні ({{lang-en|semantic hashing}}) є корисним глибинне навчання,<ref>Salakhutdinov, Ruslan, and Geoffrey Hinton. [http://www.utstat.toronto.edu/~rsalakhu/papers/sdarticle.pdf "Semantic hashing."] International Journal of Approximate Reasoning 50.7 (2009): 969-978. {{ref-en}}</ref> де з великого набору документів отримується глибинна [[графічнаграфова модель]] векторів кількостей слів.<ref name="Le 2014">{{Cite arXiv|eprint=1405.4053|first=Quoc V.|last=Le|first2=Tomas|last2=Mikolov|title=Distributed representations of sentences and documents|year=2014|class=cs.CL}}
{{ref-en}}</ref> Документи відображуються на комірки пам'яті таким чином, що семантично схожі документи розташовуються за близькими адресами. Потім документи, схожі на документ із запиту, можливо знаходити шляхом простого доступу до всіх адрес, що відрізняються від адреси документа із запиту лише кількома бітами. На відміну від {{нп|Розріджена розподілена пам'ять|розрідженої розподіленої пам'яті||Sparse distributed memory}}, що оперує 1000-бітними адресами, семантичне гешування працює на 32- або 64-бітних адресах, що зустрічаються в традиційній комп'ютерній архітектурі.