Модель Сірий ящик

В області математичного, статистичного та комп'ютерного моделюваннямодель сірий ящик[1][2][3] поєднує в собі часткову теоретичну структуру з даними для завершення моделі. Теоретична структура може варіюватись  від інформації щодо гладкості результату до моделей, які потребують лише значення параметрів з даних чи існуючої літератури.[4] Таким чином, майже всі моделі є моделями типу "сірий ящик", на відміну від чорного ящика, де немає типової форми - тобто коли ми не знаємо про модель нічого, крім вхідних та вихідних даних в експерименті (і різні системи можуть мати однакову поведінку), або моделі білого ящика, яка носить чисто теоретичний характер. Деякі моделі передбачають спеціальну форму, такі як лінійна регресія[5][6] або нейронної мережі.[7][8] [9] Вони мають спеціальні методи аналізу. Зокрема, лінійна регресія[10] є набагато більш ефективна, ніж більшість нелінійних методів.[11][12] Моделі можуть бути детермінованими або стохастичними (тобто містять випадкові компоненти) в залежності від цілі їх використання.

Форма моделі Редагувати

Загальний випадок є нелінійною моделлю з частковою теоретичною структурою і деякими невідомими частинами, отриманими з даних. Моделі, на відміну від теоретичних структур, оцінюються окремо, в ході оцінки можна використовувати генетичні алгоритми.

В рамках конкретної моделі може появитись необхідність у знаходженні параметрів . Для конкретної структури  передбачається, що дані складаються з наборів векторів подачі f, векторного добутку р, і вектором-оператором стану с. Як правило, с міститиме значення, отримані з f, а також інші значення. У багатьох випадках модель може бути перетворена у функцію вигляду:

m(f,p,q)

де вектор-функція m дає похибку між даними р і передбаченням моделі. Вектор q дає деякі змінні параметри, які є невідомою частиною моделі.

Параметр q змінюється в залежності від с у визначеному порядку. Це співвідношення може бути задано як q = Ac, де А являє собою матрицю невідомих коефіцієнтів, с - як і в лінійній регресії - включає в себе постійний член та, можливо, перетворені значення вихідних умов експлуатації, за допомогою яких зможемо отримати нелінійні співвідношення між вихідними умовами  і q. Саме тоді постає питання вибору, які умови в А відмінні від нуля, і які значення їм потрібно присвоїти. Завершення моделі стає завданням оптимізації для визначення ненульових значень в А, що зводять до мінімуму похибку між m(f,p,Ac) і даними.

Завершення моделіРедагувати

Після здійснення вибору ненульових елементів, інші коефіцієнти в А можуть бути визначені шляхом мінімізації m(f,p,Ac), беручи до уваги те, що в A повинні бути ненульові значення. Як правило, мінімізація відбувається за допомогою методу найменших квадратів. Вибір ненульових членів також може бути зроблений за допомогою методів оптимізації. Крім того, нелінійний метод найменших квадратів може забезпечити оцінки точності для елементів матриці А, які можуть бути використані, щоб визначити, наскільки отримані значення відрізняються від нуля.

Іноді можна обчислити значення Q для кожного набору даних - безпосередньо або за допомогою нелінійних найменших квадратів. Тоді використовується лінійна регресія для вибору ненульових значень в А і оцінки їх значень. Після того, як ненульові значення знайдені, нелінійний метод найменших квадратів може бути використаний на оригінальної моделі м (F, P, Ас), щоб уточнити ці значення.

Третій метод - це інверсійна модель, яка перетворює нелінійну модель m(f,p,Ac) в приблизну лінійну форму елементів А, які можуть бути вивчені за допомогою ефективного відбору та оцінки лінійної регресії . Для простого випадку одного значення оберемо q(q = aTc)  і оцінку q* . Прийнявши dq = aTc − q*, отримаємо

m(f,p,aTc) = m(f,p,q* + dq) ≈ m(f,p.q*) + dq m’(f,p,q*) = m(f,p.q*) + (aTc − q*) m’(f,p,q*)

так що aT в даний час знаходиться в лінійному положенні разом з усіма іншими відомими значеннями, і, таким чином, може бути проаналізованим за допомогою лінійної регресії. Для більш ніж одного параметра метод застосовується в прямому порядку. Після перевірки того, чи була покращена ця модель, цей процес може повторюватися до досягнення збіжності. Такий підхід має перевагу тому, що не потребує параметра q для того, щоб мати змогу визначити похибку з індивідуального набору даних і лінійної регресії.

Перевірка моделіРедагувати

При наявності достатньої кількості даних рекомендується поділити їх на окремі набори для побудови моделі. Ця дія може повторюватись із використанням декількох елементів з утворених множин; вкінці зможемо отримати усереднення отриманих моделей.

Статистичний критерій, наприклад, критерій хі-квадрат, не є дуже корисним. Критерій хі квадрат вимагає відомих стандартних відхилень, які рідко відомі наперед, крім того, цей критерій не дає ніяких вказівок про те, як поліпшити модель.

Спроба передбачити нев'язки m(,) з початковими умовами із використанням лінійної регресії буде показувати, чи нев'язки можливо взагалі передбачити нев'язку. Нев'язки,значення яких ми не можемо знати наперед, не забезпечують широку перспективу вдосконалення моделі з використанням поточних умов. Умови, які можуть передбачити значення нев'язки, є перспективними умовами для включення в модель для поліпшення її роботи.

Методика моделі інверсії, що представлена вище, може бути використана як метод визначення того, чи можливо покращити модель. В цьому випадку відбір ненульових доданків не настільки важливий і можемо використати лінійне передбачення. При цьому використаємо значення власних векторів матриці регресії. Значення в А, визначені так, як описано вище, повинні бути замінені в нелінійній моделі для зменшення похибки. Відсутність значного покращення вказує, що наявні дані не можуть поліпшити поточну форму моделі, використовуючи певні параметри. Розширені можливості пошуку можуть бути вставлені в модель, щоб зробити цей критерій ширшим для використання.

ПосиланняРедагувати

  1. Bohlin, Torsten P. (7 September 2006). Practical Grey-box Process Identification: Theory and Applications. Springer Science & Business Media. ISBN 978-1-84628-403-8. 
  2. Grey-box model estimation. Mathworks 2. 2012. 
  3. Kroll, Andreas (2000).
  4. Whiten, B., 2013.
  5. Draper, Norman R.; Smith, Harry (25 August 2014). Applied Regression Analysis. John Wiley & Sons. с. 657–. ISBN 978-1-118-62568-2. 
  6. Weisberg, Sanford (25 November 2013). Applied Linear Regression. Wiley. ISBN 978-1-118-59485-8. 
  7. Heaton, J., 2012.
  8. Stergiou, C.; Siganos, D. (2013). Neural networks. Архів оригіналу за 16 грудень 2009. Процитовано 18 травень 2017. 
  9. Метод скінченних елементів і штучні нейронні мережі. Теоретичні аспекти та застосування : монографія / В.М. Трушевський, Г.А. Шинкаренко, Н.М. Щербина ; Міністерство освіти і науки України, Львівський національний університет імені Івана Франка, Національна академія наук України, Інститут прикладних проблем механіки і математики імені Я.С. Підстригача.. 2014 — через Львів : ЛНУ імені Івана Франка. [недоступне посилання з жовтня 2019]
  10. Lawson, Charles L.; J. Hanson, Richard (1 December 1995). Solving Least Squares Problems. SIAM. ISBN 978-0-89871-356-5. 
  11. Press, W.H.; Teukolsky, S.A.; Vetterling, W.T.; Flannery, B.P. (2007). Numerical Recipes (вид. 3rd). Cambridge University Press. ISBN 978-0-521-88068-8. 
  12. Gelman, Andrew; Carlin, John B.; Stern, Hal S.; Dunson, David B.; Vehtari, Aki; Rubin, Donald B. (1 November 2013). Bayesian Data Analysis, Third Edition. CRC Press. ISBN 978-1-4398-4095-5.