Нейромережева реалізація системи автономного адаптивного управління
Прийняті позначення
- безліч невід'ємних цілих чисел
- граф з безліччю вершин V і множиною ребер N
- ребро, спрямоване з вершини i в вершину j
- взаімнооднозначное відображення множини X на безліч Y
- безліч кінцевих підмножин множини X
R [a, b] - множина дійсних чисел на [a, b]
BN - простір двійкових векторів розмірності N
- порожнє слово з безлічі вхідних слів КА
0 - брехня у виразі тризначної логіки
1 - істина у виразі тризначної логіки
- невизначеність у виразі тризначної логіки
- є подвектор (сукупність обраних компонент) вектора
- клас Y є нащадком класу X
Введення.
1.1. Введення і задачі роботи.
При сучасному рівні розвитку техніки, коли навіть побутова техніка оснащується мікропроцесорними пристроями, виникла потреба в інтелектуальних адаптивних системах керування, спроможних пристосовуватися до дуже широкого діапазону зовнішніх умов. Більше того, виникла потреба в універсальній технології створення таких систем. Науковий досвід людства свідчить про те, що в природі можна знайти безліч цінних ідей для науки і техніки. Людський мозок є самим надзвичайним і загадковим створенням природи. Здатність живих організмів, наділених вищою нервовою системою, пристосовуватися до навколишнього середовища може служити закликом до наслідування природі або імітації при створенні технічних систем.
Серед імітаційних підходів виділяється клас нейромережевих методів. Нейронні мережі (НС) знайшли широке застосування в галузях штучного інтелекту, в основному пов'язаних із розпізнаванням образів і з теорією керування. Одним з основних принципів нейромережевого підходу є принцип коннектівізма. Суть його виражається в тому, що розглядаються дуже прості однотипні об'єкти, сполучені у велику і складну мережу. Таким чином, НС є в першу чергу графом, з яким можна зв'язати сукупність образів, поданих як чисельні значення, асоційовані з вершинами графа, алгоритм для перетворення цих чисельних значень за допомогою передачі даних між сусідніми вершинами і простих операцій над ними. Сучасний рівень розвитку мікроелектроніки дозволяє створювати нейрочіпи, що складаються з дуже великого числа простих елементів, спроможних виконувати тільки арифметичні операції. Таким чином, нейромережеві методи підтримується апаратно.
Математично НС можна розглядати як клас методів статистичного моделювання, що у свою чергу можна розділити на три класи: оцінка щільності ймовірності, класифікація і регресія [NN]. Зокрема, в [NN] показано, що за допомогою мереж зворотного розповсюдження і узагальненого - правила вирішується завдання оцінки щільності ймовірності методом змішування гаусівських розподілів.
У відділі імітаційних систем Інституту Системного Програмування РАН розроблено метод автономного адаптивного управління (ААУ). Передбачається, що система ААУ може бути повністю реалізована на нейронної мережі [Діссер, Жданов1-9]. На відміну від традиційного використання НМ для рішення тільки задач розпізнавання і формування образів, у методі ААУ узгоджено вирішуються задачі
розпізнавання і формування образів
отримання і збереження знань (емпірично знайдених закономірних зв'язків образів і впливів на об'єкт управління)
оцінки якісних характеристик образів
прийняття рішень (вибору впливів).
Особливостями методу ААУ є:
Надмірність нейронів у мережі, необхідна для адаптації системи керування (УС) до мінливих умов існування об'єкта управління (ОУ). Внаслідок цього для практичної реалізації УС необхідно створення великих НС (для порівняння людський мозок містить ~ 1011 нейронів).
НС складається зі специфічних нейронів, що є більш близькими аналогами біологічного нейрона і пристосованими для рішення задач ААУ (розділ 3.2)
Нейрони в мережі з'єднуються спеціальною образом, також для вирішення завдань ААУ.
Особливості методу ААУ роблять непридатними або малопридатними існуючі системи САПР і системи моделювання традиційних НС (наприклад, BrainMaker) для створення прототипів УС ААУ. Зважаючи на це обставини завданнями дипломної роботи були:
Розробка інструменту СПІНС для моделювання і дослідження нейромережевих реалізацій прототипів УС ААУ.
Розробка загальної схеми нейромережевої реалізації прототипів УС ААУ.
1.2. Формальна модель нейрона і нейросети.
Поняття схеми було введено для формалізації обчислень на паралельних комп'ютерах [Ітогі91]. Ми використовуємо це поняття для формального опису нейронних мереж, тому що воно підходить для цих цілей майже без змін. Одним із наслідків такої близькості схем і НС є можливість хорошого розпаралелювання обчислень в моделях НС.
Визначення 1.2.1. Назвемо схемою c орієнтований ациклічні ортграф (допустимі ребра із загальними вершинами), вершинами якого є параметризрвані операції, тобто операції, що залежать від деякого параметра t. Аргументами операції є всі вхідні вершини або входи, тобто такі вершини, для яких є ребра (вхідні ребра), які виходять з них і направлені до даної вершині, - вхідна арность i-ї вершини, тобто число вхідних вершин, -вихідна арность i-ї вершини , тобто число вихідних вершин або виходів. Визначимо розмір схеми s (c) як загальне число вершин схеми, глибину схеми d (c) як максимальну довжину орієнтованого шляху в графі c. Порядок вершини визначається рекурсивно: для вершин які не мають входів, що належать мережі (витоки мережі), порядок дорівнює 0, для решти порядок є максимум порядку входів плюс одиниця. Входами мережі будемо називати деякий підмножина множини витоків мережі. Виходами мережі будемо вважати просто деякий безліч вершин мережі.
Определеніе1.2.2. Тут і далі під нейронної мережею будемо розуміти схему.
По суті схема є сукупністю композицій деяких параметрезованих операцій. Глибина схеми є максимальний рівень вкладеності композицій. У методології НС важливо, що ці операції є обчислювально простими, на зразок зваженої суми або бульових кон'юнкції і диз'юнкції, при цьому вибирається велику кількість аргументів і композицій. У цьому суть коннектівізма. Параметр t є по суті тимчасовим параметром. Зауважимо, що тут і далі вважаємо час дискретним, хоча для формалізації НС це не принципово. Перенумерувати вершини схеми, можна записати загальний вигляд параметризрвані операції:
,
де (t) - i-а параметрезованих операція, - вхідні вершини, - синаптична затримка на ребрі . Конкретний вид функції для пропонованої моделі нейрона буде представлений у розділі "Апарат ФРО".
Приклад 1.2.1. В якості операції-вершини може бути будь-яка операція тризначної логіки (розд. 1.5).
Определеніе1.2.3. Виходами подграфа G (V, N), де V - безліч ребер, N - безліч вершин. мережі будемо називати всі ребра , входами всі ребра .
Определеніе1.2.4. Визначимо блок як зв'язний подграф мережі з одним виходом.
Определеніе1.2.5. Назвемо блок шаблоном деякого блоку якщо між цими блоками існує ізоморфні відображення, тобто така пара відображень
Определеніе1.2.6. Розбиттям мережі на блоки з шаблоном B будемо називати сукупність непересічних блоків таку, що для всіх цих блоків B є шаблоном і об'єднання всіх блоків і міжблокові ребер (мається на увазі два різні об'єднання: множин вершин і множин ребер) є вся мережа.
Определеніе1.3.7. Сукупність рекурсивних розбивка мережі , де є розбиття шаблону будемо називати конструкцією мережі, а безліч шаблонами конструктора.
Определеніе1.2.8. Таким чином, під формальною моделлю нейрона будемо розуміти шаблон розбиття мережі , у якого вихід є булева операція. Під нейроном будемо розуміти власне блок.
Наприклад, на ріс.1.2.1 представлена формальна модель перспептрона, де всі блоки мають один шаблон Маккаллок-Піттса [Маккалок].
Взагалі кажучи, стан навченості нейрона для кожної формальної моделі визначається за своїм і, неформально кажучи, це стан, у якому вважається, що нейрон вже "навчений" для вирішення свого завдання класифікації. Відзначимо, що процес навчання є незворотнім.
Визначення 1.2.9. Будемо говорити, що мережею розпізнано образ i, якщо після пред'явлення мережі деякого вхідного сигналу на виході i-ого нейрона з'являється 1.
Розпізнавання образу є по суті позитивну відповідь у вирішенні задачі класифікації для даного нейрона.
Ріс.1.2.1.
1.3. Короткий опис методу автономного адаптивного керування.
Метод ААУ докладно описаний у роботах [Жданов3-9], тому наведемо тільки основні його боку. Будемо називати керуючою системою (УС) систему керування, що імітує нервову систему відповідно до методології ААУ. Під об'єктом управління (ОУ) будемо розуміти організм, який несе в собі нервову систему, іншими словами, ОУ - це об'єкт, який повинен управлятися за допомогою УС, розташованої всередині ОУ та взаємодіє зі своїм оточенням за допомогою блока датчиків (БД) і виконавчих органів (ІВ ).
Рис. 1.3.1.
На рис. 1.3.1 представлена система, під якою будемо розуміти середовище, в яку вкладено ОУ, у свою чергу містить в собі УС. Як видно з малюнка, можна стверджувати, що УС керує не тільки ОУ, але всією системою. Під середовищем у системі можна розуміти різні об'єднання об'єктів. Будемо називати середовищем W сукупність об'єктів, що лежать поза УС; середовищем S - сукупність об'єктів, що лежать поза ОУ; середовищем U - всю систему.
Блок датчиків поставляє УС вхідну інформацію у вигляді двійкового вектора. Цей блок необхідний у реальних системах для сполучення середовища і УС, тому при моделюванні УС на ЕОМ не використовувався і ми не акцентуємо увагу на ньому в даній роботі.
Роботу блоку формування і розпізнавання образів (ФРО) можна представити в такий спосіб (докладний опис див у роботах [Жданов3, Жданов8]). У блоці ФРО на підставі апріорної інформації про можливі функціональні властивості середовища задані деякі об'єкти, назвемо їх нейронами (наприклад, нейрони спеціального виду, описані в роботі [Жданов8]), на які відображаються деякі класи просторово-тимчасових явищ, що потенційно можуть існувати в системі . Відображення задається топологією мережі. У класі, який відображається на нейрон, виділяється підклас, що може сприйматися даним нейроном. Кожний нейрон може статистично аналізувати сприймається їм підклас. Накопичуючи статистичну інформацію про сприйманої підкласі, нейрон може прийняти рішення, чи є цей підклас випадковим або невипадковим явищем у системі. Якщо будь-який нейрон приймає рішення, що відображений на нього підклас є невипадковою подією, то він переходить у деякий відмінний від вихідного