Реферати

Курсова робота: Обробка інформації й ухвалення рішення в системах ближньої локації

Євреї і європейці. Чому першими стали саме європейці? Чому саме вони придумали паровоз, а не, скажемо, китайці, що винайшли порох і папір? Чому відкрити і колонизовать Америку удалося саме їм, а не досвідченим арабським мореплавцям?

Керування сервісною логістикою машинобудівного підприємства. Реферат ЛОГІСТИКА, СЕРВІСНА ЛОГІСТИКА, ЛОГИСТИЧЕСКАЯ СИСТЕМА, ТРУБОГИБНОЕ УСТАТКУВАННЯ, МАШИНОБУДУВАННЯ, СЕРВІСНІ ПОСЛУГИ, ОАО "КРЕМЗ", МАРКЕТИНГ, ЕФЕКТИВНІСТЬ

по Основи объективно-ориентированного програмування. Актюбінський кооперативний коледж Підсумкова контрольна робота З предмета: "Основи объективно-ориентированного програмування" Що Учиться III курсу гр. П32 Кунсбаевой Жанагуль

Совість, шляхетність і достоїнство от воно, святе наше воїнство по повісті В. Бикова Полюби м. "Совість, шляхетність і достоїнство - от воно, святе наше воїнство" (по повісті В. Бикова "Полюби мене, солдатик...") Автор: Биків В. Так, це моє поколенье,

Розкрадання шляхом розбою і грабежу. Основні дані про роботу Версія шаблона Філія Великолукский Вид роботи Курсова робота Назва дисципліни Карне право Тема Розкрадання шляхом грабежу і розбою

Курсова робота

по дисципліні: "Теорія обробки інформації в системах ближньої локації"

на тему: "Обробка інформації й ухвалення рішення в системах ближньої локації"

Зміст

Завдання на курсове проектування

Уведення

Вихідні дані

1. Дослідження вероятностной структури сигналів

1.1 Побудова гистограмм вибіркових плотностей імовірності амплітуд сигналів, як випадкових величин

1.2 Вивчення законів розподілу випадкових величин

1.3 Оцінка параметрів розподілу випадкових величин для чотирьох законів

1.4 Побудова на одному графіку теоретичного і практичного розподілу для формулювання гіпотези

1.5 Перевірка гіпотези за критерієм Колмогорова - Смирнова

1.6 Перевірка гіпотези за критерієм згоди Пирсона

1.7 Побудова кореляційної функції для фрагмента сигналу тривалістю 2000 отсчетов

2. Формування навчальних і контрольних безлічей даних

2.1 Ознаки по оцінці щільності розподілу імовірності в п'ятьох інтервалах позитивної області

3. Дослідження ознак

3.1 Оцінка параметрів розподілу ознак. Визначення інформативної ознаки з максимальною відстанню, побудова функцій щільності розподілу імовірностей і обчислення порога ухвалення рішення, формулювання вирішального правила

4. Навчання двошарової нейронной мережі

4.1 Загальні зведення про нейронних мережі

4.2 Навчання нейронной мережі

Висновок

Список використаних джерел

Вихідні дані

Задача виявлення гусеничної техніки, що проїжджає на відстані 200 м від сейсмоприемника. Сигнали fon і tr_t200 призначені для навчання і контролю нейронной мережі. Сигнал test_t50 - для тестування роботи нейронной мережі. Ознаки: розподіл потужності в десятьох рівномірних інтервалах (по 25 гармонік).

Малюнок 1 - Вихідний фоновий сигнал

Малюнок 2 - Вихідний сигнал гусеничної техніки

Уведення

За останні 10...20 років істотно розширилася область використання технічних засобів охоронної сигнализація (ТСОС): вони використовуються для охорони, як військових об'єктів, атомних станцій, державного кордону, так і дачних і фермерських господарств. Зростають і вимоги до ТСОС по енергоспоживанню і габаритним розмірам, швидкодії й ефективності, колу розв'язуваних задач.

Раніше в основному зважувалася задача виявлення порушника з імовірністю 0.9, у даний час потрібно підвищити імовірність до 0.95 і більш при зниженні часу наробітку до помилкової тривоги з 1000 до 2000 годин (імовірності помилкової тривоги). Усі частіше ставляться задачі розпізнавання порушника по класах людина-група людей, колісна-гусенична техніка з імовірністю 0.8...0.9 і визначення місця і напрямку перетинання охоронюваного чи рубежу зони.

Для рішення поставлених задач недостатньо простих схемотехнических рішень і алгоритмів, заснованих на амплітудно-тимчасовій селекції сигналів.

Аналіз вітчизняних і закордонних ТСОС показав, що основним напрямком їхнього розвитку є розробка більш складних алгоритмів обробки сигналів, заснованих на дослідженні "тонкої" внутрішньої структури сигналів, генерируемих порушником, і виявленні найбільш відмітних характеристик (ознак).

1. Дослідження вероятностной структури сигналів

1.1 Побудова гистограмми

Різні закони розподілу розрізняються видом графиков(x) иf(x). З математичного аналізу відомо, що при інтегруванні функції згладжуються, а при диференціюванні, їхні особливості виявляються сильніше. Тому функція щільності розподілу вероятностиf(x) містить більше інформації, чим функція распределения(x).

По визначенню щільність распределенияf(x) - це межа відносини імовірності влучення в малий інтервал до ширини цього інтервалу, коли ширина прагне до нуля. Для вибірки вибіркова імовірність влучення в деякий інтервал - це відношення числа влучень у интервалnjк загальному числу попаданийn. Якщо неї розділити на ширину интервалаh, то при малихhми й одержимо вибіркову щільність розподілу:

(1)

Тут ми не зможемо использоватьхjпоодиночке, їх прийдеться групувати по ділянках. Тому спочатку весь інтервал зміни даних потрібно розбити на ділянки однакової довжини. Скільки ділянок узяти? Є кілька підходів до визначення числа ділянок разбиенияк. Один з них - це використання формули Стерджесса:

, (2)

гдеn- обсяг вибірки, а - операція округлення до найближчого цілого. Інший підхід полягає в наступному. З одного боку, число ділянок розбивки повинне бути якнайбільше, з іншого боку, у кожну з цих ділянок повинне попадати якнайбільше значенийхі. Компроміс між цими вимогами приводить до того, що звичайно вибирають число участковкдля побудови гистограмми як найближче ціле до кореня квадратному изn:

. (3)

Після розбивки накучастков підраховуємо число влучень у кожний з нихnj.

З (1) випливає, що гистограмма з точністю до множителяnhсовпадает із графіком вибіркової щільності розподілу . Розділивши ординати гистограмми наnh, ми одержимо графік .

Для побудови гистограмми в MATLAB мається функцияhіst. Вона автоматично розбиває інтервал зміни вибірки на потрібну кількість ділянок, подсчитиваетnjи будує графіка.

Продовжимо виконання завдання "Обробка масиву даних". У нижчеподаній області введення перший рядок - це визначення числа участковк. Зараз тут коштує . Якщо ви хочете використовувати формулу Стерджесса, зміните цей рядок. Визначимо ширину кожного интервалаh(идентификаторdв програмі). Побудуємо гистограмму розподілу (1).

Практична частина.

clearall% очистили робочу область

x=tr_t200; % уводимо ИД

x=sort(x(:));% переформатировали стовпець і розсортували

n=length(x);% довжина масиву t_tr200

xmin=x(1);% знаходимо мінімальне значення

xmax=x(n);% знаходимо максимальне значення

Mx=mean(x);% математичне чекання

f=n-1;% число ступенів волі

Dx=var(x);% дисперсія

Sx=std(x);% середньоквадратичне відхилення

Ax=skewness(x);% асиметрія

Ex=kurtosis(x) - 3;% ексцес

k=round(n^0.5);% число інтервалів для побудови гистограмми

d=(xmax-xmin)/k;% ширина кожного інтервалу

del=(xmax-xmin)/20;% добавки вліво і вправо

xl=xmin-del;% ліва границя інтервалу для побудови гистограмми

xr=xmax+del;% права границя інтервалу для побудови гистограмми

fprintf('Число інтервалів k=%d\n', k)

fprintf('Ширина інтервалу h=%14.7f\n', d)

figure% створюємо нову фігуру

hist(x, k)% побудували гистограмму

set(get(gcf, 'CurrentAxes'),...

'FontName', 'TimesNewRomanCyr', 'FontSize', 12)% установка типу і номера шрифту

title('\bfгистограмма')% заголовок

xlim([xlxr])% границі по осі OX

xlabel('\itx_{j}')% мітка осі x

ylabel('\itn_{j}')% мітка осі y

grid

Малюнок 3 - гистограмма розподілу амплітуди сигналу гусеничної техніки

Малюнок 4 - гистограмма розподілу амплітуди фонового сигналу

Висновок: по виду отриманих гистограмм можна зробити припущення про те, що розподіл амплітуд сигналу підкоряється нормальному закону.

1.2 Вивчення законів розподілу випадкових величин

Приклади розподілів: нормальне, показове (експонентне), рівномірне, релеевское

По виду гистограмми підбирається теоретичний закон розподілу. Для цього дивимося, на яку щільність розподілу схожа гистограмма і вибираємо відповідний закон. У цьому завданні вибір невеликої. Ми розглядаємо тільки 4 найбільше що часто зустрічаються а додатках законів розподілу:

1. Нормальне.

2. Показове (експонентне).

3. Рівномірне.

4. Релеевское.

Намалюємо за допомогою MATLAB графіки відповідних плотностей розподілу. Вони показані на малюнках 5 - 8. Тут для вичисленияf(x) використовується функциярdf, що знаходить щільність кожного з наявних у MATLAB видів розподілів. Можна використовувати й інший варіант: обчислювати кожну щільність розподілу за допомогою своєї функції:normpdf,ехррdfи т.д.

Щільність нормального розподілу - колоколообразная крива, симетрична щодо деякої вертикальної осі, але вона може бути зміщена по горизонталі відносно осиоу. Значенияхмогут бути різного знака. Вираження для щільності нормального розподілу має вид:

, (4)

а функція розподілу:

, (5)

де Ф (u) - інтеграл Лапласа, для якого є таблиці. Якщо вважати функцію нормального розподілу вручну, то зручно користатися таблицями інтеграла Лапласа, що є в будь-якому підручнику по теорії імовірностей. При використанні MATLAB у цьому немає необхідності: там є функцииnоrмрdfиnоrмсdf, а також функциирdfисdf, у яких перший параметр (назва розподілу) повинний мати значення 'norm'. У вираження для щільності і функції нормального розподілу входять 2 параметри:мі s, тому нормальний розподіл є двухпараметрическим. По нормальному законі звичайно розподілена помилка спостережень.

Щільність показового розподілу відмінна від нуля тільки для ненегативних значенийх. У нулі вона приймає максимальне значення, рівне a. З ростомхона убуває, залишаючись увігнутої й асимптотически наближаючи до 0. Вираження для щільності показового розподілу:

(6)

а для функції розподілу:

(7)

Показовий розподіл є однопараметричним: функція і щільність його залежать від одного параметра a.

Зверніть увагу: у MATLAB параметр показового розподілу - це величина, зворотна a у формулах (6 - 7).

Щільність рівномірного розподілу відмінна від нуля тільки в заданому інтервалі [a,b], і приймає в цьому інтервалі постійне значення:

(8)

Функція рівномірного розподілу левее точкиаравна нулю, правееb- одиниці, а в інтервалі [a,b] змінюється по лінійному законі:

(9)

Рівномірний розподіл - двухпараметрическое, тому що у вираження для(x) иf(x) входять 2 параметри: аиb. По рівномірному законі розподілена помилка округлення і фаза випадкових коливань. У MATLAB щільність і функція рівномірного розподілу можуть бути полічені за допомогою функцийunіfрdfиunіfсdf, а також за допомогою функцийрdfисdfс першим параметром 'unif'.

Щільність релеевского розподілу відмінна від нуля тільки для ненегативних значенийх. Від нуля вона опукла і зростає діл деякого максимального значення. Далі з ростомхона убуває, залишаючись опуклої. Потім стає увігнутої, продовжуючи убувати, і асимптотически наближається до 0. Вираження для щільності релеевского розподілу має вид:

(10)

Функція релеевского розподілу:

(11)

Це розподіл однопараметричне: воно залежить від одного параметра s. По релеевскому законі розподілена відстань від крапки влучення в мішень до її центра. Обчислення щільності і функції релеевского розподілу в MATLAB реалізовано за допомогою функцийrауlрdf,rауlсdfили функцийрdf,сdfс превим параметром 'rayl'.

Практична частина.

tdistr={'norm', 'exp', 'unif', 'rayl'};% назви

pardistr=[[2 1]; [2,0]; [0 4]; [1 0]];% параметри

ndistr=length(tdistr);% кількість розподілів

xpl=[-1:0.01:5]';% абсциси для графіків

foridistr=1:ndistr, % заповнюємо і будуємо графіки

ypdf=pdf (tdistr{idistr}, xpl,...

pardistr (idistr, 1), pardistr (idistr, 2));% ординати

figure% нова фігура

plot (xpl, ypdf);% малюємо

set (get(gcf, 'CurrentAxes'),...

'FontName', 'Times New Roman Cyr', 'FontSize', 12)

title(['\bfплотность розподілу ' tdistr{idistr}])

end;

Малюнок 5 - щільність розподілу амплітуди сигналу по нормальному законі

Малюнок 6 - щільність розподілу амплітуди сигналу по експонентному законі

Малюнок 7 - рівномірна щільність розподілу амплітуди сигналу

Малюнок 8 - щільність розподілу амплітуди сигналу по Релеевскому законі

На практиці можуть зустрітися й інші види розподілів (b, c2, логнормальное, Вейбулла і т.д.). Багато хто з них реалізовані в MATLAB, але іноді приходиться писати свої функції.

Графіки деяких плотностей розподіли схожі між собою, тому іноді вид гистограмми дозволяє вибрати відразу кілька законів. Якщо є які-небудь теоретичні розуміння зволіти один розподіл іншому, можна їх використовувати. Якщо немає - потрібно перевірити всі придатні закони, а потім вибрати той, для якого критерії згоди дають кращі результати.

1.3 Оцінка параметрів розподілу випадкових величин для чотирьох законів

У вираженнях для щільності і функції нормального розподілу (4 - 5) параметрими s є математичним чеканням і середньоквадратичним відхиленням. Тому, якщо ми зупинилися на нормальному розподілі, то беремо їх рівними, відповідно, вибірковим математичному чеканню і середньоквадратичному відхиленню:

. (12)

Математичне чекання показового розподілу є величина, зворотна його параметру a. Тому, якщо ми вибрали показовий розподіл, параметр a знаходимо:

(13)

З виражень длямхи sхравномерного закону розподілу знаходимо його параметриаиb:

; . (14)

Параметр s релеевского розподілу також знаходиться з вираження длямх

(15)

У системі MATLAB обчислення параметрів теоретичного розподілу за допомогою ПМП реалізоване у функцияхfіtилимlе. Підбор по методу моментів не реалізований. Знайдемо параметри теоретичного розподілу по ПМП і методу моментів.

Практична частина.

s={'нормальний розподіл'; 'показовий розподіл';...

'рівномірний розподіл'; 'Релеевское розподіл'};

disp('Параметри по ПМП:')

[mx, sx]=normfit(x);% параметри нормального розподілу

lam=1/expfit(x);% параметр показового розподілу

[a, b]=unifit(x);% параметри рівномірного розподілу

sig=raylfit(x);% параметр Релеевского розподілу

fprintf([' % s: m=%12.7f; sigma=%12.7f\n'], s{1}, mx, sx)

fprintf (' % s: alpha=%12.7f\n', s{2}, lam)

fprintf (' % s: a=%12.7f; b=%12.7f\n', s{3}, a, b)

fprintf (' % s: sigma=%12.7f\n', s{4}, sig)

Длясигналагусеничнойтехники:

Параметри по ПМП:

нормальний розподіл: m= 0.0060038; sigma= 0.0203706

показовий розподіл: alpha= 166.5608494

рівномірний розподіл: a= -0.0962308; b= 0.0942564

Релеевское розподіл: sigma= 0.0150166

Для фонового сигналу:

Параметри по ПМП:

нормальний розподіл: m= 0.0188599; sigma= 0.0005663

показовий розподіл: alpha= 53.0224920

рівномірний розподіл: a= 0.0106122; b= 0.0210241

Релеевское розподіл: sigma= 0.0133420

disp('Параметри по методу моментів:')

mx=Mx;

sx=Sx;% параметри нормального розподілу

lam=abs(1/Mx);% параметр показового розподілу

a=Mx-Sx*3^0.5;

b=Mx+Sx*3^0.5;% параметри рівномірного розподілу

sig=abs(Mx)*(2/pi)^0.5;% параметр Релеевского розподілу

fprintf([' % s: m=%12.7f; sigma=%12.7f\n'], s{1}, mx, sx)

fprintf (' % s: alpha=%12.7f\n', s{2}, lam)

fprintf (' % s: a=%12.7f; b=%12.7f\n', s{3}, a, b)

fprintf (' % s: sigma=%12.7f\n', s{4}, sig)

Длясигналагусеничнойтехники:

Параметри по методу моментів:

нормальний розподіл: m= 0.0060038; sigma= 0.0203706

показовий розподіл: alpha= 166.5608494

рівномірний розподіл: a= -0.0292791; b= 0.0412867

Релеевское розподіл: sigma= 0.0047903

Для фонового сигналу:

Параметри по методу моментів:

нормальний розподіл: m= 0.0188599; sigma= 0.0005663

показовий розподіл: alpha= 53.0224920

рівномірний розподіл: a= 0.0178790; b= 0.0198409

Релеевское розподіл: sigma= 0.0150480

Висновок: з результатів, отриманих двома методами видно, що оцінки плотностей розподілу імовірностей для рівномірного і релеевского законів по першому методі відрізняються від плотностей розподілу імовірностей по другому методі.

Оцінки показових і нормальних законів плотностей розподілу імовірностей по обох методах практично збігаються.

1.4 Побудова на одному графіку теоретичного і практичного розподілу для формулювання гіпотези

Побудуємо на одному графіку теоретичну й емпіричну щільності розподілу імовірності. Емпірична щільність розподілу - це гистограмма, у якої масштаб по осі ординат змінений таким чином, щоб площа під кривою стала дорівнює одиниці. Для цього всі значення в інтервалах необхідно розділити наnh, де n - обсяг вибірки,h- ширина інтервалу при побудові гистограмми. Теоретичну щільність розподілу імовірності будуємо по одному з виражень (4), (6), (8), (10), параметри для них вже обчислені. Емпіричну щільність розподілу намалюємо червоною лінією, а передбачувану теоретичну - лінією одного з квітів: синього, зеленого, бузкового чи чорного.

Практична частина.

[nj, xm]=hist(x, k);% число влучень і середини інтервалів

delta=xm(2) - xm(1);% ширина інтервалу

clearxfvfvxftft% очистили масиви для f(x)

xfv=[xm-delta/2; xm+delta/2];% абсциси для емпіричної f(x)

xfv=reshape(xfv, prod(size(xfv)), 1);% перетворили в стовпець

xfv=[xl; xfv(1); xfv; xfv(end); xr];% додали крайні

fv=nj/(n*delta);% значення емпіричної f(x) у виді 1 рядка

fv=[fv; fv];% 2 рядка

fv=[0; 0; reshape(fv, prod(size(fv)), 1); 0; 0];% + крайні, 1 стовпець

xft=linspace(xl, xr, 1000)';% абсциси для теоретичної f(x)

ft=[normpdf (xft, mx, sx), exppdf (xft, 1/lam),...

unifpdf (xft, a, b), raylpdf (xft, sig)];

col='bgmk';% кольору для побудови графіків

figure

plot (xfv, fv, '-r', xft, ft(:, 1), col(1), xft, ft(:, 2), col(2),...

xft, ft(:, 3), col(3), xft, ft(:, 4), col(4)) % малюємо

set (get(gcf, 'CurrentAxes'),...

'FontName', 'Times New Roman Cyr', 'FontSize', 12)

title('\bfплотности розподілу')

xlim([xlxr]), ylim([0 1.4*max(fv)])% границі малюнка по осях

xlabel('\itx')% мітка осі x

ylabel('\itf\rm(\itx\rm)')% мітка осі y

grid

Рис. 9 - Графік щільності розподілу імовірності сигналу гусеничної техніки і графіки нормального, релеевского, показового і рівномірного законів плотностей розподілу імовірності

Рис. 10 - Графік щільності розподілу імовірності фонового сигналу і графіки нормального, релеевского, показового і рівномірного законів плотностей розподілу імовірності

Висновок: з малюнка 9 видно, що найбільш придатним теоретичним розподілом для першої емпіричний гистограмми є нормальне.

Реальний закон розподілу амплітуд фонового сигналу також підкоряється нормальному закону.

1.5 Перевірка гіпотези за критерієм Колмогорова-Смирнова

Ми підібрали вид теоретичного розподілу і його параметри. Наступний етап - це перевірка правильності підбора. Необхідно з'ясувати: наскільки добре теоретичний розподіл погодиться з даними. З цією метою використовуються критерії згоди Колмогорова-Смирнова чи Пирсона., у другому -f(x) иf*(x).

Критерій згоди Колмогорова. У цьому випадку порівнюються теоретическая(x) і виборочная*(x) функції розподілу. Порівнюваним параметром є максимальна по модулі різниця між двома функціями

. (16)

З погляду вибіркового метода*(x) є випадковою функцією, тому що від вибірки до вибірки її вид міняється, тому величинаDявляется випадкової. Відповідно до теореми Гливенко-Кантелли з ростом обсягу вибірки ця величина сходиться до нуля. Колмогоров А. Н. з'ясував, як именноDсходится до нуля. Він розглянув випадкову величину

(17)

і знайшов її закон розподілу. Як виявилося, при досить большихnон узагалі не залежить від закону розподілу генеральної совокупностих. Причому функція розподілу випадкової величини L має вид

. (18)

Якщо досвідчені данниехдействительно узяті з генеральної сукупності з функцією распределения(x), то обчислена по вираженню (18) реалізація l випадкової величини L на рівні значимостиqдолжна лежати в квантильних границях розподілу Колмогорова (18). При цьому, якщо l мале (виходить за "лівий" квантиль), те нульова гіпотеза приймається: теоретичний розподіл погодиться з досвідченими даними. У загальному випадку нульова гіпотеза приймається, якщо виконується умова

l £ l1-q. (19)

Даний критерій називається ще критерієм Колмогорова-Смирнова.

Таким чином, для застосування критерію згоди Колмогорова-Смирнова, ми повинні знайти максимальну по модулі різниця між вибірковою і теоретичною функціями распределенияDпо вираженню (16), обчислити по ній l і перевірити умова (19).

Практична частина.

param=[[mxsx]; [lam 0]; [ab]; [sig 0]];% параметри розподілів

qq=[];% критичні рівні значимості

foridistr=1:ndistr, % критерій Колмогорова

[hkolm, pkolm, kskolm, cvkolm]=...

kstest(x, [xcdf(tdistr{idistr}, x,...

param(idistr, 1), param(idistr, 2))], 0. 1,0);

qq=[qqpkolm];% критичні рівні значимості

end

[maxqq, bdistr]=max(qq);% вибрали кращий розподіл

fprintf(['Найкраще підходить % s;\nкритический рівень '...

'значимості для нього =%8.5f\n'], s{bdistr}, maxqq);

figure

cdfplot(x);% емпірична функція розподілу

xpl=linspace(xl, xr, 500);% для графіка F(x)

ypl=cdf (tdistr{bdistr}, xpl, param (bdistr, 1), param (bdistr, 2));

holdon% для малювання на цьому ж графіку

plot(xpl, ypl, 'r');% домалювали F(x)

hold off

set (get(gcf, 'CurrentAxes'),...

'FontName', 'Times New Roman Cyr', 'FontSize', 12)

title(['\bfподобрано ' s{bdistr}])

xlabel ('\itx')% мітка осі x

ylabel ('\itf\rm (\itx\rm)')% мітка осі y

Результат:

Найкраще підходить нормальний розподіл;

критичний рівень значимості для нього = 0.31369

Рис. 11 - Графік емпіричної функції розподілу для сигналу гусеничної техніки

Рис. 12 - Графік емпіричної функції розподілу для фонового сигналу

Знайдений критичний рівень значимості - це те значениеq, при якому нерівність (19) звертається в рівність.

Висновок: За отриманими результатами можна зробити висновок, що за даним критерієм розподіл подобранно вірно.

1.6 Перевірка гіпотези за критерієм згоди Пирсона

За критерієм Пирсона порівнюються теоретична й емпірична функції щільності розподілу імовірності, а точніше - частота улучення випадкової величини в інтервал. Інтервали можуть бути будь-якими, рівними і нерівними, але зручно використовувати ті інтервали, на яких побудована гистограмма. Емпіричні числа попаданияn(з гистограмми) порівнюється з теоретическимnрj, гдерj- імовірність улучення випадкової величинихвj-ий інтервал:

, (20)

аjиbj- границиj-го інтервалу. Карл Пирсон показав, що, якщо всеnрj³ 5, те сумарна квадратическая відносна різниця між теоретичним і практичним числом влучень в інтервал дорівнює

(21)

має приблизно c2розподіл Пирсона ск-мстепенями волі, гдем- число параметрів, оцінюваних по вибірці, плюс 1. Тому що параметрів два, тім= 3. Вираження (21) являє собою статистику Пирсона.

Теоретичний розподіл можна вважати підібраним вірно, якщо виконується умова

. (22)

Побудуємо таблицю результатів, у яку занесемо: номера інтервалів (1-й стовпець), границі интерваловajиbj(2-й і 3-й стовпці), імовірність влучення в интервалpj(4-й стовпець), теоретичне число влучень і практичне число попаданийnpj(6-й стовпець). Границі інтервалів і практичне число влучень узяті з гистограмми, теоретична імовірність влучення в j-й інтервал підраховується по вираженню (20).

Практична частина.

clearTabl% очистили таблицю результатів

Tabl(:, 1)=[1:k]';% номера інтервалів

Tabl(:, 2)=хм'-delta/2;% ліві границі інтервалів

Tabl(:, 3)=xm'+delta/2;% праві границі інтервалів

Tabl(1,2)=-inf;% теоретичний початок 1-го інтервалу

Tabl(k, 3)=inf;% теоретичний кінець останнього інтервалу

Tabl(:, 4)=nj';% досвідчені числа влучень

bor=[Tabl(:, 2); Tabl(end, 3)];% усі границі інтервалів

pro=cdf (tdistr{bdistr}, bor, param (bdistr, 1), param (bdistr, 2));

Tabl(:, 5)=pro (2:end) - pro (1:end-1);% імовірності попаданиz pj

Tabl(:, 6)=n*Tabl(:, 5);% теоретическоечислопопаданийnрj

disp('Зведена таблиця результатів')

fprintf(' jajbj')

fprintf (' njpjnpj\n')

fprintf (' % 2.0f % 12.5f % 12.5f % 6.0f % 12.5f % 12.5f\n', Tabl')

Для сигналу гусеничної техніки:

Зведена таблиця результатів

j aj bj nj pj npj

1 - Inf -0.09544 2 0.00000 0.01837

2 -0.09544 -0.09464 2 0.00000 0.00408

3 -0.09464 -0.09385 0 0.00000 0.00495

4 -0.09385 -0.09306 1 0.00000 0.00599

5 -0.09306 -0.09226 1 0.00000 0.00724

6 -0.09226 -0.09147 0 0.00000 0.00873

7 -0.09147 -0.09067 0 0.00000 0.01052

8 -0.09067 -0.08988 4 0.00000 0.01266

9 -0.08988 -0.08909 0 0.00000 0.01520

10 -0.08909 -0.08829 0 0.00000 0.01824

11 -0.08829 -0.08750 2 0.00000 0.02184

12 -0.08750 -0.08671 2 0.00000 0.02612

13 -0.08671 -0.08591 0 0.00000 0.03118

14 -0.08591 -0.08512 3 0.00000 0.03718

15 -0.08512 -0.08433 1 0.00000 0.04425

Для фонового сигналу:

Зведена таблиця результатів

jajbjnjpjnpj

1 - Inf0.01067 1 0.00000 0.00000

2 0.01067 0.01074 0 0.00000 0.00000

3 0.01074 0.01080 0 0.00000 0.00000

4 0.01080 0.01086 0 0.00000 0.00000

5 0.01086 0.01092 0 0.00000 0.00000

6 0.01092 0.01098 0 0.00000 0.00000

7 0.01098 0.01104 0 0.00000 0.00000

8 0.01104 0.01111 0 0.00000 0.00000

9 0.01111 0.01117 0 0.00000 0.00000

10 0.01117 0.01123 0 0.00000 0.00000

11 0.01123 0.01129 0 0.00000 0.00000

12 0.01129 0.01135 0 0.00000 0.00000

13 0.01135 0.01141 0 0.00000 0.00000

14 0.01141 0.01147 0 0.00000 0.00000

15 0.01147 0.01154 0 0.00000 0.00000

Якщо розподіл підібраний, вірно, то числа з 4-го і 6-го стовпців не повинні сильно відрізнятися.

Висновок: Для сигналу гусеничної техніки числа з 4-го і 6-го стовпців значно відрізняються, виходить, розподіл підібраний невірно. А для фонового сигналу ці числа практично збігаються.

Перевіримо виконання условияnрj³ 5 і об'єднаємо ті інтервали, у которихnрj < 5. Перешикуємо таблицю і додамо в неї ще один, 7-й стовпець - доданок, що обчислюється по вираженню (21).

Практична частина.

qz=0.3;% вибрали рівень значимості

ResTabl=Tabl (1,1:6);% узяли перший рядок

for k1=2:k, % беремо інші рядки таблиці

if ResTabl (end, 6) < 5, % попереднє npj < 5 - будемо підсумовувати

ResTabl (end, 3)=Tabl (k1,3);% нова права границя інтервалу

ResTabl (end, 4:6)=ResTabl (end, 4:6)+Tabl (k1,4:6);% підсумовуємо

else% попереднє npj > =5 - будемо дописувати рядок

ResTabl=[ResTabl; Tabl (k1,1:6)];% дописиваемстроку

end

end

if ResTabl (end, 6) < 5, % останнє npj < 5

ResTabl (end - 1,3)=ResTabl (end, 3);% новаяправаяграница

ResTabl (end - 1,4:6)=ResTabl (end - 1,4:6)+ResTabl (end, 4:6);

ResTabl=ResTabl (1:end-1,:);% відкинули останній рядок

end

kn=size (ResTabl, 1);% число об'єднаних інтервалів

ResTabl(:, 1)=[1:kn]';% нові номери інтервалів

ResTabl(:, 7)=(ResTabl(:, 4) - ResTabl(:, 6)).^2./ResTabl(:, 6);

disp ('Згрупована зведена таблиця результатів')

fprintf (' jajbj')

fprintf (' njpjnpj')

fprintf([' (nj-npj)^2/npj\n'])

fprintf (' % 2.0f % 12.5f % 12.5f % 6.0f % 12.5f % 12.5f % 12.5f\n', ResTabl')

hi2=sum (ResTabl(:, 7));% сума елементів останнього стовпця

fprintf(['Статистика Пирсона chi2=%10.5f\n'], hi2)

m=[3,2,3,2];% число обмежень

fprintf ('Задаємо рівень значимості q=%5.4f\n', qz)

chi2qz=chi2inv (1-qz, kn-m(bdistr));% квантиль

fprintf(['Квантиль chi2-розподілу Пирсона '...

'chi2 (1-q)=%10.5f\n'], chi2qz)

ifhi2 < =chi2qz,

disp ('Розподіл підібраний вірно, тому що chi2 < =chi2 (1-q)')

else

disp ('Розподіл підібраний невірно, тому що chi2 > chi2 (1-q)')

end

Для сигналу гусеничної техніки:

Згрупована зведена таблиця результатів

j aj bj nj pj npj (nj-npj)^2/npj

1 - Inf -0.07004 58 0.00009 5.46033 505.53988

2 -0.07004 -0.06607 32 0.00011 6.16617 108.23348

3 -0.06607 -0.06369 17 0.00011 6.35867 17.80845

4 -0.06369 -0.06210 16 0.00010 5.89961 17.29233

5 -0.06210 -0.06051 16 0.00013 7.65444 9.09908

6 -0.06051 -0.05893 16 0.00017 9.87115 3.80530

7 -0.05893 -0.05813 9 0.00010 5.93889 1.57781

8 -0.05813 -0.05734 16 0.00012 6.71391 12.84370

9 -0.05734 -0.05655 12 0.00013 7.57856 2.57953

10 -0.05655 -0.05575 17 0.00015 8.54160 8.37603

11 -0.05575 -0.05496 15 0.00017 9.61240 3.01967

12 -0.05496 -0.05416 17 0.00019 10.80104 3.55773

13 -0.05416 -0.05337 13 0.00021 12.11825 0.06416

14 -0.05337 -0.05258 26 0.00024 13.57548 11.37115

15 -0.05258 -0.05178 20 0.00026 15.18487 1.52688

Статистика Пирсона chi2=2613.15423

Задаємо рівень значимості q=0.3000

Квантиль chi2-розподілу Пирсона chi2 (1-q)= 182.25040

Розподіл підібраний невірно, тому що chi2 > chi2 (1-q)

Висновок: За критерієм Пирсона розподіл підібраний невірно, тому що реальне значення статистики χ2р=2613.15423 набагато перевищує критичне значення χ2т,f=182.25040, отже, гіпотеза про нормальний закон розподілу амплітуд сигналу не підтверджується на рівні значимості 0.05.

Для фонового сигналу:

Згрупована зведена таблиця результатів

jajbjnjpjnpj(nj-npj)^2/npj

1 - Inf0.01690 11 0.00026 7.51515 1.61596

2 0.01690 0.01702 13 0.00031 8.99732 1.78070

3 0.01702 0.01708 14 0.00026 7.55999 5.48594

4 0.01708 0.01714 15 0.00037 10.63561 1.79095

5 0.01714 0.01720 13 0.00052 14.78664 0.21588

6 0.01720 0.01727 24 0.00071 20.31617 0.66797

7 0.01727 0.01733 33 0.00097 27.58544 1.06279

8 0.01733 0.01739 35 0.00130 37.01551 0.10975

9 0.01739 0.01745 54 0.00172 49.08550 0.49205

10 0.01745 0.01751 58 0.00225 64.32627 0.62217

11 0.01751 0.01757 79 0.00291 83.30848 0.22282

12 0.01757 0.01764 102 0.00373 106.62418 0.20055

13 0.01764 0.01770 137 0.00472 134.86147 0.03391

14 0.01770 0.01776 167 0.00590 168.57212 0.01466

15 0.01776 0.01782 185 0.00729 208.23287 2.59213

Статистика Пирсона chi2= 57.37478

Задаємо рівень значимості q=0.3000

Квантиль chi2-розподілу Пирсона chi2 (1-q)= 66.27446

Розподіл підібраний, вірно, тому що chi2 < =chi2 (1-q)

Висновок: Для фонового сигналу за критерієм Пирсона розподіл підібраний вірно, тому що реальне значення статистики χ2р=609411.53699 не перевищує критичне значення χ2т,f=520.15366, отже, гіпотеза про нормальний закон розподілу амплітуд сигналу підтверджується.

1.7 Побудова кореляційної функції для фрагмента сигналу тривалістю 2000 отсчетов

Для побудови кореляційної функції двох сигналів, виберемо фрагменти сигналів:

Практична частина

%Початок фрагмента задається величиною N1

N1=25001;

% кінець фрагмента задається величиною N2

N2=26000;

x=tr_t200 (N1:N2); %вирізували фрагмент сигналу

r=xcorr(x, x); %Обчислення кореляційної функції

Малюнок 13 - Графік вихідного сигналу гусеничної техніки

Для сигналу гусеничної техніки вибираємо найбільше інформативна ділянка від 54000 до 55000.

Малюнок 14 - Графік вихідного фонового сигналу

Для фонового сигналу вибираємо найбільш інформативна ділянка те 45000 до 46000.

Для сигналу гусеничної техніки:

h1=tr_t200 (54000:55000);% вирізували фрагмент

k=1000;

KF=xcorr (h1, h1, k);% КФ

k1=-k:k; plot (k1, KF);%побудували КФ

Малюнок 15 - Графік кореляційної функції сигналу гусеничної техніки

Висновок: Графік має квазипериодический характер. Повтор явних сплесків коливань через кожні 250÷300 отсчетов. По кореляційній функції також можна сказати, що сигнал має коливальний випадковий характер. Так само можна сказати, що функція не стационарна, тому що дисперсія її не постійна. Період коливання кореляційної функції сигналу гусеничної техніки складає приблизно 290 отсчетов (0.58 с).

Для фонового сигналу:

h2=fon(15000:16000);% вирізували фрагмент

k=1000;

KF=xcorr (h2, h2, k);% КФ

k1=-k:k; plot (k1, KF);%побудували КФ

Малюнок 16 - Графік кореляційної функції фонового сигналу

Висновок: по кореляційній функції для фонового сигналу можна сказати, що сигнал має коливальний випадковий характер. Так само можна сказати, що функція не стационарна, тому що дисперсія її не постійна. Період коливання кореляційної функції фонового сигналу складає приблизно 190 отсчетов.

2. Формування навчальних і контрольних безлічей даних

2.1 Ознаки по оцінці спектра потужності сигналу у восьми інтервалах частот

Теоретичний розділ

При виявленні і розпізнаванні об'єктів по сейсмічних сигналах виникає задача вибору ознак.

Ознаки повинні задовольняти двом основним вимогам:

1 Стійкість. Найбільш стійкими вважаються ознаки, що відповідають нормальному закону розподілу (бажано, щоб значення ознак не виходили за межі полючи допуску);

2 Сепарабельность. Чим більше відстань між центрами класів і менше дисперсія в класі, тим вище показники якості системи чи виявлення класифікації.

У даній роботі ознаками є: розподіл потужності в десятьох рівномірних інтервалах (по 25 гармонік).

Практична частина

x1=tr_t200-mean (tr_t200);%Уведення центрованого сигналу одного

людини.

x2=fon-mean(fon);%Уведення центрованого сигналу

групи людей.

Ознаки обчислюються з використанням подгружаемого файлу MATRPRIZP:

function [P, Ps]=f (x, fs, N1, N2)

% Програма обчислення матриці ознак відносної потужності

% сигналу в 10-ти поддиапазонах частот

% Звертання до процедури: P=MATRPRIZP(x, fs, N1, N2); чи [P, Ps]=MATRPRIZP(x, fs, N1, N2);

% x- вихідний дискретний сигнал

% P- матриця ознак

% Ps- матриця згладжених ознак

% Pk - спектр потужність сигналу в поточному вікні

% N1 - довга нарізаних сигналів в отсчетах

% N2 - зрушення в отсчетах між сусідніми сигналами

% M- матриця сигналів розмірності N1*N2

% Nc- число рядків матриці сигналів

M=matrsig (x, N1, N2);

Nc=length (M(:, 1));

for i=1: Nc Pk(:, i)=SM (M(i,:)', N1, fs); end;

Pk=Pk';

for i=1: Nc

w=sum (Pk(i,:));

P (i, 1)=sum (Pk(i, 1:51))/w; P (i, 2)=sum (Pk(i, 52:103))/w; P (i, 3)=sum (Pk(i, 104:155))/w; P (i, 4)=sum (Pk(i, 156:207))/w;...

P (i, 5)=sum (Pk(i, 208:259))/w; P (i, 6)=sum (Pk(i, 260:311))/w; P (i, 7)=sum (Pk(i, 312:363))/w; P (i, 8)=sum (Pk(i, 364:415))/w; P (i, 9)=sum (Pk(i, 416:467))/w; P (i, 10)=sum (Pk(i, 468:512))/w;

end;

Пропускаємо сигнали через формування матриці ознак:

x=tr_t200;

N1=1024;

N2=512;

fs=500;

Mt=MATRPRIZP (x, fs, N1, N2);

x=fon;

N1=1024;

N2=512;

fs=500;

Mf=MATRPRIZP (x, fs, N1, N2);

Одержимо графічні представлення матриць ознак:

Малюнок 17 - Графічне представлення матриці ознак сигналу гусеничної техніки

Малюнок18 - Графічне представлення матриці ознак фонового сигналу

3Дослідження ознак

Практична частина

Для навчальної матриці зробити дослідження ознак по наступній програмі: 1) Оцінити параметри розподілу ознак; 2) По кожній ознаці навчальної матриці обчислити відстань. Для даної ознаки сформулювати вирішальне правило задачі виявлення.

3.1 Оцінка параметрів розподілу ознак. Визначення інформативної ознаки з максимальною відстанню, побудова функцій щільності розподілу імовірностей і обчислення порога ухвалення рішення, формулювання вирішального правила

Завантажуємо сигнал у робочий простір:

h1=fon-mean(fon);

h2=tr_t200-mean (tr_t200);

N1=1024;

N2=512;

fs=500;

Пропускаємо сигнал через ґрати фільтрів Батерворда:

[M, Mf]=MATRPRIZP (h1,500, N1, N2);

[M, Mt]=MATRPRIZP (h2,500, N1, N2);

Знаходимо математичне чекання і дисперсію для 2-х сигналів:

VMf=mean(Mf);

VMf =

0.7424 0.0651 0.0439 0.0353 0.0353 0.0289 0.0200 0.0135 0.0093 0.0054

VMs=mean(Mt);

VMs =

0.9563 0.0424 0.0006 0.0002 0.0001 0.0001 0.0001 0.0001 0.0001 0.0001

VSf=std(Mf);

VSf =

0.0676 0.0144 0.0119 0.0103 0.0131 0.0107 0.0056 0.0030 0.0018 0.0016

VSs=std(Mt);

VSs =

0.0234 0.0232 0.0003 0.0001 0.0001 0.0001 0.0001 0.0000 0.0000 0.0000

npr=10;

for i=1:npr

r(i)=abs (VMf(i) - VMs(i))/(VSf(i)+VSs(i));

end;

[max_r, ind]=max(r);

Відстань між ознаками r=

2.3638 0.67807 3.5322 3.2243 2.3307 2.9455 4.0058 4.756 4.3383 3.2031

Максимальна відстань: max_r= 4.756;

Одержали найбільше інформативна ознака під номером 8. Отже, нормоване значення потужності в діапазоні 364 - 415 Гц.

ind=8;

x1=Mt(:, ind);

x1=sort(x1);

n1=length(x1);

xmin1=x1 (1);

xmax1=x1 (n1);

Mx1=mean(x1);

Sx1=std(x1);

xl1=Mx1-3*Sx1;

xr1=Mx1+3*Sx1;

xft1=linspace (xl1, xr1,1000);

ft1=[normpdf (xft1, Mx1, Sx1)];

k1=round (n1^0.5);

d1=(xmax1-xmin1)/k1;

x2=Mf(:, ind);

x2=sort(x2);

n2=length(x2);

xmin2=x2 (1);

xmax2=x2 (n2);

Mx2=mean(x2);

Sx2=std(x2);

xl2=Mx2-3*Sx2;

xr2=Mx2+3*Sx2;

xft2=linspace (xl2, xr2,1000);

ft2=[normpdf (xft2, Mx2, Sx2)];

k2=round (n2^0.5);

d2=(xmax2-xmin2)/k2;

plot (xft1, ft1.*d1,'b', xft2, ft2.*d2,'r');

chi=(2*Sx1*Sx2*log (Sx2/Sx1))+Mx1^2-Mx2^2;

Zn=2*(Mx1-Mx2);

h=chi/Zn

Одержали поріг ухвалення рішення:

h = 0.0063

Побудуємо графік щільності розподілу імовірності:

Малюнок 19 - Сполучені графіки плотностей розподілу імовірностей сигналів гусеничної техніки і тла

Вирішальне правило: якщо значення ознаки буде менше порога h, те приймаємо рішення, що це корисний сигнал, якщо ж значення ознаки більше порога h це буде відповідати відсутності сигналу (тлу).

Висновок: у даній частині курсової роботи були отримані матриці ознак сигналу гусеничної техніки і фонового сигналів. Були знайдені значення і номер найбільш інформативної ознаки. Але за цією ознакою не можна побудувати систему класифікації, тому що буде занадто велика помилка. Тому систему класифікації доцільно будувати по декількох ознаках.

Також було отримане значення порога ухвалення рішення для системи класифікації і сформульоване вирішальне правило.

4. Навчання нейронной мережі.

4.1 Загальні зведення про нейронних мережі

Штучні НС являє собою моделі, в основі яких лежать сучасні представлення про будівлю мозку людини і процесах обробки, що відбуваються в ньому, інформації. ИНС уже знайшли широке застосування в задачах: стиску інформації, оптимізації, розпізнавання образів, побудова експертних систем, обробки сигналів і зображень і т.д.

Зв'язок між біологічним і штучним нейронами

Малюнок 20 - Структура біологічного нейрона

Нервова система людини складається з величезної кількості зв'язаних між собою нейронів, порядку 1011; кількість зв'язків обчислюється числом 1015.

Представимо схематично пари біологічних нейронів (малюнок 20). Нейрон має кілька вхідних відростків - дендрити, і один вихідний - аксон. Дендрити приймають інформацію від інших нейронів, аксон - передає. Область з'єднання аксона з дендритом (область контакту) називається синапсом. Сигнали, прийняті синапсами, підводяться до тіла нейрона, де вони суммируются. При цьому, одна частина вхідних сигналів є збудливими, а інша - гальмуючими.

Коли вхідний вплив перевищить деякий поріг, нейрон переходить в активний стан і посилає по аксоні сигнал іншим нейронам.

Штучний нейрон - це математична модель біологічного нейрона (Малюнок 21). Позначимо вхідний сигнал черезх, а безліч вхідних сигналів через векторх= {х1, х2, ..., х}. Вихідний сигнал нейрона будемо позначати черезу.

Зобразимо функціональну схему нейрона.

Малюнок 21 - Штучний нейрон

Для позначення збудливого чи гальмуючого впливу входу, уведемо коеффициентиw1,w1, ...,w- на кожен вхід, тобто вектор

W= {w1,w1, ...,w},wрозмір-0-величина порога. Зважені на вектореWвходние воздействияхперемножаются з відповідним коеффициентомw, суммируются і формується сигналg:

Вихідний сигнал є деякою функцією отg

,

где- функція активації. Вона може бути різного виду:

1) східчастої граничний

2)

чи

У загальному випадку:

2) лінійної, котра рівносильна відсутності граничного елемента взагалі

F(g) =g

3) лінійною-лінійній-кусочно-лінійної, одержувана з лінійної шляхом обмеження діапазону її зміни в межах, тобто

4) сигмоидальной

5) многопороговой

6) гіперболічний тангенс

F(g) = tanh(g)

Найчастіше вхідні значення перетворяться до диапазонухÎ [0, 1]. Приwі= 1 (і= 1, 2,...,N) нейрон є мажоритарним елементом. Поріг у цьому випадку приймає значениеw0=N/2.

Ще один варіант умовного зображення штучного нейрона приведений на малюнку 22

Малюнок 22 - Умовна позначка штучного нейрона

З геометричної точки зору, нейрон при лінійній функції активації описує рівняння лінії, якщо на вході одне значениех1

чи площини, коли на вході вектор значенийх

Структура (архітектура, топологія) нейронних мереж

Існує безліч способів організації ИНС, у залежності від: числа шарів, форми і напрямки зв'язків.

Зобразимо приклад організації нейронних мереж (малюнок 23).

Одношарова структура Двошарова структура зі зворотними зв'язками зі зворотними зв'язками

Двошарова структура Тришарова структура з прямими зв'язками з прямими зв'язками

Малюнок 23 - Приклади структур нейронних мереж

На малюнку 24 зображена тришарова НС із прямими зв'язками. Шар нейронів, безпосередньо приймаючу інформацію з зовнішнього середовища, називається вхідним шаром, а шар, що передає інформацію в зовнішнє середовище - вихідним. Любою шар, що лежить між ними і не має контактом із зовнішнім середовищем, називається проміжним (потайливим) шаром. Шарів може бути і більше. У багатошарових мережах, як правило, нейрони одного шару мають функцію активації одного типу.

Малюнок 24 - Тришарова нейронная мережа

При конструюванні мережі в якості вихідних даних виступають:

- розмірність вектора вхідного сигналу, тобто кількість входів;

- розмірність вектора вихідного сигналу. Число нейронів у вихідному шарі, як правило, дорівнює числу класів;

- формулювання розв'язуваної задачі;

- точність рішення задачі.

Наприклад, при рішенні задачі виявлення корисного сигналу НС може мати один чи два виходи.

Чи створення синтез НС - це задача, що у даний час теоретично не вирішена. Вона носить приватний характер.

Навчання нейронних мереж

Одним із самих чудових властивостей нейронних мереж є їхня здатність навчатися. Незважаючи на те, що процес навчання НС відрізняється від навчання людини в звичному нам змісті, наприкінці такого навчання досягаються схожі результати. Ціль навчання НС полягає в її настроюванні на задане поводження.

Найбільш розповсюдженим підходом у навчанні нейронних мереж є коннекционизм. Він передбачає навчання мережі шляхом настроювання значень вагарень коеффициентовwіj, що відповідають різним зв'язкам між нейронами. МатрицаWвесових коеффициентовwіjсети називається синаптической картою. Тут индексі- це порядковий номер нейрона, з якого виходить зв'язок, тобто попереднього шару, аj- номер нейрона наступного шару.

Існує два види навчання НС: навчання з вчителем і навчання без учителя.

Навчання з учителем полягає в пред'явленні мережі послідовності тих, яких навчають, пар (прикладів) (Хі,Hi),і= 1, 2, ...,мобразов, що називається навчальною послідовністю. При цьому для кожного вхідного образахівичисляется реакція сетиуіи порівнюється з відповідним цільовим образомHі. Отримана неузгодженість використовується алгоритмом навчання для коректування синаптической карти таким чином, щоб зменшити помилку неузгодженості. Така адаптація виробляється шляхом циклічного пред'явлення навчальної вибірки доти, поки помилка неузгодженості не досягне досить низького рівня.

Хоча процес навчання з учителем зрозумілий і широко використовується в багатьох додатках нейронних мереж, він усе-таки не цілком відповідає реальним процесам, що відбуваються в мозку людини в процесі навчання. При навчанні наш мозок не використовує які-небудь образи, а сам здійснює узагальнення інформації, що ззовні надходить.

У випадку навчання без учителя навчальна послідовність складається лише з вхідних образовхі. Алгоритм навчання набудовує ваги так, щоб близьким вхідним векторам відповідали однакові вихідні вектори, тобто фактично здійснює розбивку простору вхідних образів на класи. При цьому до навчання неможливо пророчити, які саме вихідні образи будуть відповідати класам вхідних образів. Установити така відповідність і дати йому інтерпретацію можна лише після навчання.

Навчання НС можна розглядати як безупинний чи як дискретний процес. Відповідно до цього алгоритми навчання можуть бути описані або диференціальні рівняння, або кінцево-різницевими. У першому випадку НС реалізується на аналогової, у другому - на цифрових елементах. Ми будемо говорити тільки про кінцево-різницеві алгоритми.

Фактично НС являє собою спеціалізований рівнобіжний чи процесор програму, емулирующую нейронную мережа на послідовної ЕОМ.

Більшість алгоритмів навчання (АТ) НС виросло з концепції Хебба. Він запропонував простий алгоритм без учителя, у якому значення весаwіj, що відповідає зв'язку междуі-м иj-м нейронами, зростає, якщо обидва нейрони знаходяться в збудженому стані. Іншими словами, у процесі навчання відбувається корекція зв'язків між нейронами у відповідності зі ступенем кореляції їхніх станів. Це можна виразити у виді наступного кінцево-різницевого рівняння:

,

гдеwіj(t+1) иwіj(t)- значення ваги зв'язків нейронаіс нейрономjдо настроювання (на шагеt+1) і після настроювання (на шагеt) відповідно;vi(t)-вихід нейронаіи вихід нейронаjна шагеt;vj(t)-вихід нейронаjна шагеt; α- параметр швидкості навчання.

Стратегія навчання нейронних мереж

Поряд з алгоритмом навчання не менш важливим є стратегія навчання мережі.

Одним з підходів є послідовне навчання мережі на серії прикладів (Хі,Hi)і= 1, 2, ...,m, що складають навчальну вибірку. При цьому мережу навчають правильно реагувати спочатку на перший образх1, потім на второйх2і т.д. Однак, у даній стратегії виникає небезпека втрати мережею раніше придбаних навичок при навчанні кожному наступному прикладу, тобто мережа може "забути" раніше пред'явлені приклади. Щоб цього не відбувалася, треба мережа навчати відразу всім прикладам навчальної вибірки.

Х1={Х11,..., Х1N} можна навчати 100 ц 1

Х2= {Х21,..., Х2N} 100 ц 2 100 ц

...

Хм= {Хм1,..., Хм} 100 ц 3

Тому що рішення задачі навчання сполучено з великими складностями, альтернативою є мінімізація цільової функції виду:

,

де li- параметри, що визначають вимоги до якості навчання нейронной мережі по кожному з прикладів, такі, що λ1+ λ2+ ... + λm= 1.

Практична частина.

Сформуємо навчальне безліч:

P_o=cat(1, Mt, Mf);

P_o=P_о';

Задамо структуру нейронной мережі для задачі виявлення:

net = newff(minmax(P_o), [npr 2], {'logsig', 'logsig'}, 'trainlm', 'learngdm');

net.trainParam.epochs = 100;% задана кількість циклів навчання

net.trainParam.show = 5;% кількість циклів для показу проміжних результатів;

net.trainParam.min_grad = 0;% цільове значення градієнта

net.trainParam.max_fail = 5;% максимально припустима кратність перевищення помилки перевірочної вибірки в порівнянні з досягнутим мінімальним значенням;

net.trainParam.searchFcn = 'srchcha';% ім'я використовуваного одномірного алгоритму оптимізації

net.trainParam.goal = 0;% цільова помилка навчання

Функція newff призначена для створення "класичної" багатошарової нейронной мережі з навчанням по методу зворотного поширення помилки. Дана функція містить кілька аргументів. Перший аргумент функції - це матриця мінімальних і максимальних значень навчального безлічі Р_про, що визначається за допомогою вираження minmax (P_o).

Другі аргументи функції, задаються в квадратних дужках і визначають кількість і розмір шарів. Вираження [npr 2] означає, що нейронная мережа має 2 шаруючи. У першому шарі - npr=10 нейронів, а в другому - 2. Кількість нейронів у першому шарі визначається розмірністю вхідної матриці ознак. У залежності від кількості ознак у першому шарі може бути: 5, 7, 12 нейронів. Розмірність другого шару (вихідний шар) визначається розв'язуваною задачею. У задачах виявлення корисного сигналу на тлі микросейсма, класифікації по першому і другому класах, на виході нейронной мережі задається 2 нейрони.

Треті аргументи функції визначають вид функції активації в кожнім шарі. Вираження {'logsig', 'logsig'} означає, що в кожнім шарі використовується сигмоидально-логистическая функція активації , область значень якої - (0, 1).

Четвертий аргумент задає вид функції навчання нейронной мережі. У прикладі задана функція навчання, що використовує алгоритм оптимізації Левенберга-Марквардта - 'trainlm'.

Перші половина векторів матриці Т инициализируются значеннями {1, 0}, а наступні - {0, 1}.

net=newff (minmax(P_o), [10 2], {'logsig', 'logsig'}, 'trainlm', 'learngdm');

net.trainParam.epochs = 1000;

net.trainParam.show = 5;

net.trainParam.min_grad = 0;

net.trainParam.max_fail = 5;

net.trainParam.searchFcn = 'srchcha';

net.trainParam.goal = 0;

Програма ініціалізації бажаних виходів нейронной мережі Т:

n1=length (Mt(:, 1));

n2=length (Mf(:, 1));

T1=zeros (2, n1);

T2=zeros (2, n2);

T1 (1,:)=1;

T2 (2,:)=1;

T=cat (2, T1, T2);

Обучениенейросети:

net = train (net, P_o, T);

Малюнок 25 - Графік навчання нейронной мережі.

Зробимо контроль нейросети:

P_k=[Mt; Mf];

P_k=P_k';

Y_k=sim (net, P_k);

Команда sim передає дані з контрольної безлічі P_кна вхід нейронной мережі net, при цьому результати записуються в матрицю виходів Y_k. Кількість рядків у матрицях P_ки Y_ксовпадает.

Pb=sum (round(Y_k (1,1:100)))/100

Оцінка імовірності правильного виявлення гусеничної техніки Pb=1 alpha = sum (round(Y_k (1,110:157)))/110

Оцінка імовірності помилкової тривоги alpha =0

Визначаємо среднеквадратическую помилку контролю за допомогою бажаних і реальних виходів нейронной мережі Ек.

[Ek] = T-Y_k;

sqe_k = mse(Ek)

Величина среднеквадратической помилки контролю складає:

sqe_k = 2.5919e-026

Протестуємо роботу нейросети. Для цього сформуємо матрицю ознак тестового сигналу:

h3=tr_t50-mean (tr_t50);

Mh1=MATRPRIZP (h3,500, N1, N2);

Mh1=Mh1 (1:50,:);

P_t=[Mh1; Mt];

P_t=P_t';

Y_t=sim (net, P_t);

Pb=sum (round(Y_t (1,1:100)))/100

Оцінка імовірності правильного виявлення гусеничної техніки Pb=1

Знаходимо різницю бажаних і реальних виходів нейронной мережі Е и визначаємо среднеквадратическую помилку тестування.

[Ek] = T-Y_t;

sqe_t = mse(Ek)

Величина среднеквадратической помилки тестування складає:

sqe_t = 3.185e-025

Висновок: у даному розділі ми побудували модель обнаружителя сейсмічних сигналів на нейронной мережі з навчанням по методу зворотного поширення помилки. Задача виявлення зважується з не великими погрішностями, отже ознаки підходять для виявлення.

Дану двошарову нейронную мережа можна застосувати в побудові системи виявлення об'єктів.

Висновок

Метою даної курсової роботи було вивчення методів обробки інформації і застосування їх для рішення задач виявлення об'єктів.

У ході проробленої роботи, що виконувалася в чотири етапи, були отримані наступні результати:

1) Минулого побудовані гистограмми вибіркових плотностей імовірності амплітуд сигналів, як випадкових величин.

Оцінено параметри розподілу: математичне чекання, дисперсію, среднеквадратическое відхилення.

Зробили припущення про закон розподілу амплітуди і перевірили гіпотезу за критеріями Колмогорова-Смирнова і Пирсона на рівні значимості 0,05. За критерієм Колмогорова-Смирнова розподіл підібраний, вірно. За критерієм Пирсона розподіл підібраний вірно тільки для фонового сигналу. Для нього прийняли гіпотезу про нормальний розподіл.

Прийняли сигнали за реалізації випадкових функцій і побудували для них кореляційні функції. По кореляційних функціях визначили, що сигнали мають випадковий коливальний характер.

2) Сформували навчальне і контрольне безлічі даних (для навчання і контролю нейронной мережі).

3) Для навчальної матриці оцінили параметри розподілу ознак: математичне чекання, дисперсію, середнє квадратическое відхилення. По кожній ознаці навчальної матриці заданих класів обчислили відстань і вибрали ознака з максимальною різницею. Обчислили поріг ухвалення рішення і побудували на одному графіку криві щільності розподіли імовірності. Сформулювали вирішальне правило.

4) Навчили двошарову нейронную мережа на рішення задачі класифікації. Оцінили імовірності правильного виявлення і помилкової тривоги. Ті ж показники оцінили по тестових сигналах.

Список використовуваної літератури

1. Лекції по теорії обробки інформації в СБЛ. Лектор: Чистова Г. К.

2. Чистова Г. К. "Основи обробки і виявлення випадкових сигналів"

3. Вентцель Е. С. "Теорія імовірності і математична статистика"