Реферати

Реферат: Кореляційні моменти. Коефіцієнт кореляції

Особливості бухгалтерського обліку оптової торгівлі на прикладі ТОВ "Місто". Облік товарів у торгових організаціях, їхня реалізація. Контроль схоронності товарів, тари і коштів. Облік витрат звертання і фінансових результатів в оптовій торгівлі. Задачі, програма й особливості аудита товарних операцій на підприємстві.

Багатопартійність як конституційна форма реалізації принципу ідеологічного різноманіття. Багатопартійність у Росії: історія становлення, сутність і зміст категорії, взаємозв'язок з парламентаризмом. Функціональна багатопартійна система як необхідна умова і конституційна форма реалізації принципу ідеологічного різноманіття.

Аудит у Росії: проблеми і шляхи рішення. Історія, етапи і передумови становлення і розвитку аудита в Росії як інституту незалежного фінансового контролю. Правові основи аудиторської діяльності. Актуальні методологічні, технологічні проблеми. Шляху рішення проблем аудита в Росії.

Відмітні ознаки політичної влади. Влада як центральна вісь, навколо якої обертається політика. Компоненти структури влади - суб'єкт, об'єкт, ресурси і процес, що характеризується механізмом і способами володарювання. Здатність влади виконувати свої задачі і функції в короткий термін.

Система керування й ефективність лізингової діяльності. Лізинг як форма посередницької діяльності. Поняття, функції, сутність, специфіка і види лізингу. Огляд ринку і проблеми здійснення лізингових послуг у Росії. Основні напрямки і рекомендації з підвищення ефективності лізингової діяльності.

ДЕРЖАВНИЙ КОМІТЕТ ПО НАУЦІ І ТЕХНІЦІ АЗЕРБАЙДЖАНСЬКОЇ РЕСПУБЛІКИ

БАКИНСЬКИЙ НАУКОВО-УЧБОВИЙ ЦЕНТР

РЕФЕРАТ

АСПІРАНТА КАФЕДРИ ДИТЯЧОЇ ХІРУРГІЇ

АМУ імені Н. НАРИМАНОВА

МУХТАРОВА ЕМИЛЯ ГАСАН огли

НА ТЕМУ:

КОРЕЛЯЦІЙНІ МОМЕНТИ. КОЕФІЦІЄНТ КОРЕЛЯЦІЇ

БАКУ - 1999

ВВЕДЕННЯ

Теорія вероятностиесть математична наука, що вивчає закономірності у випадкових явищах.

Що ж розуміється під випадковими явищами?

При науковому дослідженні фізичних і технічних задач, часто доводиться зустрічатися з явищами особливого типу, які прийнято називати випадковими. Випадкове явище- це таке явище, яке при неодноразовому відтворенні одного і того ж досвіду протікає декілька інакше.

Приведемо приклад випадкового явища.

Одне і те ж тіло декілька разів зважується на аналітичній вазі: результати повторних взвешиваний дещо відрізняються один від одного. Ці відмінності зумовлюються впливом різних другорядних чинників, супроводжуючих операцію зважування, таких як випадкові вібрації апаратури, помилки відліку свідчень приладу і т. д.

Очевидно, що в природі немає жодного фізичного явища, в якому не були присутні б в тій або інакшій мірі елементи випадковості. Як би точно і детально ні були фіксовані умови досвіду, неможливо досягнути того, щоб при повторенні досвіду результати повністю і в точності співпадали.

Випадковість неминуче супроводить будь-якому закономірному явищу. Проте, в ряді практичних задач цими випадковими елементами можна нехтувати, розглядаючи замість реального явища його спрощену схему, т. е. модель, і передбачаючи, що в даних умовах досвіду явище протікає цілком певним чином. При цьому з незліченної безлічі чинників, що впливають на дане явище, виділяють самі головні, основні, вирішальні. Впливом інших, другорядних чинників просто нехтують. Вивчаючи закономірності в рамках деякої теорії, основні чинники, що впливають на те або інакше явище, входять в поняття або визначення, якими оперує теорія, що розглядається.

Як і всяка наука, що розвиває загальну теорію якого-небудь кола явищ, теорія імовірностей також містить ряд основних понять, на яких вона базується. Природно, що не всі основні поняття можуть бути суворо визначені, оскільки визначити поняття - це означає звести його до інших, більш відомих. Цей процес повинен бути кінцевим і закінчуватися на первинних поняттях, які тільки пояснюються.

Одним з перших понять в теорії імовірності вводиться поняття події.

Подсобитиемпонимается всякий факт, який внаслідок досвіду може статися або не статися.

Приведемо приклади подій.

А - народження хлопчика або дівчинки;

У - обрання того або інакшого дебюту в шаховій грі;

З - приналежність до того або інакшого зодіакального знака.

Розглядаючи вищеперелічені події, ми бачимо, що кожне з них володіє якоюсь мірою можливості: одна більшої, інші - меншої. Для того щоб кількісно порівнювати між собою події по мірі їх можливості, очевидно, треба з кожною подією зв'язати певне число, яке тим більше, ніж більш можлива подія. Таке число називають імовірністю події. Таким чином, імовірність події є чисельна характеристика міри об'єктивної можливості події.

За одиницю імовірності приймають імовірність достовірної події, рівну 1, а діапазон зміни імовірностей будь-яких подій - числа від 0 до 1.

Імовірність звичайно означають буквою " як можна визначити імовірність події.

Цілком очевидно, що людина, предмет і всяке інакше явище може знаходитися в одному з двох і не більш станів: наявності ( "бути") і відсутності ( "не бути"). Т. е., можливих подій дві, а статися може тільки одне. Це означає, що імовірність, наприклад буття, рівна 1/2.

Крім поняття події і імовірності, одним з основних понять теорії імовірностей є поняття випадкової величини.

Випадкової величинойназивается величина, яка внаслідок досвіду може прийняти те або інакше значення, причому невідоме зазделегідь яке саме.

Випадкові величини, що приймають тільки окремі один від одного значення, які можна зазделегідь перерахувати, називаютсяпреривними або дискретними випадковими величинами.

Наприклад:

1. Число і вмерлих хворих, що вижили.

2. Загальна кількість дітей з хворих, що поступили за ніч в лікарню.

Випадкові величини, можливі значення яких безперервно заповнюють деякий проміжок, називаютнепреривними випадковими величинами.

Наприклад, помилка зважування на аналітичній вазі.

Відмітимо, що сучасна теорія імовірності переважно оперує випадковими величинами, а не подіями, на які в основному спиралася "класична" теорія імовірностей.

КОРЕЛЯЦІЙНІ МОМЕНТИ. КОЕФІЦІЄНТ КОРЕЛЯЦІЇ.

Кореляційні моменти, коефіцієнт кореляції- це числові характеристики, тісно пов'язані у введеним вище поняттям випадкової величини, а точніше з системою випадкових величин. Тому для введення і визначення їх значення і ролі необхідно пояснити поняття системи випадкових величин і деякі властивості властиві ім.

Два або більш випадкові величини, що описують деяке явище називаютсистемой або комплексом випадкових величин.

Систему декількох випадкових величин X, Y, Z,. .., W прийнято означати через (X, Y, Z,. .., W).

Наприклад, точка на площині описується не однією координатою, а двома, а в просторі - навіть трьома.

Властивості системи декількох випадкових величин не вичерпуються властивостями окремих випадкових величин, вхідних в систему, а включають також взаємні зв'язки (залежність) між випадковими величинами. Тому при вивченні системи випадкових величин потрібно звертати увагу на характер і міру залежності. Ця залежність може бути більш або менш яскраво вираженою, більш або менш тісної. А в інших випадках випадкові величини виявитися практично незалежними.

Випадкова величина Y називаетсянезависимойот випадкової величини Х, якщо закон розподілу випадкової величини Y не залежить від того яке значення прийняла величина якщо Y не залежить від Х, то і величина Х не залежить від Y. Учитивая це, можна привести наступне визначення незалежності випадкових величин.

Випадкові величини Х і Y називаються незалежними, якщо закон розподілу кожної з них не залежить від того, яке значення прийняла інша. У іншому разі величини Х і Y називаютсязависимими.

Законом распределенияслучайной величини називається всяке співвідношення, що встановлює зв'язок між можливими значеннями випадкової величини і відповідними ним імовірностями.

Поняття "залежності" випадкових величин, яким користуються в теорії імовірностей, дещо відрізняється від звичайного поняття "залежності" величин, яким користуються в математиці. Так, математик під "залежністю" має на увазі тільки один тип залежності - повну, жорстку, так звану функціональну залежність. Дві величини Х і Y називаються функціонально залежними, якщо, знаючи значення одного з них, можна точно визначити значення іншої.

У теорії імовірностей зустрічаються декілька з інакшим типом залежності - ймовірностний залежністю. Якщо величина Y пов'язана з величиною Х ймовірностний залежністю, то, знаючи значення Х, не можна точно указати значення Y, а можна указати її закон розподілу, що залежить від того, яке значення прийняла величина по мірі збільшення тісноти ймовірностний залежності вона все більш наближається до функціональної. Т. о., функціональну залежність можна розглядати як крайній, граничний випадок найбільш тісної ймовірностний залежності. Інший крайній випадок - повна незалежність випадкових величин. Між цими двома крайніми випадками лежать всі градації ймовірностний залежності - від самої сильної до самої слабої.

Ймовірностний залежність між випадковими величинами часто зустрічається на практиці. Якщо випадкові величини Х і Y знаходяться в ймовірностний залежності, то це не означає, що із зміною величини Х величина Y змінюється цілком певним чином; це лише означає, що із зміною величини Х величина Y

має тенденцію також змінюватися (зростати або убувати при зростанні Х). Ця тенденція дотримується лише у загальних рисах, а в кожному окремому випадку можливі відступи від неї.

Приклади ймовірностний залежності.

Виберемо наздогад одного хворого з перитонитом. випадкова величина Т - час від початку захворювання, випадкова величина Про - рівень гомеостатических порушень. Між цими величинами є явна залежність, оскільки величина Т є однією з найбільш головних причин, що визначають величину

Тим більше, якщо розглядати величину Т і величину В (вік хірурга), то дані величини практично незалежні.

Досі ми обговорювали властивості систем випадкових величин, даючи тільки словесне роз'яснення. Однак існують числові характеристики, за допомогою яких досліджуються властивості як окремих випадкових величин, так і системи випадкових величин.

Однієї з найважливіших характеристик випадкової величини нормального розподілу являетсяматематическое очікування.

Розглянемо дискретну випадкову величину Х, що має можливі значення Х1, Х2,. .., Хnс імовірностями р1, р2,. .., рn. нам потрібно охарактеризувати якимсь числом положення значень випадкової величини на осі абсцис з урахуванням того, що ці значення мають різні значення. Для цієї мети звичайно користуються так званим "середнім зваженим" із значень Хi, причому кожне значення Хiпрі осредненії повинно враховуватися з "вагою", пропорційною імовірності цього значення. Таким чином, якщо визначити "середнє зважене" через М[X] або mx, отримаємо

або, враховуючи, що, то

(1).

Математичним ожиданиемслучайной величини називається сума творів всіх можливих значень випадкової величини на імовірності цих значень.

Для більшої наглядності розглянемо одну механічну інтерпретацію введеного поняття. Нехай на осі абсцис розташовані точки з абсцисами х1, х2,. .., хn, в яких зосереджені відповідно маса р1, р2,. .., рn, причому. Тоді математичне очікування є не що інакше, як абсциса центра тягаря даної системи матеріальних точок.

Формула (1) для математичного очікування відповідає випадку дискретної випадкової величини. Для безперервної величини Х математичне очікування, природно, виражається не сумою, а інтегралом:

(2),

де - густина розподілу величини

У механічній інтерпретації математичне очікування безперервної випадкової величини зберігає те ж значення - абсциси центра тягаря у випадку, коли маса розподілу по осі абсцис безперервна з плотностьюf(х).

Потрібно відмітити, що математичне очікування існує не для всіх випадкових величин, що, однак, на думку деяких вчених, не представляє для практики істотного інтересу.

Крім математичного очікування важливе значення мають також інші числові випадкової величини - моменти.

Поняття моменту широко застосовується в механіці для опису розподілу маси (статистичні моменти, моменти інерції і т. д.). Абсолютно тими ж прийомами користуються в теорії імовірностей для опису основних властивостей розподілу випадкової величини. Частіше за все застосовуються на практиці моменти двох видів: початкові і центральні.

Початковим моментомs-го порядку преривной випадкової величини Х називається сума вигляду

Очевидно це визначення співпадає з визначенням початкового моменту порядку s в механіці, якщо на осі абсцис в точках х1,. .., хnсосредоточена маса р1,. .., рn.

Для безперервної випадкової величини Х початковим моментом s-го порядку називається інтеграл

Очевидно, що,

т. е. початковий момент s-го порядку випадкової величини Х є не що інакше, як математичне очікування s-ой міри цієї випадкової величини.

Перед тим як дати визначення центрального моменту введемо понятие'центрированной випадкової величини".

Нехай є випадкова величина Х з математичним очікуванням mx. Центрованою випадковою величиною, відповідною величині Х, називається відхилення випадкової величини Х від її математичного очікування

неважко бачити, що математичне очікування центрованої випадкової величини дорівнює нулю.

Центрування випадкової величини рівносильно перенесенню початку координат в точку, абсциса якої рівна математичному очікуванню.

Центральним моментомпорядка s випадкової величини Х називається математичне очікування s-ой міри відповідної центрованої випадкової величини:.

Для преривной випадкової величини s-й центральний момент виражається сумою,

а для безперервної - інтегралом.

Найважливіше значення має другий центральний момент, який називаютдисперсиейи означають D[X]. Для дисперсії маємо.

Дисперсія випадкової величиниесть характеристика розсіювання, разбросанности значень випадкової величини біля її математичного очікування. Саме слово "дисперсія" означає "розсіювання".

Механічною інтерпретацією дисперсії є не що інакше, як момент інерції заданого розподілу маси відносно центра тягаря.

На практиці часто застосовується також величина,

називаемаясредним квадратичним відхиленням (інакше - "стандартом") випадкової величини

Початковим моментом порядку k, s системи (Х, Y) називається математичне очікування твору Xkи Ys,

xk, s=M[XkYs].

Центральним моментом порядку k, s системи (Х, Y) називається математичне очікування твору k-ой і s-ой міри відповідних центрованих величин:,

де,.

Для преривних випадкових величин,

де рij- імовірність того, що система (Х, Y) приймемо значення (xi, yj), а сума розглядається по всіх можливих значеннях випадкових величин X, Y.

Для безперервних випадкових величин,

де f(х, у) - густина розподілу системи.

Крім чисел k і s, що характеризують порядок моменту по відношенню до окремих величин, розглядається ещесуммарний порядок моменту k+s, рівний сумі показників мір при Х і Y. Соответственно сумарному порядку моменти класифікують на перший, другий і т. д. На практиці звичайно застосовуються тільки перші і другі моменти.

Перші початкові моментипредставляют собою математичні очікування величин Х і Y, вхідних в систему

σ1,0=mxσ0,1=my.

Сукупність математичних очікувань mx, myпредставляет собою характеристику положення системи. Геометрично це координати середньої точки на площині, навколо якою відбувається розсіювання точки (Х, Y).

Важливу роль на практиці грають такжевторие центральні моментисистем. Два з них являють собою дисперсії величин Х і Y,

що характеризують розсіювання випадкової точки в напрямі осей Ox і Oy.

Особливу роль грає другий зміщений центральний момент:,

називаемийкорреляционним моментом (інакше - "моментом зв'язку") випадкових величин Х і Для того, щоб пересвідчитися в цьому відмітимо, що кореляційний момент незалежних випадкових величин рівний нулю.

Помітимо, що кореляційний момент характеризує не тільки залежність величин, але і їх розсіювання. Тому для характеристики зв'язку між величинами (Х;)(Y) в чистому вигляді переходять від моменту Kxyк характеристиці,

(3)

де σх, σу- середні квадратичні відхилення величин Х і Y. Ета характеристика називаетсякоеффициентом корреляциивеличин Х і

Випадкові величини, для яких rxy=0, називаютнекоррелированними (непов'язаними).

Відмітимо однак, що з некоррелированности випадкових величин не треба їх незалежність.

Коефіцієнт кореляції характеризує не всяку залежність, а тільки так звану лінійну залежність. Лінійна ймовірностний залежність випадкових величин полягає в тому, що при зростанні однієї випадкової величини інша має тенденцію зростати (або ж убувати) згідно з лінійним законом. Т. о., коефіцієнт кореляції характеризує міру тісноти лінійної залежності між випадковими величинами.

Для визначення коефіцієнта кореляції є декілька методів. Однак ми приведемо приклад з використанням коефіцієнта кореляції змішаних моментів Пірсона, де

(4)

із застосуванням таблиці даних (в нашому прикладі відносного змісту Т-лімфоцитов в % і рівня IgG в г/л):

1

2

3

4

5

6

7

х

Y

х'

у'

x'y'

x' 2

y' 2

69,8

17,1

1,9

1,65

3,135

3,61

2,7225

69,5

16,9

1,6

1,45

2,32

2,56

2,1025

68,8

16,2

0,9

0,75

0,675

0,81

0,5625

67,5

14,8

- 0,4

- 0,65

0,26

0,16

0,4225

66,4

14,1

- 1,5

- 1,35

2,025

2,25

1,8225

65,5

13,6

- 2,4

- 1,85

5,76

5,76

3,4225

∑=679

∑=154,5

∑=12,855

∑=15,15

∑=11,055

Підставивши отримані значення в формулу (4), отримаємо

Т. е., коефіцієнт кореляції динаміки Т-лімфоцитов і імуноглобуліну G у дітей при перитонитах рівний 0,9933, що говорить про високий зв'язок між даними показниками.

СПИСОК ЛІТЕРАТУРИ.

1. Гублер Е. В., Генкин А. А. Прімененіє непараметричних критеріїв статистики в медико-біологічних дослідженнях. - Л.: Медицина, 1973.

2. Вентцель Е. С., Вівчарів Л. А. Теорія імовірностей і її інженерні додатки. - М.: Наука, 1988.

3. Застосування обчислювальної техніки і математичної теорії експерименту в наукових дослідженнях (учбова допомога).// Під ред. М-Б. А. Бабаєва. - Баку, "Елм". - 1999. - 85 стор.