Студопедия

КАТЕГОРИИ:

АвтоАвтоматизацияАрхитектураАстрономияАудитБиологияБухгалтерияВоенное делоГенетикаГеографияГеологияГосударствоДомЖурналистика и СМИИзобретательствоИностранные языкиИнформатикаИскусствоИсторияКомпьютерыКулинарияКультураЛексикологияЛитератураЛогикаМаркетингМатематикаМашиностроениеМедицинаМенеджментМеталлы и СваркаМеханикаМузыкаНаселениеОбразованиеОхрана безопасности жизниОхрана ТрудаПедагогикаПолитикаПравоПриборостроениеПрограммированиеПроизводствоПромышленностьПсихологияРадиоРегилияСвязьСоциологияСпортСтандартизацияСтроительствоТехнологииТорговляТуризмФизикаФизиологияФилософияФинансыХимияХозяйствоЦеннообразованиеЧерчениеЭкологияЭконометрикаЭкономикаЭлектроникаЮриспунденкция

Варіанти завдань для лабораторних робіт №2 та №3




 

Варіант №1   Mx=5.0 My=15.0 σ[x]=0.5 σ[y]=1.0 R1=-0.5 R2=-0.8 X(1)=2.0 X(2)=4.0 X(3)=6.0 X(4)=8.0     Варіант №2   Mx=4.0 My=12.0 σ[x]=0.4 σ[y]=1.6 R1=-0.4 R2=-0.9 X(1)=6.0 X(2)=5.0 X(3)=4.0 X(4)=3.0   Варіант №3   Mx=4.0 My=20.0 σ[x]=0.6 σ[y]=1.2 R1=-0.5 R2=-0.8 X(1)=5.0 X(2)=4.0 X(3)=3.0 X(4)=2.0   Варіант №4   Mx=10.0 My=12.0 σ[x]=0.8 σ[y]=1.6 R1=-0.5 R2=-0.7 X(1)=2.0 X(2)=3.0 X(3)=4.0 X(4)=5.0   Варіант №5   Mx=10.0 My=15.0 σ[x]=1.0 σ[y]=2.0 R1=0.7 R2=0.9 X(1)=10.5 X(2)=11.0 X(3)=10.0 X(4)=9.0  
Варіант №6   Mx=6.0 My=13.0 σ[x]=0.5 σ[y]=1.2 R1=-0.7 R2=-0.9 X(1)=6.5 X(2)=7.0 X(3)=6.0 X(4)=5.0     Варіант №7   Mx=10.0 My=10.0 σ[x]=0.3 σ[y]=0.8 R1=-0.7 R2=-0.9 X(1)=10.9 X(2)=10.6 X(3)=10.0 X(4)=9.4   Варіант №8   Mx=4.0 My=15.0 σ[x]=0.5 σ[y]=1.5 R1=-0.7 R2=-0.9 X(1)=4.5 X(2)=5.0 X(3)=4.0 X(4)=3.0   Варіант №9   Mx=6.0 My=13.0 σ[x]=0.5 σ[y]=1.2 R1=-0.7 R2=-0.9 X(1)=6.5 X(2)=7.0 X(3)=6.0 X(4)=5.0   Варіант №10   Mx=10.0 My=15.0 σ[x]=0.5 σ[y]=1.5 R1=-0.7 R2=-0.9 X(1)=11.5 X(2)=11.0 X(3)=10.0 X(4)=9.0  
Варіант №11   Mx=55.0 My=2.0 σ[x]=0.3 σ[y]=1.8 R1=0.02 R2=-0.9 X(1)=55.9 X(2)=55.6 X(3)=55.0 X(4)=54.4   Варіант №12   Mx=5.0 My=16.0 σ[x]=1.2 σ[y]=0.8 R1=-0.5 R2=-0.4 X(1)=8.6 X(2)=7.4 X(3)=5.0 X(4)=2.6   Варіант №13   Mx=21.0 My=17.0 σ[x]=0.5 σ[y]=1.1 R1=-0.4 R2=-0.8 X(1)=22.5 X(2)=20.0 X(3)=21.0 X(4)=20.0   Варіант №14   Mx=15.0 My=25.0 σ[x]=1.0 σ[y]=0.5 R1=0.5 R2=-0.9 X(1)=16.0 X(2)=15.0 X(3)=14.0 X(4)=13.0   Варіант №15   Mx=10.0 My=15.0 σ[x]=0.5 σ[y]=1.0 R1=0.5 R2=-0.2 X(1)=10.5 X(2)=11.0 X(3)=12.0 X(4)=13.0  
Варіант №16   Mx=15.0 My=10.0 σ[x]=0.4 σ[y]=0.9 R1=-0.8 R2=-0.5 X(1)=16.2 X(2)=15.8 X(3)=15.0 X(4)=14.2     Варіант №17   Mx=10.0 My=20.0 σ[x]=0.6 σ[y]=0.8 R1=-0.6 R2=-0.7 X(1)=11.8 X(2)=11.2 X(3)=10.0 X(4)=8.8 Варіант №18   Mx=9.0 My=13.0 σ[x]=0.5 σ[y]=0.8 R1=-0.4 R2=-0.5 X(1)=10.5 X(2)=10.0 X(3)=9.0 X(4)=8.0 Варіант №19   Mx=10.0 My=20.0 σ[x]=0.7 σ[y]=0.9 R1=-0.7 R2=-0.9 X(1)=12.1 X(2)=11.4 X(3)=10.0 X(4)=8.6 Варіант №20   Mx=12.0 My=25.0 σ[x]=0.6 σ[y]=0.8 R1=-0.7 R2=-0.8 X(1)=13.8 X(2)=13.2 X(3)=12.0 X(4)=10.8
Варіант №21   Mx=15.0 My=10.0 σ[x]=0.4 σ[y]=0.9 R1=-0.8 R2=-0.5 X(1)=16.2 X(2)=15.8 X(3)=15.0 X(4)=14.2   Варіант №22   Mx=15.0 My=10.0 σ[x]=0.4 σ[y]=0.9 R1=-0.8 R2=-0.5 X(1)=16.2 X(2)=15.8 X(3)=15.0 X(4)=14.2 Варіант №23   Mx=10.0 My=20.0 σ[x]=0.7 σ[y]=0.9 R1=-0.7 R2=-0.9 X(1)=12.1 X(2)=11.4 X(3)=10.0 X(4)=8.6 Варіант №24   Mx=5.0 My=20.0 σ[x]=0.3 σ[y]=0.8 R1=-0.7 R2=-0.9 X(1)=5.9 X(2)=5.6 X(3)=5.0 X(4)=4.7 Варіант №25   Mx=5.0 My=20.0 σ[x]=0.5 σ[y]=0.9 R1=-0.7 R2=-0.9 X(1)=6.5 X(2)=6.0 X(3)=5.0 X(4)=4.0

 

Завдання до лабораторної роботи №3

 

1) Ц1→2 = Ц2→1

2) r = -0.9

3) Yгр = My - σ[x]

Лабораторна робота № 4.
МЕТОД ДИСКРИМІНАНТНИХ ФУНКЦІЙ

 

Мета роботи – вивчити метод індивідуального прогнозування за допомогою дискримінантних функцій для вирішення задач класифікації.

 

 


КОРОТКІ ТЕОРЕТИЧНІ ВІДОМОСТІ

Якщо представити кожний екземпляр, що характеризується значеннями К ознак, деякою точкою в К–вимірному просторі ознак, то задача індивідуального прогнозування із класифікацією на основі теорії розпізнавання образів буде полягати в розподілі цього К–вимірного простору ознак за допомогою якоїсь (К-1)–вимірної поверхні на дві області, що відповідають класам К1 і К2. Ця поділяюча поверхня в загальному випадку задається рівнянням g(x1,x2,...,xк)=const. Функція g(x1,x2,...,xк) називається дискримінантною. Для розпізнавання класу якого-небудь екземпляра досить за виміряними значеннями його ознак визначити, у якій області К-вимірного простору перебуває точка, координати якої задаються цими значеннями.

У даній лабораторній роботі задача класифікації вирішується для випадку, коли поверхнею, що розділяє простір на дві області, є гіперплощина.

 

 

ДОМАШНЄ ЗАВДАННЯ

 

Використовуючи конспект лекцій та рекомендовану літературу, вивчити метод дискримінантних функцій.

Ознайомитися зі змістом і порядком виконання роботи.

 

 

ПОРЯДОК ВИКОНАННЯ РОБОТИ

 

3.1. {Одержати варіант завдання у викладача.}

Вихідними даними є:

- масив даних навчального експерименту (для кожного екземпляра навчальної вибірки відомі значення ознак і фактичний клас);

- значення ознак екземплярів, що не входять у навчальну вибірку.

3.2. Написати й налагодити програму в пакеті Matlab, що реалізує розв'язання задачі індивідуального прогнозування із класифікацією методом дискримінантних функцій. Опис алгоритму рішення даної задачі наведено нижче.

3.3. За даними навчального експерименту знайти оцінки умовних математичних сподівань і дисперсії кожної ознаки за умови, що екземпляр належить до класу К1: M*[ /K1] і D*[ /K1].

3.4. Розрахувати оцінки умовних математичних сподівань і дисперсії кожної ознаки за умови, що екземпляр належить до класу К2: M*[ /K2] і D*[ /K2].

3.5. Визначити значення коефіцієнтів парної кореляції між ознаками за умови, що екземпляр належить, відповідно, до класу К1 або К2: r*[xi,xl/K1] і r*[xi,xl/K2] (i,l=1,K) (il).

3.6. Зробити статистичну оцінку значимості коефіцієнтів парної кореляції, одержаних у п.3.5. Ознаки, для яких коефіцієнти кореляції є статистично незначущими, вважати некоррельованими між собою.

3.7. Знайти оцінки умовних математичних сподівань дискримінантної функції за умови, що екземпляр належить до класу К1 або К2: M*[G/K1] і M*[G/K2]. При розрахунку умовних математичних сподівань використати теореми про математичне сподівання.

3.8. Розрахувати оцінки умовних дисперсій дискримінантної функції за умови, що екземпляр належить відповідно до класу К1 або К2: D*[G/K1] і D*[G/K2].При розрахунку умовних дисперсій використати теореми про дисперсію.

3.9. Підставити у вираз для критерію оптимізації, що визначає найкращий “нахил” поділяючої гіперплощини в просторі ознак, оцінки умовних математичних сподівань і дисперсій дискримінантної функції (див. п.п. 3.7, 3.8). Знайти частинні похідні критерію оптимізації за коефіцієнтами дискримінантної функції та дорівняти їх до нуля. Вирішити одержану систему К алгебраїчних рівнянь із К невідомими коефіцієнтами й визначити оптимальні оцінки коефіцієнтів дискримінантної функції.

3.10. Знайдені на попередньому етапі оцінки коефіцієнтів дискримінантної функції визначають оптимальний нахил гіперплощини в просторі ознак. Далі необхідно знайти порогове значення Пg для дискримінантної функції, що задає найкраще розташування поділяючої гіперплощини. Очевидно, повинне виконуватися одне із двох умов: M*[G/K1]>Пg>M*[G/K2] або M*[G/K1]<Пg<M*[G/K2]. При змінюванні порога будуть змінюватися імовірності помилкових рішень. Оптимальна величина порога може бути знайдена шляхом послідовних прорахунків імовірності помилкових рішень за даними навчального експерименту для різних Пg і вибором такого з них, при якому імовірність помилкових рішень буде мінімальною. Опис процедури знаходження оптимальної величини порога наведено нижче в п.п. 3.11, 3.12, 3.13, 3.14.

3.11. Для кожного j-го екземпляра навчальної вибірки обчислити дискримінантну функцію G(j)=g(x1(j), x2(j) ,..., xk(j)).

3.12. Оскільки задача визначення оптимальної величини порога є типовою задачею оптимізації (функцією, що підлягає мінімізації, є ймовірність помилкових рішень), використати для її розв'язання один із заданих викладачем методів одномірного пошуку оптимуму.

3.13. Для обраних відповідно до заданої стратегії пошуку (див. п. 3.12) значень порога Пg і розрахованих значень дискримінантної функції (див. п. 3.11) визначити прогнозований клас екземплярів навчальної вибірки. Якщо має місце нерівність M*[G/K1]>M*[G/K2] і при цьому G(j)>=Пg ,то приймається рішення про віднесення j-го екземпляра до класу К1, якщо G(j)<Пg, приймається рішення про віднесення його до класу К2. Якщо M*[G/K1]<M*[G/K2], умови, при яких приймаються рішення про віднесення екземплярів до того або іншого класу, змінюються на протилежні.

3.14. Порівнюючи для екземплярів навчальної вибірки прогнозовані та фактичні класи, оцінити імовірності помилкових рішень для заданих значень порога. Визначити оптимальну величину порога.

3.15. Зменшення ймовірності помилкових рішень при класифікації може бути досягнуте шляхом відбору більш інформативних ознак. Використати для цієї мети заданий викладачем алгоритм вибору інформативних ознак.

3.16. Для отриманого оптимального набору інформативних ознак перерахувати оцінки умовних математичних сподівань і дисперсій дискримінантної функції (п.п.3.7, 3.8), оптимальні оцінки коефіцієнтів дискриминантної функції (п.3.9) і оптимальну величину порога (п.п.3.11, 3.12, 3.13, 3.14).

3.17. Оцінити імовірність помилкових рішень для знайденого оператора прогнозування.

3.18. Оцінити клас екземплярів, що не входять у навчальну вибірку.

 

 

ЗМІСТ ЗВІТУ

 

4.1. Сформульована мета роботи.

4.2. Алгоритм і програма вирішення задачі індивідуального прогнозування із класифікацією методом дискримінантних функцій.

4.3. Роздруківки результатів роботи програми.

4.4. Аналіз отриманих результатів і висновки.

 

 

КОНТРОЛЬНІ ЗАПИТАННЯ

 

1. У чому полягає задача індивідуального прогнозування із класифікацією методом дискримінантних функцій?

2. Якою є розмірність коефіцієнтів дискримінантної функції?

3. Напишіть вираз для умовних математичних сподівань і умовних дисперсій ознак.

4. Що є критерієм оптимізації при знаходженні оцінок коефіцієнтів дискримінантної функції?

5. З яких міркувань вибирається порогове значення для дискримінантної функції?

6. Як прогнозується клас об'єктів, що не брали участь у навчальному експерименті, методом дискримінантних функцій?

7. Які дії варто вживати в тому випадку, якщо зміною порогове значення для дискримінантної функції не вдається досягти прийнятного значення ймовірності помилкових рішень?

8. Назвіть переваги й недоліки методу дискримінантних функцій.

9. При яких умовах метод дискримінантних функцій є окремим випадком оптимальної класифікації?

10. При яких характеристиках розподілюваних класів найбільш ефективне застосування методу дискримінантних функцій?

11. Значення яких параметрів мають бути оцінені за даними навчального експерименту при класифікації за двома ознаками методом дискримінантних функцій?

12. Проілюструйте малюнком, як зміна порогового значення для дискримінантної функції при класифікації за двома ознаками впливає на імовірності помилкових рішень.

Лабораторна робота № 5.
МЕТОД ПОТЕНЦІАЛЬНИХ ФУНКЦІЙ

 

Мета роботи – вивчити методику вирішення задач класифікації з використанням потенціальних функцій.

 

 










Последнее изменение этой страницы: 2018-04-12; просмотров: 219.

stydopedya.ru не претендует на авторское право материалов, которые вылажены, но предоставляет бесплатный доступ к ним. В случае нарушения авторского права или персональных данных напишите сюда...