Студопедия

КАТЕГОРИИ:

АвтоАвтоматизацияАрхитектураАстрономияАудитБиологияБухгалтерияВоенное делоГенетикаГеографияГеологияГосударствоДомЖурналистика и СМИИзобретательствоИностранные языкиИнформатикаИскусствоИсторияКомпьютерыКулинарияКультураЛексикологияЛитератураЛогикаМаркетингМатематикаМашиностроениеМедицинаМенеджментМеталлы и СваркаМеханикаМузыкаНаселениеОбразованиеОхрана безопасности жизниОхрана ТрудаПедагогикаПолитикаПравоПриборостроениеПрограммированиеПроизводствоПромышленностьПсихологияРадиоРегилияСвязьСоциологияСпортСтандартизацияСтроительствоТехнологииТорговляТуризмФизикаФизиологияФилософияФинансыХимияХозяйствоЦеннообразованиеЧерчениеЭкологияЭконометрикаЭкономикаЭлектроникаЮриспунденкция

КОРОТКІ ТЕОРЕТИЧНІ ВІДОМОСТІ




 

Метод потенціальних функцій є одним з найпоширеніших серед методів індивідуального прогнозування за ознаками. Зазвичай його застосовують, коли класи мають взаємопроникнення, тобто є важко роздільними, і в цьому випадку він ефективніше методу дискримінантних функцій. Можливості нелінійного перетворення простору ознак, які закладені в методі потенційних функцій і які порівняно легко реалізуються, роблять його більш гнучким у порівнянні з іншими методами й дозволяє у більшості випадків досягти задовільних результатів. Однак обчислювальні процедури тут складніше, ніж у методі дискримінантних функцій.

 

 

ДОМАШНЄ ЗАВДАННЯ

 

Використовуючи конспект лекцій та рекомендовану літературу, вивчити метод потенціальних функцій. Ознайомитися зі змістом і порядком виконання роботи.

 

 

ПОРЯДОК ВИКОНАННЯ РОБОТИ

 

3.1. {Одержати варіант завдання у викладача.}

Вихідними даними є:

- масив даних навчального експерименту (для кожного екземпляра навчальної вибірки відомі значення ознак і фактичний клас);

- значення ознак екземплярів, що не входять у навчальну вибірку;

- порогове значення сумарного потенціалу;

- коефіцієнти, що визначають міру нелінійного перетворення простору ознак;

- вагові множники, що характеризують порівняльний вплив інформативних ознак.

3.2. Написати й налагодити програму в пакеті Matlab, що реалізує процедуру класифікації з використанням методу потенціальних функцій. Схема алгоритму методу потенціальних функцій представлена нижче.

3.3. За даними навчальної вибірки обчислити оцінки математичного сподівання й дисперсії кожної ознаки.

3.4. Визначити нормовані значення ознак.

3.5. Розрахувати узагальнену відстань для j-го й l-го екземплярів (j,l=1,n), (jl), де n-число екземплярів навчальної вибірки.

3.6. Знайти потенціал кожного j-го екземпляра, який ”наводиться” на нього кожним l-им екземпляром.

3.7. Обчислити сумарний потенціал для кожного екземпляра, що належить до класу К1 і до класу К2.

3.8. Для заданих значень порога, аналізуючи значення сумарних потенціалів, прийняти рішення про віднесення кожного з екземплярів навчальної вибірки до того або іншого класу.

3.9. Результати, отримані в п.п.3.4, 3.7, 3.8, надати у вигляді таблиці. У цій же таблиці навести виміряні (ненормовані) значення ознак екземплярів навчальної вибірки й фактичний клас екземплярів.

3.10. Для кількісної оцінки результатів навчання для заданих значень порога, обчислити кількість рішень n (ріш К1), n (ріш К2), n(К2/ріш К1), n (К1/ріш К2) і імовірності Р(ріш К1), Р(ріш К2), Р(К2/ріш К1), Р(К1/ріш К2), Рпом. Результати розрахунків надати у вигляді таблиці та графіка.

3.11. За заданим критерієм, що характеризує імовірність помилкових рішень (ризиком споживача, ризиком виробника або Рпом.), зробити вибір порога.

3.12. Оскільки обране в п.3.11. значення порога є тільки кращим із заданих, питання про знаходження його оптимального значення залишається відкритим.

Крім варіювання величини порога, оптимізація оператора прогнозування може бути досягнута підбором коефіцієнтів у виразі для потенціалів, визначених у п.3.6., тобто шляхом зміни ступеня нелінійності перетворення простору ознак. Крім того, якість прогнозування можна підвищити введенням вагових множників mi (i=1,K); (åmi=1), (де К - кількість ознак) у виразі для узагальненої відстані (див.п.3.5.). Значення вагових множників підбираються таким чином, щоб підкреслити вплив більш інформативних ознак.

Із сказаного вище випливає, що задача визначення оптимального значення порога, оптимальних значень коефіцієнтів у виразі для потенціалів і оптимальних вагових множників є задачею багатомірної оптимізації. Використати для її вирішення один із заданих викладачем методів оптимізації.

3.13. Оцінити імовірність помилкових рішень для знайденого в п. 3.12. оператора прогнозування.

3.14. Оцінити клас екземплярів, що не входять у навчальну вибірку.

ЗМІСТ ЗВІТУ

 

4.1. Сформульована мета роботи.

4.2. Алгоритм і програма вирішення задачі індивідуального прогнозування із класифікацією методом потенційних функцій.

4.3. Роздруківки результатів роботи програми, таблиці, графіки.

4.4. Аналіз отриманих результатів і висновки.

 

 

КОНТРОЛЬНІ ЗАПИТАННЯ

 

1. У чому полягає суть індивідуального прогнозування методом потенціальних функцій?

2. З якою метою застосовується нормування ознак?

3. Яким чином визначається одинична відстань між значеннями однієї ознаки для двох екземплярів?

4. Яким чином визначається узагальнена відстань по всіх ознаках для двох екземплярів?

5. Напишіть вираження для потенціалу екземпляра виробу, що наводиться на нього іншим екземпляром.

6. Напишіть вираз для сумарного потенціалу.

7. Яким чином перевіряється придатність знайденого в процесі навчання оператора прогнозування для класифікації екземплярів, що не використовувалися в навчальному експерименті?

8. Яким чином виробляється оцінка класу методом потенціальних функцій?

9. Назвіть способи оптимізації оператора прогнозування при класифікації методом потенціальних функцій.

10. Як впливає величина порога на якість прогнозування?

11. Назвіть переваги та недоліки методу потенціальних функцій.



Завдання для лабораторних робіт №4 та №5

 

Таблиця 2 –Навчальна вибірка

Номер прибору

Ознаки

Надійність прибору

Х1 Х2 Х3 Х4 Х5 Х6 Х7 Х8 Х9
1 1.64 1.20 76.8 71.2 48.0 4.05 5.35 20.5 1.85 0.5
2 1.72 1.20 79.4 73.7 51.0 3.55 5.20 32.0 2.30 1
3 1.36 1.20 85.5 79.1 37.0 3.90 4.95 20.5 1.85 1
4 1.48 1.36 82.6 76.5 37.0 3.55 4.75 20.5 1.85 0.5
5 2.28 1.92 91.0 84.3 45.0 3.25 4.45 20.5 1.85 1
6 2.08 1.84 88.1 81.6 43.0 3.05 4.35 20.5 1.85 1
7 1.64 1.20 78.8 73.0 42.0 3.70 4.85 35.0 1.85 0.5
8 1.52 1.16 82.6 76.5 50.0 3.20 4.80 18.5 1.85 1
9 2.72 1.90 52.1 76.0 57.0 2.75 3.85 18.0 1.85 1
10 1.65 1.05 76.2 65.0 43.0 3.55 5.40 18.5 1.85 0.5
11 1.88 1.52 97.6 59.3 46.0 2.90 4.00 18.0 1.85 1
12 2.88 2.40 70.6 83.0 43.0 3.25 4.35 22.5 1.85 1
13 1.72 1.24 82.7 76.5 43.0 4.10 5.15 22.5 1.85 0
14 2.52 2.16 93.8 86.3 45.0 3.45 4.60 20.5 1.85 1
15 2.20 1.68 91.2 84.3 36.0 3.55 4.55 20.5 1.85 0.5
16 2.24 1.76 88.3 81.7 45.0 3.25 4.55 20.5 1.85 1
17 2.56 2.08 78.8 73.0 40.0 3.10 4.85 11.5 1.85 0
18 1.38 1.16 89.5 79.1 49.0 3.55 4.65 21.0 1.85 1
19 2.52 1.88 90.9 84.2 45.0 3.25 4.65 19.5 2.60 1
20 2.12 1.52 89.6 83.0 45.0 3.25 4.65 23.0 2.30 0
21 2.28 1.60 105 79.6 51.0 3.35 4.70 22.5 1.55 1
22 2.56 2.24 87.5 81.0 49.0 3.25 4.25 22.0 1.85 1
23 1.68 1.26 91.0 84.2 40.0 3.35 4.60 32.0 2.00 0
24 2.70 1.95 82.0 76.0 51.0 3.15 3.90 11.5 1.85 1

 

Надійність прибору:

0, 0.5 – прибор негідний

1 – прибор гідний

 

 

Таблиця 3 –Тестова вибірка (дефектні прибори № 3, 12, 14, 17, 19)

Номер прибору

Ознаки

Х1 Х2 Х3 Х4 Х5 Х6 Х7 Х8 Х9
1 2.76 2.44 81.6 79.0 49.0 2.97 4.25 4.00 2.15
2 2.64 2.28 83.0 76.4 43.0 3.00 3.77 39.0 2.0
3 2.64 2.04 81.6 73.8 40.0 3.50 4.20 39.0 2.67
4 2.56 2.44 81.6 79.0 45.0 2.90 3.86 39.0 2.67
5 2.80 2.52 84.3 79.0 50.0 2.95 4.05 39.0 2.67
6 2.18 2.06 79.0 79.0 43.0 3.10 4.15 39.0 2.67
7 2.04 2.08 81.6 79.0 48.0 3.10 3.95 21.5 2.30
8 2.56 2.40 84.3 79.0 44.0 3.53 3.67 21.0 1.80
9 2.58 2.24 81.6 79.0 42.0 3.02 4.25 49.5 2.34
10 2.32 2.30 81.6 80.4 44.0 3.20 4.15 21.0 1.80
11 2.44 2.12 81.6 73.8 43.5 2.75 4.15 21.0 1.80
12 2.20 2.12 81.4 74.4 36.0 3.33 4.10 21.5 2.30
13 2.22 1.88 79.0 68.4 43.0 3.36 4.40 26.0 2.70
14 2.34 1.96 81.6 73.8 37.0 3.23 4.60 21.0 2.00
15 2.36 1.84 77.8 83.8 47.0 3.35 4.60 30.0 2.45
16 2.30 1.96 81.6 71.9 36.0 3.25 4.60 26.0 2.70
17 2.24 1.94 82.9 73.8 38.0 3.50 4.43 21.5 2.30
18 2.68 2.52 84.0 79.0 50.0 2.75 3.95 39.0 2.67
19 2.08 1.96 83.0 76.4 46.0 3.15 4.35 39.0 2.00

 

Завдання до лабораторної роботи №5

 

ЛІТЕРАТУРА

 

1. Основы технической диагностики / П.П. Пархоменко, В.В. Карибский, Е.С. Согомонян, В.Ф. Халчев. – М.: Энергия, 1976. – 462 с.

2. Пархоменко П.П., Согомонян Е.С. Основы технической диагностики. – М.: Энергия, 1981. – 320 с.

3. Мозгалевский А.В., Гаскаров Д.В. Техническая диагностика. – М.: Высшая школа, 1975. – 207 с.

4. Мозгалевский А.В., Койда А.Н. Вопросы проектирования систем диагностирования. – Л.: Энергоатомиздат, 1985. – 112 с.

5. Мозгалевский А.В., Волынский В.И., Гаскаров Д.В. Техническая диагностика судовой автоматики. – Л.: Судостроение, 1972.

6. Сотсков Б.С. Основы теории и расчета надежности элементов и устройств автоматики и вычислительной техники. – М.: Высшая школа, 1970. – 270 с.

7. Тоценко В.Г. Алгоритмы технического диагностирования дискретных устройств. – М.: Радио и связь, 1985. – 240 с.

8. Павлов Б.В. Акустическая диагностика машин. – М.: Машиностроение, 1971. – 222 с.

9. Павлов Б.В. Кибернетические методы технического диагноза. – М.: Машиностроение, 1966. – 147 с.

10. Сердаков А.С. Автоматический контроль и техническая диагностика. – К.: Техника, 1971. – 241 с.

11. Силин В.Б., Заковряшин А.М. Автоматическое прогнозирование состояния аппаратуры управления и наблюдения. – М.: Энергия, 1973. –334 с.

12. Введение в техническую диагностику / Г.Ф. Верзаков, Н.В. Кишт, В.И. Рабинович, Л.С. Тимонен. – М.: Энергия, 1968. – 224 с.

13. Дубровин В., Степаненко О., Луценко Д.. Діагностика процессів та керування якістю. // Досвід розробки і застосування САПР в мікроелектрониці: Матеріали п’ятої міжнародної науково-технічної конференції CADSM’99. – Львів, Державний університет “Львівська політехніка”, 1999, С.22-24.

14. Айвазян С.А., Бежаева З.И., Староверов О.В. Классификация многомерных наблюдений. – М.: Статистика, 1974. – 240 с.

15. Айзерман М.А., Браверман Э.М., Розоноэр Л.И. Метод потенциальных функций в теории обучения машин. – М.: Наука, 1970. – 383 с.

16. Алгоритмы и программы восстановления зависимостей / Под ред. В.Н. Вапника. – М.: Наука, 1984. – 816 с.

17. Анисимов Б.В., Курганов В.Д., Злобин В.К. Распознавание и цифровая обработка изображений: Учеб. пособие для студентов вузов. – М.: Высшая школа, 1983. – 295 с.

18. Аркадьев А.Г., Браверман Э.М. Обучение машины классификации объектов. – М.: Наука, 1971. – 172 с.

19. Афифи А., Эйзен С. Статистический анализ: Подход с использованием ЭВМ.: Пер. с англ. – М.: Мир, 1982. – 488 с.

20. Бонгард М.М. Проблема узнавания. – М.: Наука, 1967. – 320с.

21. Вапник В.Н. Задача обучения распознаванию образов. – М.: Знание, 1971. – 60 с.

22. Вапник В.Н., Червоненкис А.Ф. Теория распознавания образов. – М.: Наука, 1974.

23. Вапник В. Н. Восстановление зависимостей по эмпирическим данным. – М.: Наука, 1979. – 448 с.

24. Васильев В.И. Проблема обучения распознаванию образов. – К.: Выща школа, 1989. – 64 с.

25. Васильев В.И. Распознающие системы (Справочник). – К.:Наукова думка, 1983. – 422 с.

26. Галушкин А.И. Синтез многослойных систем распознавания образов. –М.: Энергия, 1974. – 368 с.

27. Гренандер У. Лекции по теории образов. Т. 1. Синтез образов: Пер. с англ. – М.: Мир, 1979. – 384 с.

28. Гренандер У. Лекции по теории образов. Т. 2. Анализ образов: Пер. с англ. – М.: Мир, 1981. – 448 с.

29. Гроп Д. Методы идентификации систем. – М.: Мир, 1979. – 302 с.

30. Головкин Б.А. Машинное распознавание и линейное программирование. – М.: Сов. радио, 1973. – 100 с.

31. Горелик А.Л., Скрипкин В.А. Методы распознавания: Учеб. пособие для вузов.-3-е изд. перераб. и доп. – М.: Высшая школа, 1989. – 232с.

32. Горелик А.Л., Гуревич И.Б., Скрипкин В.А. Современное состояние проблемы распознавания: Некоторые аспекты. – М.: Радио и связь, 1985. – 160 с.

33. Горелик А. Л. Общая постановка задачи распознавания объектов и явлений. – Кибернетика, 1980, №6, С. 72-75.

34. Горелик А. Л., Скрипкин В. А. Об одном методе решения задач классификации объектов или явлений. – Техническая кибернетика, 1965, № 1, С. 56-64.

35. Горелик А. Л., Эпштейн С. С. Об аддитивности информации в задачах распознавания объектов и явлений. – Кибернетика, 1983, С. 85-88.

36. Горелик А. Л. Об одном подходе к выбору пространства признаков, используемого при построении системы распознавания объектов и явлений. – Кибернетика, 1972, №4, С. 142-146.

37. Горелик А. Л. Игровой подход к построению пространства признаков систем распознавания объектов и явлений. – Кибернетика, 1973, № 5. С. 114-116.

38. Дуда Р., Харт П. Распознавание образов и анализ сцен. – М.: Мир, 1976. – 512 с.

39. Журавлев Ю. И., Никифоров В. В. Алгоритмы распознавания, основанные на вычислении оценок. – Кибернетика, 1971, №3, С. 1 –11.

40. Журавлев Ю. И. Непараметрические задачи распознавания образов. – Кибернетика, 1976, № 6, С. 93 – 103.

41. Загоруйко Н.Г. Методы распознавания и их применение. – М.: Советское радио, 1972. – 208 с.

42. Загоруйко Н.Г., Елкина В.Н., Лбов Г.С. Алгоритмы обнаружения эмпирических закономерностей. – Новосибирск: Наука, 1985. – 110 с.

43. Ивахненко А.Г. Самообучающиеся системы распознавания и автоматического регулирования. – Киев: Техника, 1969. – 392 с.

44. Круг Г.К., Кабанов В.А., Фомин Г.А., Фомина Е.С. Планирование эксперимента в задачах нелинейного оценивания и распознавания образов. – М.: Наука, 1981. – 172 с.

45. Кузин Л.Т. Основы кибернетики: В 2-х тт. Учеб. пособие для вузов. – М: Энергия, 1976.

46. Патрик Э. Основы теории распознавания образов / Пер. с англ. – М.: Сов. радио, 1980. – 408с.

47. Прикладная статистика: Классификация и снижение размерности: Справ. изд./ С.А. Айвазян, В.М. Бухштабер, И.С. Енюков, Л.Д. Мешалкин. Под ред. С.А. Айвазяна. – М.: Финансы и статистика, 1989. – 607с.

48. Перцептрон – система распознавания образов/А. Г. Ивахненко, В. И. Васильев, К. Г. Агабабян и др. / Под ред. А. Г. Ивахненко. – Киев: Наукова думка, 1975. – 432 с.

49. Распознавание образов: состояние и перспективы: Пер. с англ./ К.Верхаген, Р. Дейн, Ф. Грун и др. – М.: Радио и связь, 1985. – 104 с.

50. Растригин Л. А., Эренштейн Р. X. Метод коллективного распознавания. – М.: Энергоиздат, 1981. – 79 с.

51. Розенблат Ф. Принципы нейродинамики. Перцептрон и теория механизмов мозга. – М.: Мир, 1965. – 480 с.

52. Себестиан Г. Процессы принятия решений при распознавании образов. – К.: Техніка, 1965. – 150с.

53. Ту Дж., Гонсалес Р. Принципы распознавания образов: Пер. с англ./Под ред. Ю. И. Журавлева. – М.: Мир, 1978. – 416 с.

54. Фор А. Восприятие и распознавание образов. – М.: Машиностроение, 1989. – 272с.

55. Фукунага К. Введение в статистическую теорию распознавания образов. – М.: Наука, 1979. – 368 с.

56. Фу К. Структурные методы в распознавании образов: Пер. с англ./Под ред. А. М. Айзермана. – М.: Мир, 1977. – 320 с.

57. Цыпкин Я.З. Основы теории обучающихся систем. М.: Наука, 1970. 252 с.

58. Цыпкин Я. З. Адаптация и обучение в автоматических системах. – М.: Наука, 1968. – 400 с.

59. V. Vapnic. Statistical larning theory. A Wiley – Interscience publication. John Wiley & Sons, New York, 1998, 732p.

 










Последнее изменение этой страницы: 2018-04-12; просмотров: 213.

stydopedya.ru не претендует на авторское право материалов, которые вылажены, но предоставляет бесплатный доступ к ним. В случае нарушения авторского права или персональных данных напишите сюда...