Студопедия

КАТЕГОРИИ:

АвтоАвтоматизацияАрхитектураАстрономияАудитБиологияБухгалтерияВоенное делоГенетикаГеографияГеологияГосударствоДомЖурналистика и СМИИзобретательствоИностранные языкиИнформатикаИскусствоИсторияКомпьютерыКулинарияКультураЛексикологияЛитератураЛогикаМаркетингМатематикаМашиностроениеМедицинаМенеджментМеталлы и СваркаМеханикаМузыкаНаселениеОбразованиеОхрана безопасности жизниОхрана ТрудаПедагогикаПолитикаПравоПриборостроениеПрограммированиеПроизводствоПромышленностьПсихологияРадиоРегилияСвязьСоциологияСпортСтандартизацияСтроительствоТехнологииТорговляТуризмФизикаФизиологияФилософияФинансыХимияХозяйствоЦеннообразованиеЧерчениеЭкологияЭконометрикаЭкономикаЭлектроникаЮриспунденкция

Список додаткової літератури до розділу 1




1. Богданов А. А. Тектология: Всеобщая организационная наука. В 2 кн. / Под ред. Л. И. Абалкина. — М.: Экономика, 1989.

2. Винер Н. Я. — математик. — М.: Наука, 1967. — 234 с.

3. Гелднер К. Кибернетика и ее будущее: Пер. с нем. — М.: Радио и связь, 1983. — 96 с.

4. Дружинин В. В., Конторов Д. С. Системотехника. — М.: Радио и связь, 1985. — 200 с.

5. Исследования по общей теории систем. Сб. статей: Пер с англ. и польск. — М.: Прогресс, 1969. — 520 с.

6. Кибернетика и ноосфера. — М.: Наука, 1986. — 160 с.

7. Клаус Г. Кибернетика и общество. — М.: Прогресс, 1967. — 432 с.

8. Клаус Г. Кибернетика и философия. — М.: ИЛ, 1963. — 531 с.

9. Моисеев В. Д. Центральные идеи и философские основы кибернетики. — М.: Мысль, 1965. — 326 с.

10. Моисеев Н. Н. Люди и кибернетика. — М.: Мол. Гвардия, 1984. — 224 с.

11. Николаев В. И., Брук В. М. Системотехника: методы и приложения. — Л.: Машиностроение, 1985.

12. Оптнер С. Л. Системный анализ для решения деловых и промышленных проблем. — М.: Сов. радио, 1969.

13. Острейковский В. А. Теория систем. — М.: Высш. шк., 1997. — 240 с.

14. Перегудов Ф. И., Тарасенко Ф. П. Введение в системный анализ. — М.: Высш. шк., 1989. — 367 с.

15. Пономаренко О. І., Пономаренко В. О. Системні методи в економіці , менеджменті та бізнесі. — К.: Либідь, 1995. — 240 с.

16. Шарапов А. Д., Сиднев С. В. Системный анализ. Учеб. пособие. — К.: Техника, 1993. — 573 с.

17. Шарапов О. Д., Дербенцев В. Д., Семьонов Д. Є. Системний аналіз. Навч.-метод. посібник для самост. вивчення дисципліни. — К.: КНЕУ, 2003. — 154 с.

Розділ 2. Інформація
та інформаційні системи

Тема 3.ЕКОНОМІЧНА ІНФОРМАЦІЯ
ТА ЕКОНОМІЧНІ ДАНІ

3.1. Інформація

Інформація — одне з головних понять кібернетики. Незважаючи на інтуїтивну зрозумілість терміна «інформація» та його велике значення для багатьох наукових дисциплін, не існує його загальноприйнятого визначення. У побуті слово «інформація» ототожнюється зі змістом якихось відомостей, які можуть набирати форми усного повідомлення, листа, доповіді, результатів деякого дослідження, спостереження тощо.

Залежно від галузі дослідження та від класу розв’язуваних задач користуються різними визначеннями інформації. Розглянемо кілька підходів до визначення інформації.

Інформація — це сукупність сигналів, сприйманих нашою свідомістю, які відбивають ті чи інші властивості об’єктів і явищ зовнішнього світу. Природа цих сигналів передбачає наявність принципової можливості їх зберігання, передавання та обробки [12].

Наведене визначення має суто описовий, пояснювальний характер, не претендуючи на строгість та всебічність. Наведемо інші визначення інформації.

Інформація — це позначення змісту, який здобуто із зовнішнього світу (Н. Вінер);

Інформація — це спосіб передавання різноманітності (Р. Ешбі [45]);

Інформація —це комунікація, зв’язок, у процесі якого зменшується невизначеність (К. Шенон [11]).

Останнє визначення спирається на схематичне подання процесу передавання інформації, згідно з яким можна виокремити передавач та приймач інформації. Унаслідок їх взаємодії і виникає інформація — деяке повідомлення, що тим чи іншим способом зменшує необізнаність споживача (приймача) щодо деякого факту, об’єкта, явища.

У кібернетиці, визначаючи термін «інформація», акцентують увагу на тому факті, що вона усуває невизначеність, розуміючи інформацію як повідомлення, відомості про якусь подію, чиюсь діяльність чи розвиток якогось процесу, що зменшує нашу необізнаність про зазначені явища.

Більш повно можна визначити інформацію, зіставляючи це поняття з іншими важливими поняттями того самого термінологічного ряду, а саме: «знання» і «дані».

Під даними, як правило, розуміють інформацію, подану в певних формах, адекватних можливим процесам її обробки.

Знання — це інформація, на основі якої за допомогою логічних міркувань можна дістати певні висновки.

Розглянемо взаємозв’язок між цими поняттями. У світі безперервно відбуваються події, що полягають у змінюванні станів об’єктів. Ці події (точніше, не вони самі, а люди, які планують або реєструють їх) породжують повідомлення, які можна зафіксувати на довільному носії в деякій знаковій системі. Сукупність повідомлень та фактів про реальні події, що не співвіднесені з можливостями їх використання, називають даними.

Якщо ці дані досягають певного споживача і якщо він співвідносить здобуті дані з певними можливостями їх використання (наприклад, формулює деяку нову задачу управління), то в цьому разі дані несуть певні знання. Отже, знання — це комунікація, зв’язок об’єкта і спостерігача (знання спостерігача про об’єкт).

Якщо ж спостерігач розв’язує певну задачу управління об’єктом, то повідомлення, передані за допомогою даних, які безпосередньо корисні йому під час розв’язування задачі, розглядатимуться як інформація. Таким чином, інформація існує лише в системі, що складається зі спостерігача, задачі та об’єкта дослідження.

3.2. Дані та операції з ними

У ході інформаційного процесу дані перетворюються з одного виду на інший за допомогою певних методів. Обробка даних містить багато різних операцій. Розглянемо основні операції, виконувані з даними:

ü збір даних — нагромадження даних з метою забезпечення повноти тієї чи іншої інформації для прийняття рішень;

ü формалізація даних — зведення даних, здобутих із різних джерел, до однакової форми з метою зробити їх порівнянними;

ü фільтрація даних — відсіювання зайвих (таких, в яких немає потреби під час прийняття рішень) даних. При цьому має знижуватись рівень «шуму» і зростати достовірність та адекватність даних;

ü сортування даних — впорядкування даних за деяким критерієм з метою їх якомога зручнішого використання;

ü архівування — організація зберігання даних у зручній, компактній формі з метою зниження економічних витрат на зберігання та підвищення надійності інформаційної системи (ІС);

ü захист — комплекс дій, спрямованих на запобігання втратам, модифікації або несанкціонованому доступу до даних та їх тиражуванню;

ü транспортування — приймання та передавання даних між віддаленими учасниками інформаційного процесу;

ü перетворення даних — тобто перетворення даних з однієї форми або структури на іншу. Таке перетворення може бути по­в’язане зі зміною типу фізичного носія. Наприклад, у результаті сканування дані, що містяться на паперовому носії, набирають електронної форми. Перетворюють дані передусім з метою їх транс­портування. Так, для передавання цифрових даних за допомогою телефонних мереж необхідно перетворити їх до аналогового вигляду за допомогою спеціального пристрою — модема.

Форми подання даних, структури даних. Робота з великими обсягами інформації автоматизується набагато простіше, коли дані впорядковані, тобто утворюють певну структуру. Структура інформації — це те, що відбиває взаємозв’язки між її складовими (елементами).

Якщо дані зберігаються в організованій формі, тобто певним чином впорядковані (структуровані), то кожний елемент даних набуває нової властивості, яку можна назвати адресою, що визначає розміщення, розташування, місцезнаходження цього елемента стосовно решти.

Найпоширенішими є такі три типи структур: лінійні, ієрар­хічні, табличні.

Лінійні структури — це добре відомі списки. Список — найпростіша структура даних, в якій кожний елемент однозначно визначається своїм номером. Наприклад, журнал відвідування студентами занять має структуру списку, оскільки кожний студент групи зареєстрований під своїм унікальним номером. Отже, лінійні структури даних — це впорядковані структури, в яких адреса елемента однозначно визначається його номером.

Табличні структуривідрізняються від лінійних тим, що елементи даних визначаються адресою комірки, яка складається не з одного параметра, а з кількох. Зокрема, для прямокутних таблиць адреса комірки визначається номером рядка та номером стовпця. Згадуваний уже журнал відвідування можна розглядати і як табличну структуру. Узагальненням двовимірних (прямокутних) таблиць є багатовимірні таблиці.

Ієрархічні структури.Дані, які важко подати у вигляді списків та таблиць, часто подають у вигляді ієрархічних структур. В ієрархічній структурі адреса кожного елемента визначається шляхом доступу (маршрутом), що веде з вершини структури до кожного елемента.

Структури у вигляді списків і таблиць найпростіші. Ними легко користуватись, а до того ж їх неважко впорядковувати. Основним методом впорядкування є сортування. Дані можна відсортовувати за довільно обраним критерієм, наприклад, за абеткою, за зростанням порядкового номера тощо.

Але прості структури, незважаючи на всю їхню зручність, мають певні недоліки. Передусім їх важко поновлювати, оскільки з додаванням до таких впорядкованих структур довільного елемента можуть змінюватись адреси інших елементів. Тому в системах автоматичної обробки інформації необхідні спеціальні засоби для розв’язання цієї проблеми.

Ієрархічні структури за формою складніші, але в них не постає проблем з оновленням даних. Їх легко розвивати, створюючи нові рівні. Недоліком ієрархічних структур є трудомісткість запису адреси елемента, зумовлена зростанням шляху доступу, а також складність їх упорядкування.

3.3. Кодування інформації

Розглянемо основні поняття, що пов’язані з кодуванням та передаванням інформації. Подією називатимемо кожну кількісну чи якісну визначеність станів динамічної системи, яка фіксується спостереженнями .

Можна кожному стану системи поставити у відповідність певне значення чи послідовність значень деякої величини. За допомогою цієї величини можна здійснити передавання повідомлення (відомостей про подію, інформації про подію) від одного об’єкта до іншого.

Фізичний процес, що являє собою матеріальне втілення пові-
домлення
, називається сигналом.

Система або середовище, де здійснюється передавання сигналу, називається каналом зв’язку.

Будь-які повідомлення, що підлягають передаванню по каналах зв’язку, переробці в кібернетичній системі, мають бути попередньо закодовані, тобто «перекладені» мовою сигналів.

Кодування можна визначити як процес подання інформації у вигляді деякої послідовності символів (кодових комбінацій). При цьому таку послідовність, у свою чергу, можна подати (перекодувати) у вигляді сукупностей фізичних сигналів тієї чи іншої природи — акустичних, оптичних, електричних тощо.

Наведемо приклад природного кодування. Нехай ви спостерігаєте деякий пейзаж. До вашого ока надходить інформація про це у вигляді світлових сигналів (фотонів). Ці сигнали сітківкою ока перекодуються в інші сигнали, що по нейронних ланцюгах надходять до головного мозку. Там ці сигнали перекодовуються в образи, які далі перекодовуються в певні відчуття.

Проте якщо потрібно цю інформацію зафіксувати на папері, її доводиться перекодовувати у вигляді букв та їх поєднань. А щоб цю інформацію повідомити комусь по телефону, її необхідно ще перекодувати у звукові коливання. Потім телефон ще раз закодує звукові коливання в електричні імпульси, які по телефонних лініях (каналах зв’язку) надійдуть на приймальний пристрій адресата, де відбудеться декодування електричних імпульсів у звукові коливання. Нарешті, ці коливання надійдуть адресатові (до його вуха), де він їх декодує в образи, або в текст.

Наведемо більш строге визначення кодування. Нехай дано довільну множину А, яку потрібно відобразити в іншу множину В. У цій множині В є скінченна кількість символів (знаків), що називається алфавітом. Наприклад, в абетці Морзе три символи (крапка, тире і прогалина), в англійській мові — 26 букв плюс прогалина і т. ін.

Кількість різних символів (букв), що входять до алфавіту, називається обсягом алфавіту. У цій множині В за певними правилами можна будувати послідовності символів, що називаються словами.

Кодуванням називається відображення довільної множини А у множину скінчених послідовностей (слів), утворених за допомогою деякого алфавіту множини В, а декодуванням — обернене відображення.

Кодом називається сукупність знаків (символів) алфавіту В і слів, складених із них за певними правилами і призначених для однозначного відображення множини А у множину В.

До будь-якої системи кодування висуваються такі основні вимоги:

1) взаємна однозначність перетворень відображуваної множини А у множину В, що її відображує в результаті кодування та оберненого перетворення (декодування) — необхідна умова відсутності помилок в інтерпретації вихідної інформації;

2) економічність кодування, забезпечується, насамперед, мінімі­зацією середньої довжини комбінацій, а отже, і довжини інфор­маційних текстів, завдяки чому заощаджується не лише час передавання тексту, а й носії інформації;

3) збоєстійкість, тобто можливість виявлення та виправлення помилок у кодових комбінаціях під впливом тих чи інших перешкод та збоїв.

Зауважимо, що друга і третя вимоги взаємно суперечливі, оскіль­ки підвищення збоєстійкості кодів досягається збільшенням дов-
жини слів, через що знижується економічність систем кодування.

У техніці зв’язку й обробки інформації розроблено багато різних способів кодування, що забезпечують більш-менш вдалий компроміс у виконанні цих вимог у різних кібернетичних системах.

Схематичне зображення системи зв’язку наведено на рис. 3.1. Ця схема відбиває найбільш істотні елементи будь-якої системи зв’язку: комп’ютерної мережі, системи супутникового чи мобільного зв’язку, розмовного каналу між двома співрозмовниками тощо.

Рис. 3.1. Принципова схема системи зв’язку

Людське мислення у процесі переробки інформації являє собою своєрідний канал зв’язку із шумами, від пропускної здатності якого багато в чому залежить дієвість та ефективність управлінських рішень.

Тоді, коли людина встигає вчасно переробити необхідну для ухвалення рішення інформацію, тобто її канал зв’язку має достатню пропускну здатність і стійкість до шумів, можна очікувати прийняття найбільш ефективних рішень. Якщо терміни переробки та проходження інформації через канал зв’язку (свідомість людини) та час, необхідний для прийняття рішення, не збігаються, то рішення приймається або із запізненням, або в умовах неповної переробки інформації. І перше і друге негативно позначається на функціонуванні соціально-економічних систем.

Поняття про цифровий код. Розглянемо питання про вибір цифрового алфавіту для кодування величин, тобто про вибір системи числення.

У будь-якій позиційній системі числення деяке число N визначається виразом

,

де а — основа системи числення (обсяг цифрового алфавіту); n — кількість розрядів у числі, i — порядковий номер розряду; ki — коефіцієнт, що може набувати а різних значень ki = 0, 1, 2, …, (а – 1).

При цьому запис числа N у системі з основою а здійснюється у вигляді

Ni = kn, kn–1, kn-2, …, k2, k1.

Наприклад:

27(10) = 24 + 23 + 21 + 20  27(2) = 11011 =
= k525–1+k424–1+k323–1+k222–1+k121–1.

Зі зменшенням основи а, тобто спрощенням алфавіту відбувається зміна його кодової комбінації.

Коли йдеться про передавання та електронну обробку інформації, найзручнішою є двійкова система числення, в якій а = 2 і
ki може набувати лише двох значень: 0 і 1. Обчислювальні машини, як і інші технічні пристрої, призначені для збереження і переробки інформації, закодованої в двійковій системі числення.

3.4. Загальне уявлення про надмірність інформації

Розгляд питання про надмірність інформації доцільно почати з деяких загальних міркувань, що стосуються структури природної мови. Наприклад, російський алфавіт містить 32 букви. Яку кількість слів різної довжини можна було б скласти, якщо кожне нове сполучення букв означало б і нове слово, і нове поняття. Ця задача комбінаторики зводиться до визначення кількості N можливих різ­них розміщень з повтореннями з а елементів. Відомо, що N = аn.

У розглядуваному випадку N — можлива кількість різних слів, а = 32, n — довжина слів, тобто кількість букв у слові.

Отже, користуючись 32-буквеним алфавітом, можна скласти:

N1 = 321 = 32 однобуквених слова;

N2 = 322 = 1024 двобуквених слів (наприклад аб, ба, КП, ЛП, …);

N3 = 323 = 32768 трибуквених слів (вол, нал, лал, лаа, …);

N4 = 324 > 106 чотирибуквених слів (сіно, лена, ааба, баба, …);

N5 = 325 > 30 ´106 п’ятибуквених слів;

N6 = 326 > 109 шестибуквених слів.

Загальна кількість слів, що містяться в орфографічних довідниках, двомовних словниках, як правило, не перевищує кількох десятків тисяч — ста тисяч слів.

Отже, користуючись 32-буквеним алфавітом, можна побудувати деяку гіпотетичну мову з 32 768 трибуквеними словами, такими як «ааа», «баа», «ббб» і т. д. Ця мова за кількістю слів цілком може задовольнити потреби повсякденного спілкування. А мова, алфавіт якої складається з чотирьох букв, містила б понад мільйон слів, тобто значно більше, ніж взагалі існує в українській чи будь-якій іншій мові.

Тим часом як в російській, так і в українській мові є слова зав­довжки у 18 букв (наприклад, «малокваліфікований»), а середня довжина слова наближається до шести букв.

Таким чином, застосовуючи штучну мову з трибуквеними словами, можна приблизно вдвічі скоротити обсяг книг, тривалість лекцій, телефонних розмов, службового перепису тощо. Однак побудова і використання такої мови практично нездійсненна з кількох причин.

По-перше, будь-яка жива мова є продуктом історії, історично сформованих категорій, що дуже непохитно зберігає свою особливу структуру, лексику, граматику. Водночас мова — динамічне явище, яке постійно розвивається. Тому більшість спроб упровадити навіть такі легкі для вивчення і логічно побудовані штучні мови, як есперанто, були невдалими.

По-друге, слова штучної мови є незручними для мовлення та важкими для запам’ятовування.

По-третє, така мова була б малонадійним засобом спілкування. Справді, будь-яка помилка, перекручування, погано розчутий звук міг би привести до зміни семантичного значення слова. Проте щодо більшості слів будь-якої природної мови, то перекручування чи помилка в букві, як правило, не заважає розпізнати зміст самого слова. Надійність розпізнавання слів досягається за рахунок їхньої зайвої довжини.

У будь-якій природній мові, таким чином, спостерігається надмірність — властивість, що характеризує можливість подання тієї самої інформації, тих самих повідомлень у більш економічній формі, тобто коротшими кодами. Як уже зазначалося, надмірність невигідна, оскільки вона призводить до подовження повідомлень.

Усе щойно сказане стосується і так званої інформаційної надмірності (чи надмірності кодування), що полягає у використанні слів, кодів, які хоча й містять зайві елементи (символи) з погляду економічності, проте забезпечують надійність повідомлень.

Поряд з інформаційною надмірністю у природних (біологічних) і штучних (технічних) кібернетичних системах для підвищення надійності використовуються й інші види надмірності: структурна, часова, функціональна.

Структурна надмірність полягає в дублюванні чи багаторазовому резервуванні обладнання, тобто тих чи інших органів (у живому організмі) чи деталей машини, агрегатів. Прикладами структурної надмірності в живих організмах може служити наявність у ссавців двох нирок, двох очей, а також великої кількості нервових волокон, що функціонують паралельно.

Часова надмірність являє собою сукупність методів підвищення надійності систем за рахунок збільшення часу розв’язання тих чи інших задач передавання та обробки інформації (наприклад, повторне передавання тієї самої інформації; повторне виконання обчислень в одній і тій самій задачі).

Функціональна надмірність — це сукупність заходів, спрямованих на забезпечення роботоздатності системи в разі виходу деяких її параметрів (наприклад, напруги, температури, тиску і т. ін.) за межі допустимих, які передбачено умовами нормального функціонування.

Одним із найефективніших засобів підвищення функціональної надійності є введення в систему від’ємних зворотних зв’язків. Скажімо, функціональна надійність живих організмів досягається, передусім, за рахунок дії комплексних механізмів, які реалізовуються за допомогою складної системи зворотних зв’язків.

У технічних, виробничих системах функціональна надмірність здійснюється за рахунок керування в контурах негативних зворот­них зв’язків, а також різних аварійних систем (аварійна система
гасіння пожежі, аварійна система випуску шасі на літаку і т. ін.).

3.5. Економічна інформація та її властивості

Як правило, економічною інформацією вважають фінансово-господарську документацію та показники, що містяться в ній. Але економічна інформація може бути усвідомлена, проаналізована та раціонально використана тільки під час вивчення економічних систем, процесів управління в них та конкретних задач, що розв’я­зуються в системах управління. Тому в загальному випадку під економічною інформацією можна розуміти інформацію, що виникає у процесі підготовки й здійснення виробничо-господарської діяльності та використовується для управління цією діяльністю.

Отже, економічна інформація — це сукупність повідомлень, зміст яких необхідний на різних рівнях планування та управління економічними об’єктами. Із цього погляду під економічною інформацією розуміють [10]:

· знання спостерігача про економічний об’єкт;

· якісні та кількісні характеристики компонентів економічної системи (ЕС);

· сукупність взаємозв’язків між компонентами ЕС;

· відомості, що зменшують невизначеність ситуації в ЕС для спостерігача з погляду розв’язання певної задачі управління;

· нематеріальні складові системи — знання, навички, методи, точніше інформаційні схеми (або інформаційні підсистеми) економічної системи;

· повідомлення, що циркулюють в економічній системі, якими вона обмінюється із середовищем та з іншими економічними системами;

· деякі загальновизнані знання, відомості, правила та звичаї, якими керуються люди й колективи у своїй виробничо-економічній діяльності. Вони існують у вигляді актів державно-економічного законодавства, правових норм господарської діяльності, «контрольних цифр» і показників планування тощо.

Прикладом економічної інформації на рівні підприємств можуть бути, зокрема, технічні характеристики засобів виробництва; опис технологій та умов виробництва; відомості про кадровий склад; відомості про наявні та потрібні ресурси; нормативи, планові завдання; показники, що характеризують ефективність економічної діяльності; відомості стосовно ринкової кон’юнктури тощо.

Для правильного визначення цілей та ефективних методів діяль­ності необхідно мати відомості, з одного боку, про зовнішнє
середовище (зовнішня інформація), а з другого — про внутрішній стан та функціонування системи (внутрішня інформація).

Для вивчення, ідентифікації та аналізу зовнішнього і внутрішнього середовища застосовують вхідну інформацію, а вихідна інформація є засобом впливу на це середовище або пристосування до нього ЕС. Діяльність ЕС, її реакція на зміну зовнішніх і внутрішніх обставин ґрунтується на аналізі, обробці та синтезі інформації про зміни зовнішніх і внутрішніх умов. Зовнішню інформацію можна класифікувати так:

ü Чинне законодавство, урядові заходи, накази, розпорядження і інструкції вищих органів управління. Ця інформація має особ­ливо важливе значення під час розробки стратегічних і тактич-
них планів розвитку і функціонування об’єкта управління.

ü Демографічні і соціальні тенденції розвитку суспільства. Ця інформація важлива для планування обсягів виробництва. Види товарів та послуг значною мірою залежать від загальної чисельності, структури, розміщення та купівельної спроможності населення.

ü Економічні тенденції розвитку, до яких належать обсяг та тенденції зміни ВВП, грошової маси, рівень безробіття, валютний курс, рівень цін, продуктивність праці за галузями та багато інших, що можуть виявитися корисними під час прийняття планових рішень стосовно роботи конкретного об’єкта.

ü Рівень та тенденції розвитку технологій за галузями. Ця інформація може вплинути на планування виробництва нових видів продукції, розробку нових технологічних процесів.

ü Чинники виробництва. Ця інформація характеризує джерела, витрати, розміщення, наявність, доступність і продуктивність основних елементів виробництва (трудові ресурси, виробничі матеріали, обладнання тощо).

ü Інформація про попит, якість, надійність та інші характеристики продукції, що випускається.

ü Інформація про стан справ у постачальників, споживачів та конкурентів.

Повне, вичерпне задоволення потреб в інформації про зовнішнє середовище, мабуть, неможливе. Проте ці потреби потрібно враховувати, незважаючи на незначні можливості окремих систем щодо контролю за зовнішнім середовищем, а також на практичну відсутність можливості побудувати таку автоматизовану інформаційну систему, яка подавала б цю інформацію. Проблема пошуку інформації про навколишнє середовище дуже складна, зокрема тому, що часто дуже важко на етапі пошуку визначити, стосується вона задачі, що розв’язується, чи ні, а також чи буде її використано.

Можна виокремити кілька способів пошуку інформації. Насамперед, це пасивне спостереження. Фахівці, що вивчають нав­колишнє середовище, не ставлять перед собою конкретних цілей пошуку, вони лише збирають дані про загальні тенденції, які можуть бути корисними тепер або в майбутньому. У такій діяльності вони вдаються до аналізу електронних та друкованих засобів масової інформації, користуються послугами мережі Інтернет, опра­цьовують спеціалізовані журнали та монографії, проводять бесіди, беруть участь у конференціях, симпозіумах, нарадах тощо.

Ще одним методом пошуку інформації про навколишнє середовище є цільове спостереження (моніторинг) — увага звертається на певну сферу діяльності.

Інформація, що характеризує внутрішній стан системи, має важливе значення для планування та оперативного управління. У цьому разі внутрішня інформація виявляється важливішою, ніж інформація про навколишнє середовище. Внутрішня інформація призначена для ліквідації відхилень між реальною ситуацією та плановими показниками, а також для виявлення сильних і слабких сторін системи.

Внутрішню інформацію можна поділити на виробничу, фінансово-економічну, на інформацію про діяльність різних підсистем у системі, інформацію про використання матеріальних, енергетич­них та кадрових ресурсів у системі, інформацію про систему
управління тощо.

Економічну інформацію класифікують як первинну та похідну. Природно, що для кожної економічної системи будуть свої власні межі між первинною і похідною інформацією. У кожному випадку первинною інформацією буде та, що надійшла до системи зовні, а похідною — перероблена всередині системи.

Що ж стосується найважливіших відмітних особливостей інформації взагалі та економічної інформації зокрема, то до них можна віднести:

· повноту, яка відбиває її достатність для прийняття управлінських рішень або для створення на базі неї нової інформації;

· достовірність (адекватність) — ступінь відповідності інфор­мації реальному стану об’єктивної дійсності;

· цінність (корисність), що характеризує, якою мірою вона сприяє досягненню цілей та завдань споживача (наприклад, системи управління);

· коректність — таке поєднання форми та змісту інформації, за якого забезпечується її однозначне сприйняття всіма споживачами;

· актуальність — ступінь своєчасності інформації, її відповідності поточному моменту часу, а також її адекватності дійсному стану досліджуваного об’єкта.

Контрольні запитання та завдання

1. Поясніть, чим, на вашу думку, відрізняються поняття «інформація», «дані», «знання».

2. Охарактеризуйте основні операції, що виконуються над даними.

3. Як ви розумієте «надмірність інформації»? Наведіть прик­лади.

4. Наведіть принципову схему системи зв’язку та поясніть основні етапи проходження інформації по ній.

5. У чому полягають принципи кодування інформації?

6. Які основні властивості економічної інформації вам відомі?

Тема 4. ОСНОВИ СТАТИСТИЧНОЇ
ТЕОРІЇ ІНФОРМАЦІЇ

4.1. Ентропія як міра ступеня невизначеності

Однією з головних властивостей навколишнього світу та подій, явищ, які в ньому відбуваються, є відсутність повної впевненості щодо їх настання. Це створює невизначеність у плануванні наших дій. Але зрозуміло, що ступінь цієї невизначеності залежно від ситуації випадках буде різною.

У процесі управління економічними системами (наприклад, виробництвом) постійно існує невизначеність щодо стану справ у керованому об’єкті та його дій (поводження) у той чи інший момент. Необхідно знати, як забезпечується виконання встановленої програми, плану дій, які справи з матеріально-технічним, фінансовим, енергетичним, інформаційним забезпеченням. Необхідно також мати вичерпну інформацію щодо стану ринкової кон’юнк­тури, економічної політики державних органів управління, діяльності конкурентів, партнерів, споживачів тощо. Невизначеність виникає і щодо вибору найбільш доцільного рішення з множини можливих (керувальний вплив). Для того щоб усунути цю невизначеність, необхідна інформація.

На практиці важливо вміти чисельно оцінювати ступінь невизначеності. Розглянемо випробування, яке має K рівноможливих результатів. Зрозуміло, що коли K = 1, результат випробувань не є випадковим і жодної невизначеності немає. Зі збільшенням K невизначеність зростає. Отже, числова характеристика невизначеності f(K) має бути f(1) = 0 і зростати зі збільшенням K. Розглянемо два незалежні випробування α і b. Нехай випробування α має m, а випробування b — n результатів. Добуток подій αb матиме mn результатів. Невизначеність випробування αb буде біль­шою і від α, і від b.

Природно припустити, що ступінь невизначеності випробування αb дорівнює сумі невизначеностей, які характеризують випробування α і b. Звідси дістаємо таку умову: f(mn) = f(m) + f(n).

Визначимо вигляд цієї функції. Неважко переконатись, що логарифмічна функція y = log(x) — єдина, яка має наведені властивості:

log 1 = 0; log x2 > log x1 при x2 > x1; log(mn) = log m + log n.

Вибір основи системи логарифмів не принциповий, оскільки згідно з формулою logа = logbalogb перехід від однієї основи логарифмів до іншої зводиться до множення на коефіцієнт пропорційності.

У теорії інформації за основу логарифмів беруть число 2, тобто
f(K) = log2(K). Оскільки log22 = 1, то це означає: за одиницю
вимірювання невизначеності взято невизначеність, яка міститься у випробуванні, що має два рівноможливі результати (наприклад, у випробуванні з підкиданням монети).

Така одиниця вимірювання невизначеності називається бітом (bit — binary digit — двійкова цифра).

Розглянемо випробування, що має К рівноймовірних результатів. Тоді таблицю результатів можна подати у вигляді табл. 4.1.














Таблиця 4.1

Результати А1 А2 Аk
Імовірність 1/К 1/К 1/К

Оскільки загальна невизначеність випробування дорівнює logK, то можна вважати, що кожний окремий результат вносить у середньому таку невизначеність:

.

Щоб обчислити повну невизначеність, знайдемо суму невизначеностей усіх результатів:

.

Якщо ж результати випробувань мають різні ймовірності (табл. 4.2), то повна невизначеність буде така:

.

Таблиця 4.2

Результати А1 А2 ………... Аk
Імовірність P(A1) P(A2) ………... P(Ak)

Цю величину (за аналогією зі статистичною фізикою) називають ентропією. Отже, ентропія випробування α подається у вигляді

.

Властивості ентропії.1. Н(a) ³ 0 — додатно визначена функція ймовірностей Р(Аi). Справді:

.

2. Н(a) = 0 Þ якщо Pj = 1, решта Pі = 0. У цьому випадку невизначеності немає:

, а решта членів .

3. maxH(a) = max[–SP(Ai)logP(Ai)] = logK при P(A1) = … =
= P(Ak) = , тобто maxH(a) досягається за рівноможливих результатах.

Розглянемо два незалежні випробування (табл. 4.3).


Таблиця 4.3

X X1 X2 Xn
P p1 p2 pn
Y Y1 Y2 Ym
P q1 q2 Qm

Означення. Об’єднанням двох систем X і Y із можливими станами x = {x1, …, xn} і y = {y1, …, ym} називають складну систему (X, Y), стан якої (xi, yj) містить усі можливі значення (комбінації) станів xi, yj систем X, Y.

Очевидно, що кількість можливих станів системи (X, Y) буде nm. Нехай Pij — імовірність того, що система (X, Y) перебуватиме у стані (xi, yj): Pij = P[(X = xi), (Y = yi)] (табл. 4.4).

Таблиця 4.4

  x1 x2 xn
y1 P11 P12 P1n
y2 P21 P22 P2n
ym Pm1 Pm2 Pmn

За означенням маємо:

, .

Якщо системи X і Y незалежні, то Pij = piqj. Звідси випливає:

Отже,для незалежних систем виконується рівність: H(X, Y) =
= H(X) + H(Y).

Цей висновок можна узагальнити на скінченну кількість систем: у результаті об’єднання незалежних систем їхні ентропії додаються:

.

Умовна ентропія.Нехай маємо дві системи X і Y, які в загаль­ному випадку залежні. Припустимо, що система X набула зна­чення xi. Позначимо через P(yj/xi) умовну ймовірність того, що система Y набуде стану yj за умови, що система X перебуває у стані xi:

Визначимо умовну ентропію системи Y за умови, що система Х перебуває у стані хi:

    (4.1)

де МХi — оператор умовного математичного сподівання величини, що міститься в дужках, за умови Х ~ xi.

Умовна ентропія залежить від того стану xi, якого набула система Х; для одних станів вона більша, для інших менша. Визначимо середню або повну ентропію системи Y, ураховуючи, що система може набувати будь-яких значень. Для цього кожну умовну ентропію (4.1) помножимо на ймовірність відповідного стану Рi, а далі всі такі добутки додамо.

Отже, позначимо повну умовну ентропію через Н(Y / Х). Тоді величина

                                                   (4.2)

за означенням буде повною умовною ентропією.

Скориставшись формулою (3.1) та взявши до уваги, що piH ´
´ (Y / xi) = Pij, можна одержати:

         . (4.3)

Величина Н(Y / Х) характеризує ступінь невизначеності системи Y, що залишається після того, як стан системи Х цілком визначився. Її називають повною умовною ентропією системи Y відносно Х.

Для умовної ентропії справджується таке твердження: якщо дві системи Х та Y поєднуються в одну, то ентропія об’єднаної системи буде дорівнювати сумі ентропії однієї з них та умовної ентропії іншої щодо першої:

Н(Х, Y) = Н(Х) + Н(Y / Х); Н(Х, Y) = Н(Y) + Н(X / Y).   (4.4)

У частинному випадку, коли системи Х і Y незалежні, тобто
Н(Y / Х) = Н(Y), маємо рівність:

Н(Х, Y) = Н(Х) + Н(Y),

а в загальному випадку виконується нерівність:

                          Н(Х, Y) £ Н(Х) + Н(Y).                         (4.5)

Співвідношення (4.5) випливає з того, що повна умовна ен-
тропія не може перевищувати безумовної: Н(Y / Х) £ Н(Y).

Розглянемо інший крайній випадок, коли станом однієї із систем Х цілком визначається стан іншої Y. Тоді Н(Y / Х) = 0, а отже, маємо

Н(Х, Y) = Н(Х) = Н(Y).

Інтуїтивно зрозуміло, що ступінь невизначеності системи не може зрости через те, що стан якоїсь іншої системи став відомим. Зі співвідношення (4.5) випливає, що невизначеність системи, її ентропія досягає максимуму, коли система незалежна.

4.2. Ентропія та інформація

Щойно ентропію було розглянуто як міру невизначеності системи. Зрозуміло, що з появою нових відомостей невизначеність може зменшитися. Чим більший обсяг зазначених відомостей, тим більше буде інформації про систему і тим менш невизначеним буде її стан. Тому кількість інформації можна вимірювати зменшенням ентропії тієї системи, для уточнення стану якої призначено відомості.

Розглянемо деяку систему Х, щодо якої виконуються спостереження, і оцінимо інформацію, здобуту в результаті того, що стан системи став цілком відомим. До отримання відомостей ентропія системи була Н(Х), а коли їх було отримано, стан системи цілком визначився, тобто ентропія стала дорівнювати нулю. Нехай Ix — інформація, здобута в результаті з’ясування стану системи Х. Вона дорівнює зменшенню ентропії:

                       ,                    (4.6)

тобто кількість здобуваної інформації в разі повного з’ясування стану деякої фізичної системи дорівнює ентропії цієї системи. Формулу (4.6) можна записати докладніше:

                              ,                               (4.7)

де Pi = P(X = xi). Співвідношення (4.7) означає, що інформація Ix є усередненим (за всіма станами системи) значенням логарифма ймовірності стану (зі знаком «мінус»). Кожний окремий доданок
(–logPi) можна розглядати як часткову інформацію від окремого повідомлення, яке полягає в тому, що система Х перебуває у стані хi. Позначивши цю інформацію через , дістанемо:

                                 .                                   (4.8)

Тоді інформація Ix буде середньою (повною) інформацією, що її було отримано від усіх можливих окремих повідомлень:

                  ,                   (4.9)

де Х —кожний (випадковий) стан системи Х.

Оскільки 0 £ Pi £ 1, то як часткова Ix, так і повна Ix невід’ємні. Якщо всі можливі стани рівноможливі (P1 = P2 = … = Pn = 1/n), то

,

Ми розглядали інформацію про стан деякої системи Х, отриману за допомогою безпосереднього її спостереження. На практиці система Х найчастіше буває недоступна безпосередньому спостереженню, і стан її з’ясовується за допомогою деякої системи Y, певним чином пов’язаної з нею. Наприклад, замість безпосереднього спостереження за літаком ведеться спостереження за екраном локатора і т. ін.

Розбіжності між системою Х, яка нас безпосередньо цікавить, і спостережуваною системою Y можуть бути двох типів.

1. Розходження за рахунок того, що система Y «грубіша», менш різноманітна, є гомоморфним образом Х, тому деякі стани Х не відображуються в Y.

2. Розбіжності за рахунок помилок: неточностей вимірювання параметрів системи Х і помилок у передаванні повідомлень.

У разі, коли зазначені системи Х та Y різні, постає запитання: яку кількість інформації про систему Х дасть спостереження над системою Y?

Природно визначити цю інформацію як зменшення ентропії системи Х в результаті отримання відомостей про стан системи Y:

                       .                       (4.10)

Справді, доти, доки відомостей про систему Y не було, ентропія системи Х становила Н(Х). Після отримання відомостей «залишкова» ентропія стала Н(Х/Y). Отож знищена відомостями ентропія і є інформація ІY®X.

Величину ІY®X називають повною, або середньою, інформацією про систему Х, що міститься в системі Y.

Можна довести, що ІY®X = ІX®Y. Позначимо через ІX«Y =
= ІX®Y = ІY®X. Інформацію ІX«Y називають повною взаємною інформацією, що міститься в системах Х та Y.

Якщо системи незалежні, то Н(Х / Y) = Н(Х) і ІX«Y = 0, тобто повна взаємна інформація, що міститься в незалежних системах, дорівнює нулю. Це природно, оскільки неможливо дістати відомості про систему, спостерігаючи замість неї іншу, з нею не пов’язану.

Розглянемо випадок, коли стан системи Х цілком визначає стан системи Y. Тоді Н(Х / Y) = 0 і, навпаки, Н(Y / Х) = 0, тобто системи еквіваленті:

. (4.11)

Якщо між системами Х та Y існує зв’язок, причому Х — більш різноманітна, ніж Y, причому Н(Х / Y) = 0, тоді

ІX«Y = Н(Y) – Н(Y / Х) = Н(Y),

тобто повна взаємна інформація ІX«Y, що міститься в системах, одна з яких є підлеглою, дорівнює ентропії підлеглої системи.

Виведемо формулу для інформації. З огляду на те, що

Н(Y / Х) = Н(Х / Y) – Н(Y),

дістанемо:

         ІX«Y = Н(Х) – Н(Х / Y) = Н(Х) + Н(Y) – Н(Х, Y).   (4.12)

Отже, повна взаємна інформація, що міститься у двох системах, дорівнює сумі ентропії обох систем, що становлять систему, за винятком ентропії системи, утвореної перерізом даних систем.

Графічно це можна зобразити так, як показано на рис. 4.1.

Рис. 4.1. До визначення повної взаємної інформації

Звідси, можемо записати:

,

де Pij = P(X = xi; Y = yj), pi = P(X = xi) rj = P(Y = yj).

4.3. Принцип необхідної різноманітності Ешбі

Розглянемо три системи X, R, Y. Вони деяким способом по­в’язані між собою (рис. 4.2). Нехай різноманітність цих систем буде відповідно

Х = {x1, x2, …, xn}, Y = {y1, y2, …, yn}, R = {r1, r2, …, rn}.

Рис. 4.2. Унаочнення принципу Ешбі

Ця різноманітність є невизначеністю щодо стану, в якому перебуває система. Таку невизначеність можна схарактеризувати ентропією: H(X), H(R), H(Y). Введемо також умовні ентропії H(X / R), H(Y / R).

Розглянемо тепер дві системи Х і Y. Припустимо, що різноманітність системи Y менша за різноманітність Х, тобто система Y є гомоморфним образом Х. Постає запитання: як можна зменшити різноманітність системи Х, або як можна зменшити її невизначеність, тобто ентропію Н(Х)?

Нехай система R цілком визначена. Тоді, оскільки невизначеність системи Х більша, ніж системи Y, маємо нерівність

                            Н(X / R) ³ H(Y / R).                          (4.13)

За будь-яких причинних чи інших взаємозв’язків між R і Y дістаємо:

              .     (4.14)

Згідно з (3.13), можемо записати

              .    (4.15)

Але для будь-яких систем

                            .                     (4.16)

Тому, підставляючи (3.16) у (3.15), дістаємо:

                                    (4.17)

Зі співвідношення (4.17) випливає, що ентропія системи Х має мінімум, і цей мінімум досягається при H(R / Y) = 0, тобто в разі, коли стан системи R цілком визначений і відомий стан системи Y. А це буде тоді, коли R є однозначною функцією від Y (її гомоморфний образ).

Отже, якщо H(R / Y) = 0, то

                              min H(X) = H(Y) – H(R).                 (4.18)

Це і є відомий «принцип необхідної різноманітності» Р. Ешбі, який постулює таке:

Мінімальне значення різноманітності системи Х можна змен­шити тільки за рахунок збільшення різноманітності системи R.

Інакше його можна сформулювати так: тільки різноманітність у системі R може зменшити різноманітність, яка існує в Х, тільки різноманітність може знищити різноманітність.

4.4. Альтернативні підходи
до визначення кількості інформації

Статистична теорія інформації пов’язує поняття інформації зі зниженням невизначеності (ентропії) стану об’єкта. Підходи й математичний апарат для кількісного визначення інформації та ентропії, що їх розробили К. Шенон та Н. Вінер, виявилися корисними в технічних застосуваннях (теорії зв’язку) — оптимізації кодування, передавання, зберігання інформації тощо.

Їхні праці з теорії інформації сприяли розумінню того, що не існує абсолютної інформації про об’єкт, визначення інформації залежить від вибраної моделі об’єкта. Оскільки залежно від мети дослідження вибирають різні моделі з різним описом станів об’єкта, то й з’ясування інформації про об’єкт залежить від мети та завдань дослідника. Адже в одних і тих самих даних міститься різна кількість інформації для різних завдань управління.

Однак статистична теорія інформації не набула поширення для задач обробки інформації, призначеної для управління економічними об’єктами. Це пояснюється тим, що її підходи не враховують специфіки економічної інформації (зокрема, відкидаються змістовні взаємозв’язки, ігнорується зміст та корисність інформації для досягнення мети — цінність, доцільність).

Наприклад, кількість інформації на символ є лише усередненою мірою невизначеності появи цього символа. Тому загальна кількість інформації, що міститься в деякому повідомленні (І = –Spilogpi), ніяк не пов’язується зі змістовністю і корисністю цієї інформації для одержувача.

Інформативність повідомлень для одержувача залежить від його сфери інтересів, роду занять, мети дослідження тощо. Отже, необхідно враховувати різні аспекти оцінки кількості інформації: не лише за формально-структурними ознаками, а й за змістом та практичною цінністю для одержувача.

Однією з найбільш важливих властивостей інформації є її корисність. Але бути корисним може тільки те, що має сенс для даної системи. Реальні (зокрема, економічні) системи перебувають у процесі постійного перетворення, причому будь-яке елементар­не перетворення в системі є подією. Кожна подія супроводжується повідомленням, яке є інформаційним еквівалентом події. З огляду на сказане інформація — це повідомлення, яке має сенс для даної системи. Але значення будуть мати тільки ті повідомлення, які обмежують різноманітність поводження досліджуваної системи в напрямку її пристосування до середовища.

Наведемо деякі інші міркування та підходи до визначення кіль­кості інформації.

Семантичний підхід.Один із методів обчислення кількості семантичної інформації полягає в тому, щоб визначати її через так звану логічну імовірність, що являє собою ступінь підтвердження тієї чи іншої гіпотези. При цьому кількість семантичної інформації, що міститься в повідомленні, зростає зі зменшенням ступеня підтвердження гіпотези. Отже, якщо логічна ймовірність дорівнює одиниці, тобто якщо вся гіпотеза побудована на відомих даних та цілком підтверджується повідомленням, то таке повідомлення не приносить адресатові нічого нового і семантична інформація дорівнює нулю. (Наприклад, повідомлення «Волга впадає в Каспійське море».) І навпаки, зі зменшенням ступеня підтвердження гіпотези (чи, інакше кажучи, апріорного знання) кількість семантичної інформації, що її доставляє повідомлення, зростає.

З описаним підходом до визначення інформаційної змістовності повідомлень стикається запропонована Ю. Шрейдером ідея, що ґрунтується на врахуванні «запису знань» (тезауруса) одержувача.

Тезаурусом (грец. «скарб») називають словник, в якому наведено не тільки значення окремих слів, а й змістовні зв’язки між ними (наприклад, тлумачний словник Даля). У розглядуваному контексті під тезаурусом розуміють деякий узагальнений довідник, що визначає рівень знань одержувача про повідомлення. При цьому повідомлення, що містять нову для одержувача інформацію, змінюють, збагачують його тезаурус.

Якщо повідомлення не вносить нічого нового в тезаурус одер­жувача, то природно вважати, що змістовна семантична інформація дорівнює нулю. Якщо одне з двох повідомлень змінює тезаурус незначно, а друге вносить до нього істотні зміни, то природно вважати, що друге повідомлення є змістовнішим, несе в собі значно більший обсяг семантичної інформації. При цьому під зміною тезауруса слід розуміти не тільки появу нових понять, а й встановлення нових зв’язків між ними, ліквідацію застарілих понять чи зв’язків тощо.

Прагматичний підхід.Визначаючи інформацію, ми зазначали, що однією з властивостей інформації є використання її у процесах управління. А коли інформація використовується для управління, то її, природно, належить оцінювати з позицій корисності, цінності, доцільності для досягнення поставленої мети управління.

Тому кожне одержуване ланками управління повідомлення важливо оцінювати не з погляду пізнавальних характеристик, а з прагматичного, тобто з боку корисності чи цінності для виконання функцій управління.

Виходячи з таких міркувань, А. Харкевич запропонував міру цінності інформації Iц визначати як зміну ймовірності досягнення мети в разі отримання цієї інформації:

,

де р0 — початкова (до отримання відомостей) імовірність досягнення мети;

р1 — імовірність досягнення мети після отримання інформації.

При цьому можливі три різні випадки:

1. Отримана інформація не змінює ймовірності, тобто p1 > p Þ
Þ Іц = 0. Таку інформацію називають порожньою.

2. Якщо імовірність досягнення мети збільшується: p1 > p0 Þ
Þ Іц > 0, то прагматична інформація зросла.

3. Якщо ймовірність зменшилася: p1 < 0 Þ Iц < 0, це означає, що отримана інформація є негативною, тобто дезінформацією.

Зауважимо, що прагматичні та семантичні оцінки важко розмежувати, а в деяких випадках вони збігаються.

Контрольні запитання та завдання

1. Дайте визначення терміна «ентропія».

2. Доведіть, що максимальна ентропія досягається при рівноймовірних результатах випробувань.

3. Як пов’язані між собою ентропія та інформація з погляду статистичної теорії інформації?

4. Що означає «умовна ентропія»? Сформулюйте її властивості.

5. Сформулюйте принцип необхідної різноманітності Ешбі.

6. Охарактеризуйте підходи до визначення кількості інформації.

Тема 5.ІНФОРМАЦІЙНІ СИСТЕМИ
І ТЕХНОЛОГІЇ (ІСТ)

5.1. Загальна характеристика
сучасних напрямків розвитку ІСТ

Одним із найважливіших практичних наслідків розвитку кібернетики можна вважати те, що вона стала теоретичним фундаментом для створення комп’ютерної техніки та сучасних ІСТ, які принципово змінили підходи до процесу обробки інформації та управління практично в усіх галузях людської діяльності. ІСТ настільки інтегровані у процеси обробки інформації та управління в економіці, що стали невід’ємною складовою економічної кібернетики, значно збагативши її арсенал.

У загальному випадку інформаційна технологія — це сукупність методів і способів нагромадження, оброблення, зберігання, передавання, подання та використання інформації.

Сучасний стан розвитку ІСТ характеризується стійкою тенден­цією до зростання обсягів та інтенсивності інформаційних потоків майже в усіх галузях знань. При цьому зростання має приблизно експоненціальний характер. Діяльність будь-якої економічної системи, зокрема й підприємства (комерційного, виробничого, наукового і т. ін.) супроводжується нагромадженням, зберіганням та обробленням величезних масивів інформації. Тому без засобів продуктивної переробки потоків «сирих», первинних даних ефективне управління економічними системами практично неможливе.

Можна виокремити такі сучасні вимоги до даних і їх обробки:

· дані мають бути значного обсягу;

· характеризуватися різнорідністю (кількісною, якісною, текстовою);

· результати обробки мають бути конкретними й зрозумілими;

· інструменти для обробки первинних даних — простими в користуванні.

Усе це зумовило необхідність автоматизації аналізу даних ком­п’ютерною їх обробкою із застосуванням методів прикладної статистики та економетрії.

Нині існують численні інформаційні технології, спрямовані на полегшення економічної діяльності людини. Наявні системи поділяються на певні типи, передусім за безпосереднім призначенням та підходами, що використовуються в них. У галузі ІСТ умовно можна виокремити три напрямки розвитку, які доповнюють один одного, визначаючи тип ІС. Системи першого типу зорієнтовано на операційну обробку даних — системи обробки даних (СОД). До них належать спеціалізовані пакети програм для статистичного аналізу, математичні пакети тощо. Другий тип ІС зорієнтований на задачі аналізу даних та управління — системи підтримки та прийняття рішень (СППР).

До третього, одного з найпоширеніших типів ІС, застосовуваних в управлінні, належать такі:

¨ АСУ — автоматизовані системи управління;

¨ СППР — системи підтримки прийняття рішення;

¨ ЕС — експертні системи.

Автоматизовані системи управління.АСУмають широкий спектр застосування: від автоматизації базових функцій підприємства до автоматизації прийняття управлінських рішень. Розвиток цих систем відбувався від найпростіших систем обробки інформації до сучасних інтегрованих інформаційних комплексів. АСУ можна поділити на вузькоспеціальні та інтегровані.










Последнее изменение этой страницы: 2018-04-12; просмотров: 217.

stydopedya.ru не претендует на авторское право материалов, которые вылажены, но предоставляет бесплатный доступ к ним. В случае нарушения авторского права или персональных данных напишите сюда...