![]() Студопедия КАТЕГОРИИ: АвтоАвтоматизацияАрхитектураАстрономияАудитБиологияБухгалтерияВоенное делоГенетикаГеографияГеологияГосударствоДомЖурналистика и СМИИзобретательствоИностранные языкиИнформатикаИскусствоИсторияКомпьютерыКулинарияКультураЛексикологияЛитератураЛогикаМаркетингМатематикаМашиностроениеМедицинаМенеджментМеталлы и СваркаМеханикаМузыкаНаселениеОбразованиеОхрана безопасности жизниОхрана ТрудаПедагогикаПолитикаПравоПриборостроениеПрограммированиеПроизводствоПромышленностьПсихологияРадиоРегилияСвязьСоциологияСпортСтандартизацияСтроительствоТехнологииТорговляТуризмФизикаФизиологияФилософияФинансыХимияХозяйствоЦеннообразованиеЧерчениеЭкологияЭконометрикаЭкономикаЭлектроникаЮриспунденкция |
Единицы измерения информации
За единицу информации принято брать 1 бит. На практике используется более крупная единица – байт. 1 байт = 8 бит. Другие единицы измерения:
Формула Хартли Р. Хартли предложил научный подход к оценке сообщений. Предложенная им формула имела следующий вид: I = log2K , Где К - количество равновероятных событий; I - количество бит в сообщении, такое, что любое из К событий произошло. Тогда K=2I. Пример Сколько бит информации несет сообщение о том, что поезд прибывает на один из 8 путей? Формула Хартли: I=log2N, где N – число равновероятностных исходов события, о котором речь идет в сообщении, I – количество информации в сообщении. I = log28 = 3(бит) Ответ: 3 бита. |
||
Последнее изменение этой страницы: 2018-04-11; просмотров: 449. stydopedya.ru не претендует на авторское право материалов, которые вылажены, но предоставляет бесплатный доступ к ним. В случае нарушения авторского права или персональных данных напишите сюда... |