Студопедия

КАТЕГОРИИ:

АвтоАвтоматизацияАрхитектураАстрономияАудитБиологияБухгалтерияВоенное делоГенетикаГеографияГеологияГосударствоДомЖурналистика и СМИИзобретательствоИностранные языкиИнформатикаИскусствоИсторияКомпьютерыКулинарияКультураЛексикологияЛитератураЛогикаМаркетингМатематикаМашиностроениеМедицинаМенеджментМеталлы и СваркаМеханикаМузыкаНаселениеОбразованиеОхрана безопасности жизниОхрана ТрудаПедагогикаПолитикаПравоПриборостроениеПрограммированиеПроизводствоПромышленностьПсихологияРадиоРегилияСвязьСоциологияСпортСтандартизацияСтроительствоТехнологииТорговляТуризмФизикаФизиологияФилософияФинансыХимияХозяйствоЦеннообразованиеЧерчениеЭкологияЭконометрикаЭкономикаЭлектроникаЮриспунденкция

Цифровая обработка сигналов.




Теория информации. Лекция 1.(14.02.12)

Кибернетика – совокупность законов и направленных действий, наука об управлении.

Информация – атрибут, совокупность сведений, необходимых для обеспечения целенаправленных действий во всех сферах человеческой деятельности.

Любое управление – информационный процесс.

Подходы:

1) Философский

2) Управленческий

3) Технический

4) Правовой

Информация – сведений и данные вне зависимости от формы их представления

Информатика – научно – техническое направление/отрасль знаний, предметом которого является системное изучение информации в интересах информационного обеспечения деятельности общества.

Информатизация – процесс практической реализации достижения информатики.

Жизненный цикл информации

Получение->Передача->Хранение->Преобразование/Обработка->Использование

Подходы к определению количества информации:

1) Статистический (оценка с точки зрения меры неопределенности, при этом не затрагивается сам смысл информации)

2) Семантический (учет целостности/полезности информации(важен процесс старения))

3) Структурный (для сравнения берутся элементарные структурные единицы, считается их сумма)

Лекция №2. (21.02.12)

Пусть в алфавите m символов, n длина сообщения.

N=  – размер сообщения.

Хартли :I =  – количество информации

I = = =  – формула Хартли,  первая формула теории информации, 1928 год.

При m=2 I= = 1  бит информации

!!! Символы в алфавите должны быть равновероятны!!!

I= [Хартли]=[Нат]

Если буквы в алфавите не равновероятны, то формула Хартли неприменима.

1946 г. Шеннон:

Если символы равновероятны :I =

      

I =  – формула Шеннона

H(A) – энтропия – количество информации на 1 символ, если в алфавите m символов и k-й символ появляется вероятностью .Формула Шеннона – обобщение формулы Хартли.

Энтропия – мера неопределенности в поведении источников или численно количество информации, которую переносит один символ при неравновероятном появлении символов.

Свойства энтропии:

1) Неотрицательна (H(A)=0 ó

2) Максимальна, когда

Условная вероятность : вероятность того, что за последует : .

Условная энтропия:

       H(A/ ) =

Среднее количество информации, переносимое одним символом при условии??? связей.

Коэффициент избыточности

- максимальное количество информации, - количество информации с учетом связей

Для европейских языков r  0.5

 – производительность источника, бит/с.

H*W= R – скорость передачи информации

W- скорость образования символов, MaxR – пропускная способность канала.

Основная задача – согласовать пропускную способность канала и производительность источника.

Процесс передачи информации

Источник =>посл. символов=>Передатчик =>сигнал=>Канал связи + помехи => Приемник => Потребитель

Канал - совокупность средств обеспечения передачи электрических сигналов от источника сообщения к отправителю.

Помехи искажаются сигнал – а значит принятое сообщение как правило отличается от сигнала.Помехоустойчивость системы -способность передавать информацию с заданной вероятностью при воздействии помех.

 

Степень соответствия – критерий вероятности

X(t)->Y(t): Y(t) = X(t) + e(t) <= помеха

Каналы связи и их классификация:

1) По назначению

2)  По характеру линий связи

3) ?

4)  По описанию математической модели

5) По влиянию помех?

По назначению:

1) Телефон

2) Телеграф

3) Телевизор

4) Звуковое вещание

По способу распространения:

1) Радиосвязь

2) Проводная связь

1) Воздушная

2) Кабельная

3) Волноводная

4) Световоздушная

По внешнему искажению и влиянию помех:

1) Линейные помехи

2) Не линейные помехи

3) Детерминированные помехи

4) …

 

Лекция 3.(28.02.12)

Котельников 46 год – основы теории потенциальной помехоустойчивости.

Помехоустойчивость –предельно достижимая помехоустойчивость при заданной помехе.

Одна из основных задач ТИ – разработка методов анализа и синтеза помехоустойчивых систем передачи информации

       -      выбор и обоснование критериев для различных условий передачи информации

       -      анализ помехоустойчивости методов и алгоритмов передачи информации

       -      разработка технических и программных средств для оптимальной передачи информации

Задачи решены при условии, что способ передачи задан и известны характеристики помех.

Кодирование:

1) Эффективное

2) Корректирующее

Цель эффективного кодирования – повышение скорости передачи информации вплоть до приближения таковой к пропускной скорости канала. Основа – т. Шеннона для канала без помех.

т. Шеннона для канала без помех:

       Для канала без помех всегда можно создать систему эффективного кодирования дискретных сообщений, у которых среднее количество двоичных кодовых сигналов на 1 символ будет приближаться как угодно близко к энтропии источника сообщений.

Цель корректирующего кодирования – повышение вероятности передачи информации путем обнаружения и исправления ошибок. Основа – т. Шеннона для канала с помехами.

т. Шеннона для канала с помехами:

           И для канала с помехами всегда можно найти такую систему кодирования, при которой сообщения будут передаваться со сколь угодно большой степенью вероятности, если только производительность источника не превышает пропускную скорость канала.

Кодирование – процесс преобразования элементов дискретного сообщения в соответствующие числа, выраженные кодовыми символами.

Число различных символов – основание кода, значимость кода – число символов кодовой комбинации – последовательность кодовых символов, соответствующих одному элементу дискретного сообщения.

Если все комбинации содержат одинаковое число символов – код равновероятный.

т. Кодирования –абстрактная математическая теория представления символов произвольного источника с помощью заданного алфавита.

Основное понятие – избыточность

1) Дополнение до четности

Избыточность (n+1)/n , где n – длина дополняемого блока – обнаруживает одиночную ошибку, не исправляет.

2) Квадратный(прямоугольный) код – дополнение до четности по строкам и столбцам + 1 бит, дополняющий доп строку и доп столбец, выявляет 2 и устраняет одну ошибку, избыточность m*n/((m-1)*(n-1))

3) Треугольный код – дополняет угол до четности, выявляет 2 и устраняет одну ошибку, избыточность 1+ 2(n-1).

4) Кубический код дополнение x,y,zпо 1 биту, выявляет 2 и устраняет одну ошибку, избыточность n*m*y/((n-1)*(m-1)*(y-1)).

Лекция 4. (06.03.12)

Сигнал – источник информации.

- аналоговый

- дискретный

Дискретный сигнал, который дискретизирован по амплитуде, называется цифровым.

Или аналоговый, квантованый по времени и амплитуде.

Совокупность алгоритмов и научных достижений (цифровая обработка сигналов) – часть теории информации.

1965 год – первая работа по обработке цифровых сигналов – Кули, Тьюки.

Математические основы:

1) Классическая математика 17-18 веков

2) Появление компьютеров

3) Достижения микроэлектроники

Цифровая обработка сигналов.

1. Базовые алгоритмы

2. Рациональные способы реализации алгоритмов

3. Алгоритмы решения прикладных задач

 

Применение: радиолокация, обработка изображений, анализ атомных взрывов, томография и т.д.

Преобразование Фурье:

Х(jw)=

Погрешности:

1. Предел суммирования

2. Из-за замены интеграла суммой

3. Округления

Лекция 5. (13.03.12)

Свойства ДПФ:

1) Линейность

2) Периодичность (X(k)=X(rN+k))

3) Симметрия

4) Теорема Парсеваля

5) Свертка

Физический смысл ДПФ:

       Пусть исходная последовательность состоит из действительных чисел.

 

Оценка числа операций.

 

 

Для реальных вычислений используют БПФ со сложностью N

Кули и Тьюки –первая работам по БПФ.

БПФ с прореживанием по времени.

 

Можно брать по времени и по частоте.

 

Разреженныемтрицы позволяют сократить число операций.

Итог: если длина массива небольшая, то от БПФ нет смысла, только если надо считать в реальном времени.

 

 

Лекция 6. (27.03.12)

Вычисление обратного ДПФ через прямое.

1) X*(k) вместо X(k)

2) ДПФ для X*

3) Результат п2 заменить на комплексно-сопряженные

4) Результат п3 разделить на N

Код Грея

       -      Такая система кодирования, где 2 соседних значения отличаются только в 1-м разряде:

       1)    Используются в механических преобразованиях

       2)    Сведение ошибок к минимуму

Быстрые алгоритмы применимы для составного значения N

N=

Тут был первый тест.

Лекция 7. (03.04.12)

 

 

Минусы Хартли:

1) Его не все знают

2) Преобразование Фурье уже давно используется

3) Коэффициенты Фурье – разложение на cosи sin, а Хартли сдвинут на 45 градусов.

 

Цифровая интерполяция.

1) Базовые алгоритмы

2) Быстрые алгоритмы

 

 

Существуют 3 группы базисных функций.

1) Степенные полиномы

2) Тригонометрические функции

3) Экспотенциальные функции

 

1) Степенные полиномы:

+наглядность

+удобство дифференцирования и интегрирования

Существует несколько способов интерполяции

1) С узлами

2) С равноотстоящими узлами

3) С неравноотстоящими узлами

4) Методы сплайн-интерполяции       (интерполяция кусками)

Ньютон, Стирлинг, Бессель, т. Ролля.

2) Тригонометрические функции (+Фурье)

Бесконечно можно интегрировать и дифференцировать

Недостатки:

1) Пределы суммирования

2) Операции деления---

4) Экспотенциальныефункци справедливы лишь в случае выполнении теоремы Котельникова










Последнее изменение этой страницы: 2018-06-01; просмотров: 154.

stydopedya.ru не претендует на авторское право материалов, которые вылажены, но предоставляет бесплатный доступ к ним. В случае нарушения авторского права или персональных данных напишите сюда...