Студопедия КАТЕГОРИИ: АвтоАвтоматизацияАрхитектураАстрономияАудитБиологияБухгалтерияВоенное делоГенетикаГеографияГеологияГосударствоДомЖурналистика и СМИИзобретательствоИностранные языкиИнформатикаИскусствоИсторияКомпьютерыКулинарияКультураЛексикологияЛитератураЛогикаМаркетингМатематикаМашиностроениеМедицинаМенеджментМеталлы и СваркаМеханикаМузыкаНаселениеОбразованиеОхрана безопасности жизниОхрана ТрудаПедагогикаПолитикаПравоПриборостроениеПрограммированиеПроизводствоПромышленностьПсихологияРадиоРегилияСвязьСоциологияСпортСтандартизацияСтроительствоТехнологииТорговляТуризмФизикаФизиологияФилософияФинансыХимияХозяйствоЦеннообразованиеЧерчениеЭкологияЭконометрикаЭкономикаЭлектроникаЮриспунденкция |
Цифровая обработка сигналов.Стр 1 из 2Следующая ⇒
Теория информации. Лекция 1.(14.02.12) Кибернетика – совокупность законов и направленных действий, наука об управлении. Информация – атрибут, совокупность сведений, необходимых для обеспечения целенаправленных действий во всех сферах человеческой деятельности. Любое управление – информационный процесс. Подходы: 1) Философский 2) Управленческий 3) Технический 4) Правовой Информация – сведений и данные вне зависимости от формы их представления Информатика – научно – техническое направление/отрасль знаний, предметом которого является системное изучение информации в интересах информационного обеспечения деятельности общества. Информатизация – процесс практической реализации достижения информатики. Жизненный цикл информации Получение->Передача->Хранение->Преобразование/Обработка->Использование Подходы к определению количества информации: 1) Статистический (оценка с точки зрения меры неопределенности, при этом не затрагивается сам смысл информации) 2) Семантический (учет целостности/полезности информации(важен процесс старения)) 3) Структурный (для сравнения берутся элементарные структурные единицы, считается их сумма) Лекция №2. (21.02.12) Пусть в алфавите m символов, n длина сообщения. N= – размер сообщения. Хартли :I = – количество информации I = = = – формула Хартли, первая формула теории информации, 1928 год. При m=2 I= = 1 бит информации !!! Символы в алфавите должны быть равновероятны!!! I= [Хартли]=[Нат] Если буквы в алфавите не равновероятны, то формула Хартли неприменима. 1946 г. Шеннон: Если символы равновероятны :I =
I = – формула Шеннона H(A) – энтропия – количество информации на 1 символ, если в алфавите m символов и k-й символ появляется вероятностью .Формула Шеннона – обобщение формулы Хартли. Энтропия – мера неопределенности в поведении источников или численно количество информации, которую переносит один символ при неравновероятном появлении символов. Свойства энтропии: 1) Неотрицательна (H(A)=0 ó 2) Максимальна, когда Условная вероятность : вероятность того, что за последует : . Условная энтропия: H(A/ ) = Среднее количество информации, переносимое одним символом при условии??? связей. Коэффициент избыточности - максимальное количество информации, - количество информации с учетом связей Для европейских языков r 0.5 – производительность источника, бит/с. H*W= R – скорость передачи информации W- скорость образования символов, MaxR – пропускная способность канала. Основная задача – согласовать пропускную способность канала и производительность источника. Процесс передачи информации Источник =>посл. символов=>Передатчик =>сигнал=>Канал связи + помехи => Приемник => Потребитель Канал - совокупность средств обеспечения передачи электрических сигналов от источника сообщения к отправителю. Помехи искажаются сигнал – а значит принятое сообщение как правило отличается от сигнала.Помехоустойчивость системы -способность передавать информацию с заданной вероятностью при воздействии помех.
Степень соответствия – критерий вероятности X(t)->Y(t): Y(t) = X(t) + e(t) <= помеха Каналы связи и их классификация: 1) По назначению 2) По характеру линий связи 3) ? 4) По описанию математической модели 5) По влиянию помех? По назначению: 1) Телефон 2) Телеграф 3) Телевизор 4) Звуковое вещание По способу распространения: 1) Радиосвязь 2) Проводная связь 1) Воздушная 2) Кабельная 3) Волноводная 4) Световоздушная По внешнему искажению и влиянию помех: 1) Линейные помехи 2) Не линейные помехи 3) Детерминированные помехи 4) …
Лекция 3.(28.02.12) Котельников 46 год – основы теории потенциальной помехоустойчивости. Помехоустойчивость –предельно достижимая помехоустойчивость при заданной помехе. Одна из основных задач ТИ – разработка методов анализа и синтеза помехоустойчивых систем передачи информации - выбор и обоснование критериев для различных условий передачи информации - анализ помехоустойчивости методов и алгоритмов передачи информации - разработка технических и программных средств для оптимальной передачи информации Задачи решены при условии, что способ передачи задан и известны характеристики помех. Кодирование: 1) Эффективное 2) Корректирующее Цель эффективного кодирования – повышение скорости передачи информации вплоть до приближения таковой к пропускной скорости канала. Основа – т. Шеннона для канала без помех. т. Шеннона для канала без помех: Для канала без помех всегда можно создать систему эффективного кодирования дискретных сообщений, у которых среднее количество двоичных кодовых сигналов на 1 символ будет приближаться как угодно близко к энтропии источника сообщений. Цель корректирующего кодирования – повышение вероятности передачи информации путем обнаружения и исправления ошибок. Основа – т. Шеннона для канала с помехами. т. Шеннона для канала с помехами: И для канала с помехами всегда можно найти такую систему кодирования, при которой сообщения будут передаваться со сколь угодно большой степенью вероятности, если только производительность источника не превышает пропускную скорость канала. Кодирование – процесс преобразования элементов дискретного сообщения в соответствующие числа, выраженные кодовыми символами. Число различных символов – основание кода, значимость кода – число символов кодовой комбинации – последовательность кодовых символов, соответствующих одному элементу дискретного сообщения. Если все комбинации содержат одинаковое число символов – код равновероятный. т. Кодирования –абстрактная математическая теория представления символов произвольного источника с помощью заданного алфавита. Основное понятие – избыточность 1) Дополнение до четности Избыточность (n+1)/n , где n – длина дополняемого блока – обнаруживает одиночную ошибку, не исправляет. 2) Квадратный(прямоугольный) код – дополнение до четности по строкам и столбцам + 1 бит, дополняющий доп строку и доп столбец, выявляет 2 и устраняет одну ошибку, избыточность m*n/((m-1)*(n-1)) 3) Треугольный код – дополняет угол до четности, выявляет 2 и устраняет одну ошибку, избыточность 1+ 2(n-1). 4) Кубический код дополнение x,y,zпо 1 биту, выявляет 2 и устраняет одну ошибку, избыточность n*m*y/((n-1)*(m-1)*(y-1)). Лекция 4. (06.03.12) Сигнал – источник информации. - аналоговый - дискретный Дискретный сигнал, который дискретизирован по амплитуде, называется цифровым. Или аналоговый, квантованый по времени и амплитуде. Совокупность алгоритмов и научных достижений (цифровая обработка сигналов) – часть теории информации. 1965 год – первая работа по обработке цифровых сигналов – Кули, Тьюки. Математические основы: 1) Классическая математика 17-18 веков 2) Появление компьютеров 3) Достижения микроэлектроники Цифровая обработка сигналов. 1. Базовые алгоритмы 2. Рациональные способы реализации алгоритмов 3. Алгоритмы решения прикладных задач
Применение: радиолокация, обработка изображений, анализ атомных взрывов, томография и т.д. Преобразование Фурье: Х(jw)= Погрешности: 1. Предел суммирования 2. Из-за замены интеграла суммой 3. Округления
Лекция 5. (13.03.12) Свойства ДПФ: 1) Линейность 2) Периодичность (X(k)=X(rN+k)) 3) Симметрия 4) Теорема Парсеваля 5) Свертка Физический смысл ДПФ: Пусть исходная последовательность состоит из действительных чисел.
Оценка числа операций.
Для реальных вычислений используют БПФ со сложностью N Кули и Тьюки –первая работам по БПФ. БПФ с прореживанием по времени.
Можно брать по времени и по частоте.
Разреженныемтрицы позволяют сократить число операций. Итог: если длина массива небольшая, то от БПФ нет смысла, только если надо считать в реальном времени.
Лекция 6. (27.03.12) Вычисление обратного ДПФ через прямое. 1) X*(k) вместо X(k) 2) ДПФ для X* 3) Результат п2 заменить на комплексно-сопряженные 4) Результат п3 разделить на N Код Грея - Такая система кодирования, где 2 соседних значения отличаются только в 1-м разряде: 1) Используются в механических преобразованиях 2) Сведение ошибок к минимуму Быстрые алгоритмы применимы для составного значения N N= Тут был первый тест. Лекция 7. (03.04.12)
Минусы Хартли: 1) Его не все знают 2) Преобразование Фурье уже давно используется 3) Коэффициенты Фурье – разложение на cosи sin, а Хартли сдвинут на 45 градусов.
Цифровая интерполяция. 1) Базовые алгоритмы 2) Быстрые алгоритмы
Существуют 3 группы базисных функций. 1) Степенные полиномы 2) Тригонометрические функции 3) Экспотенциальные функции
1) Степенные полиномы: +наглядность +удобство дифференцирования и интегрирования Существует несколько способов интерполяции 1) С узлами 2) С равноотстоящими узлами 3) С неравноотстоящими узлами 4) Методы сплайн-интерполяции (интерполяция кусками) Ньютон, Стирлинг, Бессель, т. Ролля. 2) Тригонометрические функции (+Фурье) Бесконечно можно интегрировать и дифференцировать Недостатки: 1) Пределы суммирования 2) Операции деления--- 4) Экспотенциальныефункци справедливы лишь в случае выполнении теоремы Котельникова |
||
Последнее изменение этой страницы: 2018-06-01; просмотров: 154. stydopedya.ru не претендует на авторское право материалов, которые вылажены, но предоставляет бесплатный доступ к ним. В случае нарушения авторского права или персональных данных напишите сюда... |