Прохождение случайных процессов через линейные цепи.
Понятие линейной системы и анализ линейных систем. Применение дифференциальных уравнений. Применение импульсных характеристик. Применение частотных характеристик. Нелинейные безынерционные преобразования случайных процессов.
Обнаружение и оценка параметров сигналов в присутствии шумов.
6.1. Описание сигнала и помехи. Типы решаемых задач. Проверка статистических гипотез (выборка, выборочное пространство, функция правдоподобия, гипотезы простые и сложные, решения, правила решения, вероятности ошибок). Статистика, критерий качества принятия решений, матрица потерь, условный риск, средний риск.
6.2. Проверка двухальтернативных гипотез:
критерий Байеса, минимаксный критерий, критерий максимума апостериорной вероятности, критерий максимума правдоподобия, критерий Неймана-Пирсона, последовательный анализ Вальда, рабочая характеристика.
6.3. Обработка непрерывных сигналов. Функционал правдоподобия. Функционал отношения правдоподобия.
6.4. Применение функционала отношения правдоподобия для обнаружения полностью известного сигнала (алгоритм, вероятности ошибок) и сигнала со случайной фазой (алгоритм, вероятности ошибок).
Оценка параметров сигналов.
7.1. Точечная оценка, интервальная оценка. Свойства точечных оценок (состоятельность, несмёщенность, эффективность, достаточность). Неравенство Рао-Крамера. Оценка математического ожидания и дисперсии нормального распределения.
7.2. Применение функционала правдоподобия для оценки параметров сигнала. Оценка временного положения сигнала. Постановка задачи, шумовая и сигнальная функции и их характеристики, отношение сигнал/шум, определение сигнальной функции для прямоугольного видео сигнала, обработка пачки сигналов (отношение сигнал/шум).
7.3. Реализация алгоритма оценки временного положения сигнала. Корреляционный приемник, согласованный фильтр (импульсная и частотные характеристики, сигнал на выходе согласованного фильтра, отношение сигнал/шум, оптимальность согласованного фильтра, соотношение между реальным и согласованным фильтрами).
Теория информации
Теорема Котельникова для случайных процессов.
Квантование сигнала.
Мера информации.
3.1. Мера информации по Фишеру, по Хартли.
3.2. Мера информации по Шеннону (определение, энтропия и ее свойства, энтропия произведения ансамбля, энтропия непрерывного ансамбля Энтропия сигнала с ограниченной областью определения. Энтропия сигнала с неограниченной областью определения, но с ограниченной мощностью), Количество взаимной информации, частные количества взаимной информации. Эпсилон энтропия (ε- энтропия). Коэффициент сжатия, коэффициент избыточности.
4. Кодирование источника независимых сообщений: кодовое дерево, префиксность кода, равномерное кодирование, кодирование по методу Шеннона, кодирование по методу Хафмена, теорема Шеннона о кодировании источника. Характеристики источника и кодера источника.
5. Канал связи. Классификация. Скорость передачи информации и пропускная способность.
5.1. Канал без шумов: пропускная способность, теорема Шеннона для канала без шумов.
5.2. Канал с шумами: двоичный симметричный канала (пропускная способность), теорема Шеннона о пропускной способности для канала с шумами.
5.3. Непрерывный по ансамблю канал связи. Модель непрерывного канала. Пропускная способность непрерывного канала. Ограничения на сигнал. Теорема Шеннона о пропускной способности для сигнала и шума, ограниченных по мощности.
5.4. Частотно-ограниченный канал. Сигнал, ограниченный по частоте и во времени. Шум, ограниченный по частоте и во времени. Теорема Шеннона о пропускной способности канала для сигналов, ограниченных по частоте и во времени. Объем канала и сигнала.