Единое окно доступа к образовательным ресурсам

Математические основы передачи информации (части 3 и 4): Учебное пособие

Голосов: 1

В третьей части настоящего учебного пособия излагаются основы статистической теории обнаружения сигналов и элементы теории фильтрации. Четвертая часть посвящена основам теории оценок параметров сигналов. Все теоретические положения иллюстрируются примерами. Учебное пособие предназначено для студентов, обучающихся по направлениям подготовки бакалавров и магистров 551900 "Оптотехника".

Приведенный ниже текст получен путем автоматического извлечения из оригинального PDF-документа и предназначен для предварительного просмотра.
Изображения (картинки, формулы, графики) отсутствуют.
                        Е.Г. Лебедько

МАТЕМАТИЧЕСКИЕ ОСНОВЫ
 ПЕРЕДАЧИ ИНФОРМАЦИИ
       (части 3 и 4)


                Учебное пособие




       W ( z 0)                        W ( y s)
                        β          α
                                                  Z

                            kN
 ∞

 ∫ g (t )S (t )dt
 0
                             E



                        t




                    Санкт-Петербург
                            2009


МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ ФЕДЕРАЦИИ

        ФЕДЕРАЛЬНОЕ АГЕНТСТВО ПО ОБРАЗОВАНИЮ

   САНКТ-ПЕТЕРБУРГСКИЙ ГОСУДАРСТВЕННЫЙ УНИВЕРСИТЕТ
    ИНФОРМАЦИОННЫХ ТЕХНОЛОГИЙ, МЕХАНИКИ И ОПТИКИ




                   Е.Г. Лебедько

        МАТЕМАТИЧЕСКИЕ ОСНОВЫ
         ПЕРЕДАЧИ ИНФОРМАЦИИ
               (части 3 и 4)


                  Учебное пособие




                   Санкт-Петербург
                        2009


    Лебедько Е.Г. Математические основы передачи информации. Ч.3, 4:
учеб. пособие для вузов.- СПб: СПбГУИТМО, 2009.- 120 с.


     В третьей части настоящего учебного пособия излагаются основы
статистической теории обнаружения сигналов и элементы теории
фильтрации. Четвертая часть посвящена основам теории оценок
параметров сигналов. Все теоретические положения иллюстрируются
примерами.

    Учебное пособие предназначено для студентов, обучающихся по
направлениям подготовки бакалавров и магистров 551900 «Оптотехника».

    Рекомендовано     Учебно-методическим     объеденением   вузов
Российской Федерации по образованию в облости приборостроения и
оптотехники для студентов высших учебных заведений, обучающихся по
направлению подготовки 200200 – Оптехники и специальности 200203 –
Оптико-электронные приборы и системы, протокол № 407 от 30.10.09




    СПбГУ ИТМО стал победителем конкурса инновационных
образовательных программ вузов России на 2007-2008 годы и успешно
реализовал инновационную образовательную программу «Инновационная
система подготовки специалистов нового поколения в области
информационных и оптических технологий», что позволило выйти на
качественно новый уровень подготовки выпускников и удовлетворять
возрастающий спрос на специалистов в информационной, оптической и
других высокотехнологичных отраслях науки. Реализация этой программы
создала основу формирования программы дальнейшего развития вуза до
2015 года, включая внедрение современной модели образования.


                  © Санкт-Петербургский государственный университет
                 информационных технологий, механики и оптики, 2009
                  © Лебедько Е. Г., 2009


© Е.Г. Лебедько, 2009


                                         СОДЕРЖАНИЕ

ПРЕДИСЛОВИЕ...................................................................................................... 6
Часть 3. СТАТИСТИЧЕСКАЯ ТЕОРИЯ ОБНАРУЖЕНИЯ............................... 5 
 3.1. Основы статистической теории обнаружения сигналов .......................... 5 
   3.1.1. Априорные и апостериорные вероятности, формула Байеса ............ 5 
   3.1.2. Понятие отношения правдоподобия .................................................... 9 
   3.1.3. Вероятности правильных и ошибочных решений ............................ 12 
   3.1.4. Статистические критерии качества принятия решений ................... 14 
   3.1.5. Структура оптимального обнаружителя ............................................ 22 
   3.1.6. Обнаружение сигналов на фоне гауссовых шумов ......................... 24 
   3.1.7. Обнаружение при пуассоновской статистике сигнала и шума ....... 35 
   3.1.8. Последетекторное обнаружение ......................................................... 38 
   3.1.9. Вычисление условных вероятностей ошибок обнаружения ........... 41 
   3.1.10. Последовательное обнаружение ....................................................... 53 
 3.2. Элементы теории фильтрации сигналов ................................................. 58 
   3.2.1. Оптимальная линейная фильтрация с позиции максимума
   отношения сигнала к помехе ......................................................................... 58 
   3.2.2. Согласованный фильтр ........................................................................ 59 
   3.2.3. Синтез согласованных фильтров ........................................................ 63 
   3.2.4. Оптимальные линейные фильтры для приема
   детерминированных сигналов на фоне окрашенных шумов ..................... 66 
   3.2.5. Оптимальная фильтрация с позиции минимума искажения
   полезного сигнала........................................................................................... 69 
Часть 4. ОЦЕНКА ПАРАМЕТРОВ СИГНАЛОВ .............................................. 75 
 4.1. Байесовская оценка случайных параметров ............................................ 75 
 4.2. Оценка неизвестных параметров, граница Крамера-Рао ........................ 80 
 4.3. Оценка по максимуму правдоподобия ..................................................... 84 
 4.4. Оценка энергетического параметра .......................................................... 87 
 4.5. Оценка неэнергетического параметра ...................................................... 89 
 4.6. Совместная оценка нескольких параметров ............................................ 97 
 4.7. Аномальные погрешности при оценке параметров .............................. 104 
ПРИЛОЖЕНИЕ. Решение интегральных уравнений ...................................... 107 
ЛИТЕРАТУРА ..................................................................................................... 113 


                        ПРЕДИСЛОВИЕ
     Настоящее учебное пособие посвящено изложению основ теории
статистических решений, в основе формирования которой оказались такие
дисциплины как: теория оценки параметров (работы англичанина
Р. Фишера, шведа Г. Крамера, советского академика Ю.В. Линника);
теория испытания гипотез (работы американского математика
Ю. Неймана,     английского     Е. Пирсона,   советского   академика
А.Н. Колмогорова); теория игр (фундамент заложил французский
математик Э. Борель, развил американский ученый Дж. Фон-Нейман).
     Объединение и развитие ряда идей этих теорий позволило
американскому математику А. Вальду построить общую дисциплину,
названную им теорией решающих функций. Американским ученым
Д. Миддлтоном методы теории решающих функций успешно были
использованы для решения прикладных технических задач связи и
локации. В результате последующих работ известных зарубежных и
советских ученых, таких как К. Хелстром, В. Давенпорт, Г. Ван Трис,
В.И. Тихонов, Б.Р. Левин, С.Е. Фалькович и др., сформировалась
теоретико-техническая дисциплина – теория статистических решений,
которую можно считать важнейшей главой общей теории связи, локации и
управления. В пособии изложены два раздела прикладной теории
статистических решений: статистическая теория обнаружения сигналов, в
которую вошли также элементы теории фильтрации, и оценка параметров
сигналов.




                                  4


                                 Часть 3
       СТАТИСТИЧЕСКАЯ ТЕОРИЯ ОБНАРУЖЕНИЯ
    Задача обнаружения сигналов формулируется следующим образом.
Пусть имеется некоторое число различных сигналов si ( t ) , из которых
лишь один передается на интервале наблюдения T . Полезные сигналы –
сигналы,       имеющие      информационные     параметры,    могут   быть
детерминированными, квазидетерминированными, либо случайными.
Прием таких сигналов осуществляется на фоне мешающего воздействия –
помехи x ( t ) , вероятностные характеристики которой известны. Известен и
характер композиции помехи с полезным сигналом ⎡ si ( t ) , x ( t ) ⎤ .
                                                        ⎣           ⎦
         В любом случае в приемную систему поступает случайный процесс
 y ( t ) , представляющий собой либо смесь полезного сигнала и помехи, либо
только одну помеху.
         Таким образом, после приема реализации y ( t ) могут быть выдвинуты
разные гипотезы о том, какой из сигналов si ( t ) был передан и был ли он
передан вообще. Задача статистической теории обнаружения сигналов –
дать метод принятия решения о наиболее достоверной из гипотез.
     Однако случайный характер принимаемой реализации y ( t ) приводит
к тому, что принятие решения не застраховано от ошибок. Видимо, при
принятии решения следует выбрать такую стратегию, при которой
последствия, связанные с указанными ошибками, были бы минимальными.
     В зависимости от числа возможных вариантов передаваемых сигналов
задачи обнаружениям подразделяются на двухальтернативные и
многоальтернативные.
     В двухальтернативных задачах на интервале наблюдения может
передаваться    один     из    двух   сигналов.       Частным     случаем
двухальтернативной задачи является обнаружение факта передачи или
отсутствия единственного сигнала, так как отсутствие сигнала на
интервале наблюдения эквивалентно нулевому сигналу.
     В многоальтернативных задачах требуется идентифицировать
принятый сигнал с одним из n сигналов с известными характеристиками.

    3.1. ОСНОВЫ ТЕОРИИ ОБНАРУЖЕНИЯ СИГНАЛОВ

    3.1.1. Априорные и апостериорные вероятности, формула Байеса
    Прежде всего, введем некоторые понятия. Положим, что наблюдение
проводится в дискретные моменты времени t1 , t2 ,..., tn на интервале T .
Известна n - мерная плотность вероятностей помехи


                                     5


     Wn ( x1 , x2 ,..., xn , t1 , t2 ,..., tn ) .
    Это означает, что известно, с какой плотностью вероятностей в
момент времени t = t1 помеха примет значение x ≤ x1 , в момент t = t2 -
значение    x ≤ x2 , и т.д. Эти
случайные         значения       можно                       x (t )
определить на плоскости              x, t                         x3
(рис.3.1).                                               x2
     Такое представление         можно                  x1
                                                                               xn
заменить       векторным,        считая
значения x1 , x2 ,. .., xn координатами                                                t
                      r
вектора помехи x в n - мерном
пространстве:
     r
     x = ( x1 , x2 ,..., xn ) .                         Рис. 3.1. Отсчеты случайной
      Поскольку               координаты                           функции
x1 , x2 ,..., xn - случайные величины, то
                    r
и сам вектор x должен быть случайным и характеризоваться плотностью
                       r
вероятностей W ( x ) .
                     r
     Зная Wn ( x ) , можно определить вероятность попадания конца вектора
r                                r
x в бесконечно малый объем d Ω ( x ) = dx1dx2 ⋅⋅⋅ dxn . Если
             r        r
      ∫ Wn ( x )d Ω ( x ) = 1 ,
        r
     Ω( x )
                      r
то область Ω ( x ) называется пространством помехи (или пространством
шума).
    Неизвестные параметры        a1 , a2 ,..., an передаваемого сигнала
s ( t ) = s ( t , a1 , a2 ,..., an ) можно также рассматривать как координаты
             r
вектора a , определяемого в n - мерном пространстве. И, по аналогии с
предыдущим, если
                   r         r
       ∫      Wn ( a ) d Ω ( a ) = 1 ,
        r
     Ω( a )
                     r
то область Ω ( a ) называется пространством параметров.
     Введем также понятие пространства наблюдений. Принимаемая
реализация y ( t ) = y ⎡ s ( t , a ) , x ( t ) ⎤ также является случайным процессом,
                       ⎣                       ⎦
значения которого               y1 , y2 ,..., yn в дискретные моменты        времени
t1 , t2 ,..., tn - случайные величины. Этот процесс представим вектором


                                                    6


r
y = ( y1 , y2 ,..., yn ) . Если
                  r         r
       ∫   Wn ( y )d Ω ( y ) = 1,
          r
       Ω( y )
                     r
то область Ω ( y ) называется пространством наблюдения.
     Используя введенные понятия, сформулируем условия задачи,
рассматриваемой в теории статистических решений.
     Положим известными: 1) априорную (доопытную) плотность
                    r                      r
вероятностей Wn ( a ) вектора параметров a сигнала s ( t ) ; 2) плотность
                          r                      r
вероятностей Wn ( x ) вектора помехи x ; 3) характер композиции сигнала и
шума ⎡ s ( t ) , x ( t ) ⎤ .
     ⎣                   ⎦                                             r          r
    Необходимо определить значение вектора параметров a . Вектор a
                                                                 r
определяется на основе принятой реализации y ( t ) . Но вектор y -
                                                                                  r
случайный вектор, так как его значение зависит от вектора помехи x .
                                    r
Поэтому истинное значение вектора a нельзя определить достоверно, а
можно лишь предсказать с большей или меньшей вероятностью то или
                      r
иное значение вектора a из области его возможных значений. Если бы
имелась возможность провести большое число наблюдений (опытов), то
апостериорно вероятности или плотности вероятностей различных
                  r
значений вектора a оказались бы рассеянными по всей области его
возможных значений. Однако благодаря тому, что при наблюдениях
                                                 r
получена дополнительная информация о векторе a по сравнению с
                                           r                   r r
априорной, плотность вероятностей вектора a после опытов Wn a y               (   )
(она называется апостериорной) будет иметь тенденцию большего
                                                                 r
сосредоточения вокруг истинного значения вектора параметров a , чем
априорная.
    На рис. 3.2 в качестве иллюстрации приведены равновероятная
априорная плотность вероятностей W ( a ) и апостериорная (послеопытная)
                                     (   )
плотность вероятностей W a y параметра a .
       W
                                                              Рис. 3.2. Априорная и
                                  W (α y )                апостериорная плотности
                                             W (α )            вероятностей



                                                      α
                           аист

                                             7


    Апостериорную плотность вероятностей можно рассматривать как
                                             r
условную функцию распределения вектора a при условии, что стал
                r                                      r
известен вектор y . Поскольку вся информация о векторе a заключена в
апостериорной вероятности или плотности вероятностей, то задача
                              r r           r r
                                           (          )
сводится к определению P a y или Wn a y . Для их вычисления   (   )
воспользуемся формулой Байеса. Эта формула, широко применяемая в
различных приложениях теории вероятностей, была выведена Байесом ещё
в 1783 году.
     Из теоремы умножения вероятностей известно, что вероятность
появления совместных событий определяется как произведение
безусловной вероятности появления одного события и условной
вероятности появления второго события, если первое произошло.
Следовательно,
          r r          r       r r         r       r r
      P ( a, y ) = P ( a ) P ( y a ) = P ( y ) P ( a y )
или
           r r            r       r r          r       r r
      Wn ( a , y ) = Wn ( a )Wn ( y a ) = Wn ( y )Wn ( a y ) .
Отсюда находим:
                 r     r r
        r r    P(a) P( y a)
      P(a y) =       r                                                  (3.1)
                  P( y)
или
                    r        r r
           r r Wn ( a )Wn ( y a )
      Wn ( a y ) =       r        .                                     (3.2)
                    Wn ( y )
Соотношения (3.1) или (3.2) носят название формулы Байеса.
                                      r
     Поскольку вектор параметра a может принимать любое из
                                                 r         r r           r
k значений, для каждого из возможных значений a , т.е. для a1 , a2 ,..., ak ,
можно записать:
          r        r r          r       r r
      P ( a1 ) P ( y a1 ) = P ( y ) P ( a1 y ) ,
          r        r r           r       r r
      P ( a2 ) P ( y a2 ) = P ( y ) P ( a2 y ) ,
      ...................................................,
           r          r r              r        r r
      P ( ak ) P ( y ak ) = P ( y ) P ( ak y ) .
Сложим почленно эти уравнения и получим
       k
            r        r r          r k       r r
      ∑ P ( ai ) P ( y ai ) = P ( y ) ∑ P ( ai y ) .                    (3.3)
      i =1                                     i =1
В правой части выражения (3.3) суммирование вероятностей проводится
                                     r
по всем возможным значениям вектора a . Каково бы ни было при этом

                                                          8



    
Яндекс цитирования Яндекс.Метрика