Единое окно доступа к образовательным ресурсам

Теория электрической связи. Конспект лекций

Голосов: 0

Издание посвящено базовой дисциплине в системе подготовки бакалавров - Теории электрической связи. Для решения задач анализа систем связи приведены необходимые сведения, содержащие описание моделей сообщений, сигналов, помех, методы формирования и преобразования сигналов. Рассмотрены преобразования сигналов в типовых функциональных узлах систем связи, излагаются основные закономерности и методы анализа потенциальной помехоустойчивости и пропускной способности каналов связи. Изложены основы теории информации и безызбыточного кодирования сообщений, основные модели каналов электросвязи, принципы многоканальной связи и распределения информации. Рассмотрены вопросы оценки эффективности систем связи и основы помехоустойчивого кодирования и его применение в системах связи. Издание предназначено для студентов, обучающихся по направлению 210700 "Инфокоммуникационные технологии и сети связи".

Приведенный ниже текст получен путем автоматического извлечения из оригинального PDF-документа и предназначен для предварительного просмотра.
Изображения (картинки, формулы, графики) отсутствуют.
                                                 90

способностью канала. Иначе пропускная способность – это максимальная
скорость передачи информации:
                              C  max V .
                                               p ( xi )

      Пример. Рассмотрим двоичный симметричный канал
                                 C = maxVM[H(X) – H(X / Y)];
                                      1                         1               1            1
            H ( X )  p ( x1 ) log          p ( x 2 ) log             P log  Q log ;
                                   p( x1 )                   p ( x2 )          P            Q
                                                          1            1
                                  H ( X / Y )  p log  q log ,
                                                          p            q
откуда
                                            1             1            1           1
                   C  VM max  P log  Q log  p log  q log  .
                                   
                                            p             q            p           q 
      Подставив Q = 1 – P, найдём максимум по переменной P:
                   C                P 1                          1 P
                         log P               log(1  P )             (ln 2) 1  0 ;
                    P               P ln 2                       1 P
                                     P
                              log         0  P  1 P  P  Q .
                                  1 P
      Отсюда следует
                                                       1             1
                                  C  Vк 1  p log  q log  .
                                                        p            q
      Пропускная способность первичного симметричного канала
                                                 m 1                          1 
                   C  V M log m  p 0 log                (1  p 0 ) log               .
                                                  p0                       (1  p 0 ) 
                                                                                       
      Пример. Двоичный канал со стиранием:
                                             q p pст 
                                            p q p ;
                                                          ст 
                                           pст + p + q = 1;
                                              1              1                        1 
              C  V M (1  p ст )  p log          q log  (1  p ст ) log                 .
                                              p0             q                   1  p ст 
                                                                                           
      Пример. Пропускная способность непрерывного канала с помехами:
                  C  V к max( H (Y )  H Y (X))  V к max ( H (Y )  H ( n ) ) ,
где H(n) – энтропия шума; Vк = 1FT.
      Если канал гауссовский, то
                                       H (n )  log 2 e 2 .     n
      Для обеспечения максимума С необходимо, чтобы H(X)  max при
  2
 ш =const (гауссовское распределение), тогда

                                  2               2                 Pc                
       С  2 FT log 2 e( Pс   ш )  log 2 e ш  2 FT log 1  2
                                                                 
                                                                                       .
                                                                                       
                                                                     ш                


                                                  91

Окончательно имеем (рис. 13.2):
                                             2
                           С  2FT log(1  hс/ш ) .
                                   С




                                    0
  Рис. 13.2. Зависимость пропускной способности от полосы частот канала
                                           Pc
                       2  kTF ; C   lim C 
                        ш                   2
                                                              2
                                               log e  1, 44 hc/ш .
                                F       ш
     Пример. Сравнение пропускных способностей дискретного и непре-
рывного каналов:
                      Cд              1           1
                           21  p log  q log  ;
                      F               p          q
                         Cн            2
                             log(1  h0 / Tc Fc ) ;
                         F
                       lim Cд  2 ; lim C н   .
                                   2                    2
                                  h0                 h0  


              13.1 Энтропия непрерывных случайных величин

      Абсолютная энтропия не существует, так как справедливо:
                                                                                         
     H ( X )  lim    p ( x k ) log p ( x k )   lim    W ( x k ) x log(W ( x k )  x )  
               x  0                            x  0                                      
                                                                                         
                                  
                                W ( x) log W ( x )dx  lim log x ,
                                                                x  0
                                  
где lim log x   .
    x  0
      Так как абсолютной энтропии не существует для непрерывной случай-
ной величины, то используют относительную энтропию
                             Н*(х) = Н(х) – Н(х0),
где H(x0) – энтропия некоторого эталонного распределения.
      Часто в качестве эталонного распределения выбирают равномерный
закон, тогда
                             H ( x0 )   lim log x ,
                                                   x 0  0

поэтому относительная энтропия рассчитывается по формуле
                                             
                                  H ( x)    W ( x) log W ( x )dx .
                                             


                                                             92

          13.2 Случайная величина с максимальной энтропией

     Требуется найти значение:
                                                 H ( X )  max
                                                                        W ( x)

при ограничениях
                                             b

                                              f i (W ( x)) dx  ci .
                                             a
     Например, если
                              b                                                  b

                               W ( x)dx  1, то H ( x)    W log Wdx ;
                              a                             a
функция Лагранжа может быть представлена в виде:
                                  W log W + W = = f(W, );
тогда можно найти экстремум дифференцированием функции Лагранжа:
                           F           
                                  1        (1  log W )  1  0 .
                          W           W
                
      Если W = 2 – 1 = const, т. е. закон распределения равномерный, то
                                                                1
                        2  1 ( d  a )  1 или 2  1 
                                                              ba .
      Из всех законов распределения с одинаковым интервалом значений
максимальной энтропией обладает равномерный закон
                                  b
                                     1
                      H ( x)            log( b  a ) dx  log( b  a ) .
                                  a
                                    ba
      Если случайная величина имеет фиксированную дисперсию, то огра-
ничения запишутся в виде:
                                                                       
                                    2                           2
                                   x W ( x)dx                    ;     W ( x)dx  1;
                                                                       
функция Лагранжа:
                  f (W , 1 ,  2 )  W log W   1W   2 x 2W ;
в результате дифференцирования получим уравнения относительно неиз-
вестных:
                       f
                              (1  log W )   1   2 x 2  0 ,
                      W
откуда
                                                                               
                         2 x 2 1 1            2 x2        1 1                       2
                                                                                    2  x  1     2
           W ( x)  e        e          ;   e           e            dx  1 ;    x e 2 e 1 dx   .
                                                                               
Отсюда получим
                                                  1                              1
                                    2            2
                                                      ; e 1 1                      ,
                                                 2                              2 
поэтому


                                                      93

                                                                x2
                                    1     
                                             2
                           W ( x)       e 2 .
                                    2 
     Задача. Найти энтропию, если случайная величина положительна и её
математическое ожидание фиксировано:
                                                         

                               W ( x)dx  1,  xW ( x) dx  a .
                                            


          13.3 Энтропия непрерывного случайного сигнала

      По теореме Котельникова непрерывную случайную величину пред-
ставляем совокупностью дискрет
                               n = 2FT,
поэтому
                                      
                H ( x т (t )) 
                                  
                                     Wn ( x1 , , xn ) log W ()dx1  dx n .
     Для гауссовского ограниченного по спектру белого шума
                                             2 FB T
                          H ( x т (t ))      H ( xi )  2 FBTH ( xi ) ;
                                             i 1

                                       H ( xi )  log 2e 2 ,
следовательно
                              H ( x т (t ))  2 FB T log 2 e 2 .
                                                               x
     Из формулы следует, что увеличение FB приводит к увеличению эн-
тропии.


                                    94


                         Лекция 14
               ОПТИМАЛЬНЫЙ ПРИЁМ СООБЩЕНИЙ

                14.1 Критерии минимума среднего риска

       В различных системах связи процесс передачи информации связан с
выделением полезных сигналов из смеси с шумом и помехами, обнаружени-
ем сигнала на фоне шума и оценкой параметров сигнала. Мы фактически пе-
речислили три наиболее важные задачи, которые приходится решать в СПИ.
       Задача оптимального обнаружения может быть сформулирована
следующим образом.
       Пусть на приёмном конце наблюдается колебание
                          X(t) = AuS(t) + n(t), t  [0, T),
где А = 0 если сигнала нет, А = 1 – если сигнал присутствует.
       Наблюдатель должен принять решение о наличии или отсутствии сигнала.
       Задача различения сигналов является специфической для систем свя-
зи, так как для передачи информации используется N сигналов
                              uS1(t), uS2(t), …, uSn(t).
       Сигналы могут отличаться амплитудой, фазой, частотой и другими па-
раметрами. На вход приёмника поступает смесь сигналов и шума
                                 X(t) = uS1(t) + n(t)
и необходимо определить какой именно сигнал передаётся.
       Задача оценки параметров сигнала возникает после того, как сигнал
обнаружен. В системах связи обычно измеряют время задержки сигнала в ка-
нале связи, доплеровское смещение частоты и др.
       Так как сигнал смешан с шумом, то точное измерение параметров сиг-
нала невозможно, поэтому параметры можно только оценить:
                            X(t) = uS(t, и, ни) + n(t),
где и – информационные параметры.
       Наблюдатель, принимая в течение времени T колебание X(t) и анализи-
руя его по определённым, оптимальным правилам, даёт оценку *и , в наи-
меньшей степени отличающуюся от истинного значения. Значения и пред-
полагаются неизменными.
       Фильтрация и предсказание сигналов – это обработка смеси сигнала
и шума таким образом, что фильтрация описывается формулой
                                   S*(t) = f(x(t)),
а прогнозирование – формулой
                                 S*(t + t0) = f(x(t)).
       Существуют и другие задачи обработки сигналов.
       В общем случае на основании принятой реализации
                                    y(t) = uS(t) + n(t)


                                                         95

принимаем решение , что передавалось сообщение x, т. е. у    х. Так как
решение принимается статистически, то потери всё равно существуют, по-
этому для их характеристики вводится параметр с(х,) – функция потерь.
      Пример:
      Линейная функция потерь             с(х,) = |–x|.
      Квадратичная функция потерь         с(х,) = (–x)2.
                                                      0, k  l ,
      Простая функция потерь              с(хk,c) =            .
                                                       c, k  l
      За показатель качества принимается функция среднего риска:
                                  R  c ( x,  ) ,
в которой усреднение проводится по всем возможным реализациям x и .
      В качестве критерия используется минимум среднего риска
                                  R  min,
и, следовательно, оптимальной называется та система, которая позволяет по-
лучить минимальную величину среднего риска:
                                              n     n
                                          R       c( x k ,  l ) p ( x k ,  l ) .
                                             k 1 l 1
      Если в качестве функции потерь выбрать простую, то критерий min R
переходит в критерий минимума полной или средней вероятности ошибочно-
го приёма
                                      n      n                         n
                      R  c  p ( xk ) p(  i / x k )  c p( xk ) Pxk  cPош ,
                                  k 1      i 1                      k 1
                                            i k
       n
где    p( i / xk )  pош       jk
                                      – вероятность ошибочного приёма; Р – полная (сред-
      i 1
      ik
няя) вероятность ошибочного приёма.
                   14.2 Критерии и правила принятия решения

      Итак, оптимальным правилом принятия решения является правило ми-
нимума условного среднего риска
                         Ry(m) < Ry(i), i  1, N , i  m,
в результате получаем байесовские правила принятия решения
                      n    n                                   n              n
               R   c( x k ,  i ) p ( xk ,  i )   p (  i ) c ( x k ,  i ) p ( xk /  i ) ,
                     k 1 i 1                                l 1           k 1
       n                         n
где    p(  i ) = const;  c( xk ,  i ) p( xk /  i )  R y – условный средний риск. Если
      l 1                     k 1
минимизировать Ry, то придём к min R:


                                                       96

                                          n
                                 R y   c( xk ,  i ) p( xk /  i ) ,  = f(y).
                                         k 1
      Будем рассматривать детерминированные зависимости:
                                                                    i  1  R y1 
                      n
                                                                                 
                                                                    i  1  R y2 
               R y   c( xk ,  i ) p( xk / y ) , i  1, n , т. е.              .
                     k 1                                            
                                                                    i  1  R yn 
                                                                                 
      Оптимальное правило решения:
                            n                                  n

                            c( xk ,  m ) p ( x k / y )   c( xk ,  i ) p ( xk / y ) .
                           i 1                            i 1
                                                                                               (14.1)

      Если считать, что функция потерь простая, то
                     N                          N
                 c p ( xk / y )  c  ( x k / y )  c(1  p ( x j / y )) , i  1, N ;
                    i 1                      k 1
                    i j                      i j

                           c 1  p ( x j / y )   c 1  p ( x k / y )  , i  1, N , ij.   (14.2)
     Максимум апостериорной функции распределения вероятностей
                               p ( x j / y )  p ( x k / y ) ,.
     Если вспомнить формулу Байеса, то можно перейти от апостериорной
вероятности к правилу функции максимального правдоподобия:
                                            p ( x j ) p( y / x j )
                        p( x j / y )  N                           ;
                                          p ( yi / x j ) p( xk )
                                                     i 1
                N
Знаменатель     p( yi / x j ) p( xk )  const ,
               i 1
                                                            поэтому p(xj)p(y/xj) > p(xk)p(y/xk), если

p(xi) = p(xj), получаем правило функции максимального правдоподобия
                                       p(y/xi) > p(y/xk).
       Часто используется отношение правдоподобия
                                p ( y / x1 ) p ( x 2 )c ( x 2 ,  1 )
                         12                                          0 , (14.3)
                                p ( y / x 2 ) p ( x1 )c( x1 ,  2 )
где 0 – пороговое значение.
       Если в формуле (14.3) стоит знак «>», то выносится решение, что при-
нят сигнал «1», если знак «<» – то принят сигнал «0».
       Таким образом, оптимальное правило приёма сводится к вычислению
отношения правдоподобия и сравнению его с порогом.
       Кроме отношения правдоподобия используют логарифм отношения
                                           p ( x2 )      c( x2 /  1 )
                             ln   ln               ln               .
                                           p( x1 )       c( x1 /  2 )


                                                         97

        14.3 Синтез оптимального приёмника двоичных сообщений

      Для синтеза оптимального приёмника двоичных сообщений существу-
ют следующие ограничения.
      1. Помеха аддитивная и флуктуационная
                                                                       n
                                                           1                1T 2
                                                                                            
                                                                                             
                  y(t) = s(t) + u(t), Wn (u n )                       exp   u N (t )dt  .
                                                           2              N0
                                                                                            
                                                                                             
      2. Сигнал известен точно (рис. 14.1).
      3. Априорные вероятности p(x1) =p(x2)= 0,5.
      4. Оптимальное правило решения – максимум функции правдоподобия.
      Можно предложить два варианта решения.
      1. Оптимальный приёмник на активных корреляторах.
      2. Оптимальный приёмник на пассивных корреляторах (согласованных
фильтрах).
      1. Оптимальный приёмник на активных корреляторах (рис. 14.2)
                                     x1
             p ( x1 )
                        p ( y / x1 )   p ( y / x 2 ) ; y(t) = s(t) + uп(t), s1(t)x1,s2(t)x2,
             p ( x2 )                   x2

                                                                                  n           T
         с2                                                              1         
                                                                                       1        2
                                                                                                        
                                                                                                        
                   un2                                   Wn (u u1 )           exp   u u1 (t )dt  ;
                                                                          2        N 0
                                                                                                       
                                                                                                        
         S2
                                                                                   n
                 y(t)
                               un1                                        1          1T 2
                                                                                                         
                                                                                                          
                                        с1               Wn (u u 21 )          exp   u u 2 (t ) dt 
                     S1                                                   2        N 0
                                                                                                         
                                                                                                          
    Рис. 14.1. Принятый сигнал
     в фазовом пространстве

                                T                        T                        
                                                                    
                        exp  1 u 2 (t ) dt   exp  1 u 2 (t ) dt  p ( x 2 )  .
                    ln
                                u
                              N 0 1
                                              
                                              
                                                          u
                                                       N 0 2
                                                                       
                                                                        p ( x1 ) 
                                                                              
                             T                   T
                                   2                 2
                                u N1 (t )dt     u N 2 (t ) dt ; y(t) = s(t) + uп(t),
                             0                   0
                              T                           s1        T
                                                     2                              2
                                   y (t )  s1 (t ) dt     y (t )  s2 (t ) dt .
                                                            s  2
                                                                                                   (14.4)
                                 0                                  0
     Правило минимальных расстояний (рис. 14.2) после раскрытия скобок
переходит в правило максимума корреляции при Е1 = Е2
                                        T                 s1        T
                                 r j   y (t ) s1 (t ) dt    y (t ) s 2 (t ) dt  ri .
                                                               s2
                                        0                           0
     На практике часто находят применение неоптимальные структурные
схемы:
      когерентные без накопления (ФНЧ),
      некогерентные с накоплением (рис. 14.3),
      некогерентные без накопления (рис. 14.4).


                                                      98

                                       Г1        Кор. 1
                                        S1(t)

                                               
                                                                             x1 
                       y(t)                                 Схема
                                                           сравнения
                                                                             x2 
                                               
                                        S2(t)
                                       Г2        Кор. 2

               Рис. 14.2. Схема корреляционного приёмника

                                             КО
                                                                       x1
                               y(t)                    Схема
                                                      сравнения
                                                                       x2
                                             КО
        Рис. 14.3. Когерентный приёмник с накоплением (r1 – r2 > 0)

                                                     АД
                                                                                x1
                    y(t)
                                                                  СС
                                                                                x2
                                                     АД
  Рис. 14.4. Структурная схема некогерентного приёмника без накопления
     На рис. 14.4 обозначено: АД – амплитудный детектор; СС – схема
сравнения.
     2. Схема оптимального приёмника двоичных сообщений на согла-
сованных фильтрах (рис. 14.5)
                               Согласованный
                                  фильтр                                            x1
                   y(t)                                     Схема
                                                           сравнения
                                                                                    x2
                               Согласованный
                                  фильтр
 Рис. 14.5. Оптимальный приёмник двоичных сообщений на согласованных
                               фильтрах

s(t) s(j) – зависимость от спектра                               А
АЧХ А = f()                                                                             
ДЧХ = ()                                                   k(j)
                                                            Sвх       Sвых
k( j) – передаточная характеристика                             СФ
       При известном сигнале на входе и передаточной характеристике можно
найти сигнал на выходе
                  вх(t) sвх(j); sвых(j)= k(j)sвх(j) sвых( j).


                                             99

       Определение. Под с о г л а с о в а н н ы м ф и л ь т р о м понимается
такой фильтр, АЧХ которого с точностью до постоянной величины С совпа-
дает с АЧХ сигнала, а ФЧХ – с точностью до постоянной t0 противополож-
но ФЧХ сигнала
                                k ( j)  Cs * ( j)e  jt 0 ,
где знак «*»означает комплексно сопряжённые числа.
       Пример. Найти передаточную характеристику согласованного фильтра
(рис. 14.6) для сигнала, имеющего следующий вид:
                                           1
                                 s ( j) 
                                           j
                                                  
                                                1  e  j T        
– спектр прямоугольного импульса
                              c j t                         c
                   k ( j)  
                             j
                                         
                                e  1 e  j t o        
                                                             j
                                                                        
                                                                1  e  j T ;          
                                                  t T  0

                                        s (t 0 ) 
                                                  .
                                             max

                                                  Sвх                   S1                       Sвых
                                                            Интегр.
         А               А       S1
         1               1                                     с             Задержка
                                      Sвых                                                  S2
                     t                        t               j
               T             T          S2                                      T
             Рис. 14.6. Схема и импульсная характеристика СФ
      Составим структурную схему согласованного фильтра для следующего
вида сигнала 1 11 0 0 1 0.
      1 11 –1 –1 1 –1 – сигнал имеет хорошие автокорреляционные свойства.
      s1 – – – + + – +
      s2 + + + – – + –
      s3       – ––++ – +
      s4          –––+ + –+
      s5            +++ – –+ –
      s6              ++ + –– +–
      s7                + + +– –+ –
         -1 0 -1 0 -1 0 +7 0 -1 0 -1 0 -1



    
Яндекс цитирования Яндекс.Метрика