Единое окно доступа к образовательным ресурсам

Теория электрической связи. Конспект лекций

Голосов: 0

Издание посвящено базовой дисциплине в системе подготовки бакалавров - Теории электрической связи. Для решения задач анализа систем связи приведены необходимые сведения, содержащие описание моделей сообщений, сигналов, помех, методы формирования и преобразования сигналов. Рассмотрены преобразования сигналов в типовых функциональных узлах систем связи, излагаются основные закономерности и методы анализа потенциальной помехоустойчивости и пропускной способности каналов связи. Изложены основы теории информации и безызбыточного кодирования сообщений, основные модели каналов электросвязи, принципы многоканальной связи и распределения информации. Рассмотрены вопросы оценки эффективности систем связи и основы помехоустойчивого кодирования и его применение в системах связи. Издание предназначено для студентов, обучающихся по направлению 210700 "Инфокоммуникационные технологии и сети связи".

Приведенный ниже текст получен путем автоматического извлечения из оригинального PDF-документа и предназначен для предварительного просмотра.
Изображения (картинки, формулы, графики) отсутствуют.
                                                         40

задержка распространения сигнала  приводит к задержке приёма информа-
ции, но не к её потере.
      Для узкополосного сигнала:
                                 x (t )  A(t ) cos(0 t   (t )) ,
где A(t) и Ф(t) – медленно меняющиеся функции;
         y (t )  kA(t  ) cos(0 (t  )  (t  ))  kA(t ) cos(0 (t )   (t )  ) ,
где  = 0 – фазовый сдвиг в канале.
      При прохождении сигналов через каналы с детерминированными ха-
рактеристиками необходимо решить две задачи:
      – найти корреляционную функцию Ry(t) на выходе канала связи;
      – найти многомерную функцию распределения Wn(t).
      Преобразование в линейных цепях происходит в соответствии с линей-
ным уравнением:
                                                
                                     y (t )      g () x(t  )d ,
                                                
поэтому
                                
                               
                                                       
                                                                                    
                                                                                    
                   R y ()  M   g (t ) x(t   t )dt  g (t ) x (t     t )dt  
                               
                                                                                 
                                                                                    
                         

                            Rx () g (t1  1 ) g (t2   2 )d1d 2            или
                         
                                               
                                 R y ( )       Rx ()Rg (  )d .
                                               
       Если параметры канала связи зависят от времени, то
                                               
                                    y (t )      g (t, ) x(t  )d ,
                                               
где g(t, ) – импульсная характеристика и
                                                     
                                                                    j
                                  K (t , j)         g (t, )e           d .
                                                     
      Задача нахождения Wn(t) на выходе линейного преобразователя очень
сложна даже в случае одномерного распределения.
      Основные закономерности линейного преобразования: случайный про-
цесс с гауссовским законом распределения остаётся гауссовским, негауссов-
ский – нормализуется.


                                    41

                           Лекция 7
                   ДИСКРЕТНЫЕ КАНАЛЫ СВЯЗИ

               7.1 Классификация дискретных каналов

       В дискретном канале передают дискретное множество сигналов
(рис. 7.1). На выходе канала, в общем случае, наблюдаемых сообщений на
одно больше. Если число входных сообщений x = m, то число выходных
y = m + 1, учитывая символ стирания.
                   x(t)
                           T

                          x1   x2   x3   ...   xm
                                                    t
                     0
                   Y(t)
                           T

                          y1   y2   yl   ...   ym
                                                    t
                     0

   Рис. 7.1. Последовательности символов на входе и выходе дискретного
                                  канала
      Скорость модуляции – это скорость выдачи символов в канал связи за
одну секунду.
      Значения y выбираются из множества y  {x1, ..., xm,}.
      Символ стирания  применяется, если мы не уверены в точности сиг-
нала.
                                                              
       x = b – вектор входной последовательности; y = B – вектор выход-
                                              
ной последовательности. Векторошибки E :
                                          
                                 E = ( y – x )modm.
      Допустим передаётся последовательность:
             110010
            
             101010
             0 1 1 0 00
      Каналы с памятью могут быть заданы уравнениями:
                        y(ti) = F(x(ti), x(ti–1), ..., x(ti–m)),
где m – объём памяти.
      Простейший канал с памятью задаётся уравнением:
                               x(i) = a(i)x(i – 1),
эта зависимость влияет на спектр сигнала в КС и на корреляционную функ-
цию сигнала в КС.
      Каналы без памяти задаются уравнением:
                                   y(ti) = F(x(ti)).


                                                           42

                        Если помех нет, то x1 соответствует y1, если есть
 x1                  y1
                 помехи, то появляются ошибочные решения x1  y2 или
       КС        x1  ym. 
                        Преобразования в дискретном канале осуществля-
xm            ym ются в рамках входного и выходного алфавитов (рис. 7.2):
              c        {p(x1) p(x2)... p(xm)}, {p(y1) p(y2)... p(ym), p(c)}.
   n - ошибки           Модель преобразования задаётся переходными ве-
Рис. 7.2. Модель роятностями:
  дискретного           P(yi/xi) – вероятность правильного решения;
     канала             P(yi/xj) – вероятность ошибки;
                        P(c/xi) – вероятность стирания.
      Получаем матрицу переходных вероятностей:
                      P( y1 / x1 ) P ( y1 / x2 )  P ( y1 / xn ) 
                      P( y / x ) P ( y / x )  P ( y / x ) 
                          2    1         2    2           2    n 
                                                              
                                                                  
                      P( yn / x1 ) P ( y n / x2 )  P ( y n / xn )
                      P(c / x1 ) P (c / x2 )  P (c / xn ) 
                                                                  .
      По диагонали размещаются вероятности правильного приёма qi
                                        m                               m
(i = 1, m ),  = ym+1, Pош ( j )   P( yi / xi ) , Pош   P( xi ) Pош (i )  P0 – средняя ве-
                                       i 1                            i 1
роятность ошибки, безусловная вероятность.
         P(yj) находим из формулы Байеса
           P ( xi ) P( yi / xi )                m                                         P( x ) P( yi / xi )
P ( yi )                        , P ( y j )   P( xi ) P( yi / xi ) , P ( xi / y j )  m i                    .
               P ( xi / yi )                   i 1
                                                                                          P( xi ) P( yi / xi )
                                                                                                   i 1
Можно задать характеристику в виде смешанных вероятностей {P(xi, yi)}:
                    P( x1 , y1 ) P ( x2 , y1 )  P ( xm , y1 ) 
                    P( x , y ) P ( x , y )  P ( x , y ) 
                    1 2                2     2          m     2 
                                                             .
                                                                 
                    P( x1 , y1m ) P ( x2 , y m )  P ( xm , y m )
                    P( x1 , c ) P ( x2 , c )  P ( xm , c ) 
                                                                 
    Чтобы найти P(x1, y1) надо рассчитать
                           m                               m                                 m
               P ( x1 )   P ( x1 , yi ) , P ( yi )   P ( x j , yi ) , P ( x2 )   P( x2 , yi ) ,
                          i 1                             j 1                             i 1

                                              P( xi , y j )                        P( xi , y j )
                           P ( xi / y j )                    , P ( y j / xi )                    .
                                                P( y j )                             P ( xi )
     Объём памяти для хранения такой матрицы необходим m(m+1);  m2;
= m2+m.


                                           43

      Модель дискретного канала (рис. 7.2) содержит множество возможных
сигналов на входе и распределение выходного сигнала при заданном вход-
ном. Для входных сигналов достаточно указать число m различных символов
и длительность передачи символа T. Скорость модуляции связана с длитель-
ностью символа соотношением
                                    Vм = 1 / T.
      В общем случае для каждой кодовой комбинации (КК) b1…bn должна
быть указана вероятность того, что на выходе канала появится реализация
 B1 … Bn . Всего кодовых комбинаций – mn , вектор ошибок
   *    *


                                 mod m ( B n  b n )  E n .
      Дискретные каналы классифицируют по различным признакам. Разли-
чают дискретные каналы без памяти, в которых сигналы на выходе канала
зависят только от переданных в данный момент времени сигналов:
                                    B n (t )  F (b n (t )) .
      Существуют дискретные каналы с памятью – это каналы, в которых
текущий символ на выходе зависит от k предыдущих:
                     B n (t )  F (b n (t ), b n (t  ),, b n (t  k)) .
      Разновидностью каналов без памяти являются каналы со стиранием, в
которых может быть принято решение о ненадёжности и стирании текущего
символа.
                  7.2 Модель дискретного канала без памяти

      Входной алфавит сигналов {b} = bk, k  1, m и их априорные вероятно-
сти p(х1)…p(хm). Выходной алфавит сигналов y1, y2, … , ym, ст. Скорость мо-
дуляции Vм = 1 / T.
      Матрица переходных вероятностей:
                     p ( x1 ) x1          y1 p ( y1 )  ?
                       p ( x2 )   x2               y 2 p( y2 )  ?
                                                        
                       p( xm )    xm             ym p( y m )  ?
                                                   ст p ( ст )  ?
                P( y1 / x1 ) P ( y 2 / x1 )  P( y m / x1 ) P( / x1 ) 
                P ( y / x ) P ( y / x )  P ( y / x ) P ( / x ) 
                     1    2         2     2          m    2           2 
                                                                           .
                                                                   
                                                                        
                P( y1 / x m ) P ( y 2 / x m )  P( y m / xm ) P( / xm )
     q = p(yi/xi) – вероятность правильного приёма;
            m
      Pj   p ( yi / x j ) – вероятность ошибки;
           i 1
           i j


                                                   44

            m
      P   p j p ( x j ) P(y2/x1) – полная вероятность ошибки.
           i 1
        Вероятность p(yi) находим из формулы Байеса
                     p( xi , y j )  p( y j ) p( xi / y j )  p( xi ) p( y j / xi ) ,
где p(xi, yj) – апостериорная вероятность; p(xi) – априорная вероятность;
p(yj / xi) – функция правдоподобия;
                                               p ( xi ) p ( y j / xi )
                                    p( y j )                          ;
                                                    p ( xi / y j )
                                                   p ( xi ) p ( y j / xi )
                              p ( xi / y j )                                ;
                                                          p( y j )
                                               m
                               p ( y j )   p ( xi ) p ( y j / x i )
                                           i 1
                                                   p ( xi ) p ( y j / xi )
                            p ( xi / y j )        m
                                                                                 .
                                                p ( xi ) p ( y j / xi )
                                               i 1
     Если вероятности pij не меняются во времени, канал считается стацио-
нарным.
                   7.3 Недвоичный симметричный канал

      Частный случай канала без памяти – симметричный канал, у которого
матрица переходных вероятностей
                              q mp1 m 1  m 1 p 
                                       0    p0          p0
                                                                 ст
                              p0           p0          p0          
                              m 1 q m 1  m 1 pст  ,
                                                           
                             p      p0     p0
                                                                    
                              m 1 m 1 m 1  q pст 
                             
                                 0
                                                                    
где q = p(yj / xi);p0 = (m – 1)p(yj / xi); p = p(ст / xi).
      Справедливо соотношение
                                        q + p0 + pст = 1,
поэтому для задания канала достаточно задать две вероятности – q и pст.
      Вероятность ошибки по одному символу
                                         p     m 1 p      m 1
                         P0  (m  1) 0   0 ,  p0 P( xi ) .
                                       m  1 i 1 m  1 i 1
      Группа событий на выходе полная:
                               m 1
                                P( xi )  1 , pст+p0+q = 1.
                               i 1
       На приёмной стороне достаточно хранить две вероятности q и p0,
pст = 1–p0–q. Pош = P(yi/xj), i  j – условная вероятность.


                                                  45

                         Двоичный несимметричный канал
     Несимметричность – это следствие замираний и инерционности при-
ёмника.
                           Двоичный симметричный канал
        1 – p0
x1                y1                             1  p0    p0 
          p0
                                                    p               ; q + p = 1.
      p0                                           0      1  p0 
                                                                   
x2                y2                             Полная вероятность ошибки
        1 – p0
                                                           p(x1)p+p(x1)(1-p) = Pош .

                  Двоичный симметричный канал со стиранием
                       1  p0  pст      p0      pст 
                             p0     1  p0  pст pст 
                                                     
     Для получения вероятностей стирания, ошибки и правильного приема
требуется провести вероятностный анализ при известных пороговых значе-
ниях и распределениях вероятностей шума (рис. 7.3).
                        uS(t)
                                         1
                                                             t
                                              –1

                                 y(t)

                                                             t

                                                            

                                        Uпор(1)              w(u)du  q1 
                                                       t   U пор

                         ()          Uпор(–1)           U пор


                                                           U
                                                              w(u)du  pст
                                                              пор



                                        Uпор(1)
                                                       t
                                        Uпор(–1)


      Рис. 7.3. Определение вероятностей ошибки и правильного приёма
              для двоичного симметричного канала со стиранием


                                     46


                      Лекция 8
     МОДЕЛИ ПОТОКОВ ОШИБОК В ДИСКРЕТНЫХ КАНАЛАХ

          8.1 Общая характеристика моделей потоков ошибок

      Вектором ошибки называют поразрядную разность (по mod m) между
принятой кодовой комбинацией Bn и переданной bn:
                               mod m ( B n  b n )  E n ,
тогда
                               B n  mod m ( E n  b n ) .
      Вектор ошибок в дискретном канале играет ту же роль, что и помеха в
непрерывном канале.
      Смысл ошибок особенно понятен на примере двоичных каналов
(m = 2).
      В дискретных каналах различают
      – r-кратные ошибки (каналы с независимыми ошибками);
      – пакеты ошибок (зависимые или группирующиеся ошибки).
      Пакеты – это последовательность нескольких искажённых символов:
                                     B = b + e,
если е = 0 – ошибки нет, если е = 1 – есть ошибка.
      Число ошибочных элементов определяет вес вектора ошибок ||E||.
      Пример. Вектор ошибок ||E|| = 3; длина групп ошибок L = 5.
      bn = 1 1 0 001 0 1 1
      
       Е = 0 1 10 01 000
      Bn = 1 0 10 0001 1
Поток ошибок E т = [0 1 0 0 1 0 1 1 0 0000].
                        пакет ошибок (пачка ошибок)
      Группа ошибок, ограниченная двумя крайними ошибочными элемен-
тами, называется пакетом (пачкой) ошибок (рис. 8.1).
                         h2c/ш




                                                 t
                           E


                                 0000110010000
                                                 t

           Рис. 8.1. Формирование пачки ошибок в канале связи
     Длина L пачки ошибок – важный параметр, так как его используют при
выборе помехоустойчивых кодов.


                                                 47

      Если провал качества канала длительный, то мы можем потерять ин-
формацию. Зависимые ошибки за счёт метода перемежения преобразуют в
независимые:
                             
     0 000   1 0 0 1 0 000|| E || = 4 – позиции.
       
      E т = [0 1 0 0 1 0 1 1 0 00000]
       
      E т – длина кодового слова = 14 = l.
      Универсальной модели потока ошибок не существует. В настоящее
время можно выделить две группы моделей:
      – независимые ошибки;
      – групповые ошибки.
      Для переданного слова B = <y1,...,yn> с n буквами и известной Рош в
одном символе общая вероятность появления r ошибок Рош сум слова из n букв
определяется выражением:
                                  Pr  Cn Pr (1  P ) n  r .
                                        r

Вероятность ошибки приёма слова без помехоустойчивого кодирования рав-
на (ошибки независимы) поэтому равна:
                                    n
                 Pош слова   cn Pош (1  Pош ) n i  1  (1  Pош ) n .
                                i i

                                   i 1

   8.2 Модель потока ошибок в дискретном канале связи без памяти

      Если ошибки независимы, тогда различные сочетания ошибок кратно-
сти r имеют вероятность (биномиальный закон, рис. 8.2)
                                                            r          n!
                    p n ( r )  C n p r (1  p ) n  r ;
                                  r
                                                           Cn                 ,
                                                                  r!( n  r )!
так как p << 1, то наибольшей вероятностью обладают ошибки малой кратно-
сти.
                           p(r)




                                                                   r
                                0 1 2 3
                                                  L0
             Рис. 8.2. Распределение по биномиальному закону
     Вероятность того, что будут ошибки кратности r > L0, описывается
формулой
                                             
                              P( r  L0 )   C n p n (1  p ) n  r .
                                                r

                                            rL


                                              48

      8.3 Модель потока ошибок для канала с двумя состояниями

     Существует два состояния для канала связи (рис. 8.3):
                       h2(t)
                                h12

                                              h22

                                                           t
                      Рис. 8.3. Состояния канала связи
     – хорошее (p << 1);
     – плохое (pош > p).
                           8.4 Независимые ошибки

     Для характеристики независимых ошибок часто используется пуассо-
новская модель (p << 1).
     Вероятность r-кратных ошибок
                                     ( np) r
                          Pn ( r )          exp( np) .
                                        r!
     Пример. Если для дискретного канала связи h = 10–2, то вероятность
искажения кодовой комбинации из пяти символов
                                        5
                                P   Cn p i (1  p) i .
                                       i

                                       i 1
        Вероятность ошибки рош = 1 – (1 – р)5; вероятность правильного приёма
рпр. приёма = (1 – р)5. В результате получаем
                                        5
                                           (5 p) r
                                  P              exp(5 p) .
                                      r 1   r!


                                                     49


                           Лекция 9
             ОСНОВНЫЕ ПОЛОЖЕНИЯ ТЕОРИИ ИНФОРМАЦИИ

    9.1 Энтропия как количественная мера степени неопределённости

       Методы количественного определения информации были предложены
К. Шенноном в 1948 году и привели к построению теории информации.
       Требования к определению количества информации:
       – количество информации должно быть аддитивной мерой;
       – количество информации о достоверном событии равно нулю;
       – количество информации не должно зависеть от содержания.
       Определение информации должно основываться на параметре, харак-
теризующем сообщение bi из ансамбля. Таким параметром является вероят-
ность p(bi), т. е. количество информации должно быть функцией p(bi).
       Если b1 и b2 независимые сообщения, то p(b1, b2) = p(b1)p(b2), а i(b1,
b2) = i(b1) + i(b2), то f(p(b1)p(b2)) = f(p(b1)) + f(p(b2)):
                                                                             1
                                         f(x) = log x; i(b)  log                  .
                                                                           p(b)
       Один бит – это количество информации, содержащееся в сообщении о со-
бытии, происходящем с вероятностью 0,5 (т. е. системы с двумя состояниями).
       Количество информации больше в менее вероятном сообщении.
       Если передаётся последовательность зависимых сообщений, то исполь-
зуется условная информация
                                                                                   1
                   i ( a n | a n 1 , a n  2 ,  , a1 )  log                                         ,
                                                                 p ( a n | a n 1 , a n  2 ,  , a1 )
где an – случайная величина.
       Для характеристики всего ансамбля сообщений используется энтропия:
                                                    1          m                            1
                         H ( A)  M                              p ( a i ) log                 .
                                             log(1 / p ( a ))  i 1                     p (ai )
       Энтропия является основной характеристикой источника сообщений.
       Свойства энтропии (рис. 9.1):
       1. Энтропия неотрицательна: H(A) = 0; Н
p(ai) = 1;p(aj) = 0.                                                              1
       2. Энтропия аддитивна, т. е. еслиa1, a2, …,
an, то HА, А, …, А = nH(A).                                                                           p(a1)
                                                                                 0
       3. Если в ансамбле K = mn различных со-                                                   0,5
общений, то H(A)  log K.                                                           Рис. 9.1. Зависимость
       Равенство достигается при равновероятном                                 энтропии от вероятности
распределении. Для двоичного источника без состояния для системы
                                                                                       из двух состояний
памяти: k = 2; H(A)  max; p(a1) = p(a2) = 0,5;
H(A) = log 2 = 1 бит.



    
Яндекс цитирования Яндекс.Метрика