Скорость передачи информации

Из Википедии, бесплатной энциклопедии

Теория информации

Скорость передачи информации — количество информации, передаваемое по каналу связи в единицу времени[1]. Является отношением средней взаимной информации между входными и выходными символами канала связи к среднему времени, затрачиваемому на передачу одного символа. Максимальная скорость передачи информации называется пропускной способностью канала[2].

Определение

[править | править код]

Скоростью передачи информации по дискретному каналу связи (между входом модулятора передатчика и выходом демодулятора приёмника) называется величина[1]:

где

— среднее время, затрачиваемое на передачу одного символа, — средняя скорость передачи символов.
— средняя взаимная информация между входными символами канала и выходными символами канала,
— производительность источника сообщений, энтропия источника сообщений, которая является средним количеством переданной информации в одном символе источника или степенью неопределенности передачи того или иного символа.

В случае передачи независимых друг от друга символов энтропия источника равна:

где

— априорная вероятность появления (передачи) символа ,
— объём канального алфавита (число различных значений символов канального алфавита).

Максимальное значении энтропии равно и наблюдается в случае, когда все символы источника равновероятны, то есть . В случае, когда по каналу передаётся только один символ ( и для всех ) значение равно нулю, что означает полную определённости в выборе передаваемого символа[1].

Величина

называется ненадежностью, отнесённой к единице времени, является условной энтропией и называется ненадежностью, то есть средним количеством информации, теряемой при передаче информации и являющейся мерой неопределённости принятого символа[3][4]. Эта величина зависит от вероятности ошибочного приема символов источника[5].

В случае передачи информации независимыми символами по дискретному -ичному симметричному каналу, то есть для которого алфавиты на входе и выходе канала одинаковы, априорные вероятности входных и выходных символов канала одинаковы и вероятности перехода из входного символа в выходной символ определяются как: , ненадежность равна:

где — вероятность ошибочного приёма символа[6].

Для канала без шума ненадежность равна нулю, поэтому скорость передачи информации равна производительности источника: .

Отличие скорости передачи информации от скорости создания информации

[править | править код]

Отличие скорости передачи информации от скорости при равномерном кодировании символов источника состоит в том, что является действительной скоростью передачи информации, а — скоростью создания информации (технической скоростью передачи информации (битов)), где — длительность бита. В случае отсутствия шума в канале связи (вероятность ошибочного приема символов равна нулю), то есть и одинаковой априорной вероятности передачи символов, то есть , эти величины являются равными. В случае наличия шума часть информации оказывается принятой неправильно, что эквивалентно тому, что действительная скорость передачи информации уменьшается. В двоичном канале (), в случае когда вероятность ошибочного приёма символов равна , действительная скорость передачи информации равна нулю, так как примерно половина символов окажутся принятыми неправильно, то есть никакой действительной передачи информации не будет происходить, хотя скорость создания информации останется неизменной[4].

Примечания

[править | править код]
  1. 1 2 3 Финк Л. М. Теория передачи дискретных сообщений, 1970. — С. 23, 24, 49.
  2. Финк Л. М. Теория передачи дискретных сообщений, 1970. — С. 50.
  3. Финк Л. М. Теория передачи дискретных сообщений, 1970. — С. 47.
  4. 1 2 Шеннон К. Работы по теории информации и кибернетике, 1963. — С. 277.
  5. Финк Л. М. Теория передачи дискретных сообщений, 1970. — С. 90
  6. Васин В. А. и др. Радиосистемы передачи информации, 2005. — С. 74—75.