Информация, сообщения и сигнал.

Понятия «информация» (от лат. informatio – разъяснение, изложение) и «сообщение» в настоящее время неразрывно связаны между собой. Эти понятия сложны, близки по смыслу, и дать их точные определения через более простые достаточно трудно.

Под информацией подразумевается совокупность сведений о каких- либо событиях, явлениях или предметах, предназначенных для передачи, приема, обработки, преобразования, хранения или непосредственного использования.

Человеческое общество живет в информационном мире, который постоянно изменяется и пополняется. То, что человек видит, слышит, помнит, знает, переживает, - все это различные формы информации. Как образно отметил один из основателей теории информации К.Э.Шеннон: «Информация – послание, которое уменьшает неопределенность». Совокупность сведений, данных становится знанием лишь после их интерпретации с учетом ценности и содержания этих сведений. Следовательно, в широком смысле информацию можно определить как совокупность знаний об окружающем нас мире. Наряду с материей и энергией информация является фундаментальной философской категорией естествознания.

Особенность информации состоит в том, что обычно возникает она в одном месте, а используется в другом. Поэтому возникает необходимость передать информацию из одной точки пространства в другую. Для передачи или хранения информации используют различные знаки (символы), позволяющие выразить (представить) ее в некоторой форме. Этими знаками могут быть слова и фразы человеческой речи, жесты и рисунки, формы колебаний, математические знаки и т.д.

Информация, подлежащая передаче и выраженная в определенной форме, называется сообщением. Сообщение может быть представлено в форме текста телеграммы, некоторых сведений, передаваемых по телефону, факсу, радио, телевидению, или телеграфу и т. д. В телевизионных системах при передаче движущихся изображений сообщение представляет собой изменение во времени яркости элементов изображения. В радиотехнике и теории связи в качестве носителей сообщений используют различные сигналы. Сигнал (от лат. signum – знак) – физический процесс (или явление), несущий информацию о состоянии какого-либо объекта наблюдения. Сигнал переносит информацию в пространстве и времени. В радиотехнике в основном используют электрические сигналы.

Целесообразно определить параметры сигнала, которые являются основными с точки зрения его передачи. Такими параметрами являются длительность сигнала Тс, его ширина спектра Fc и динамический диапазон Dc. Практически каждый сигнал, рассматриваемый как временной процесс, имеет начало и конец. Поэтому длительност сигнала Тс является естественным его параметром. Ширина спектра сигнала Fc дает представление о скорости изменения сигнала внутри интервала его существования. Спектр передаваемого сигнала в принципе может быть неограниченным. Однако для любого сигнала можно указать диапазон частот, в пределах которого сосредоточена его основная (до 90 энергия. Этим диапазоном и определяется ширина спектра полезного сигнала.

В системах связи реальную ширину спектра передаваемого сигнала часто сознательно сужают. Это связано с тем, что аппаратура и линия связи имеют ограниченную полосу пропускания частот. Сужают спектр исходя из допустимых искажений сигнала. В частности, при телефонной связи требуется, чтобы речь была разборчива и абоненты могли узнать друг друга по голосу. Для выполнения этих условий достаточно передать речевой сигнал в полосе от 0,3 до 3,4 кГц. Передача более широкого спектра речи в этом случае нецелесообразна, поскольку ведет к неоправданным техническим усложнениям аппаратуры и увеличениям затрат.

Как правило, спектр модулированного сигнала шире спектра передаваемого сообщения и зависит от вида модуляции. Поэтому в теории сигналов используют такой параметр, как база сигнала

Bc=2FcTc

Часто вводят более общую характеристику – объем сигнала:

Vc=TcFcDc

Объем сигнала дает общее представление о возможностях данного множества сигналов как переносчиков сообщений. Чем больше объем сигнала, тем больше информации можно «заложить» в этот объем и тем труднее передать такой сигнал по каналу связи с требуемым качеством.

И наконец Динамический диапазон Dc – это отношение наибольшей мгновенной мощности передаваемого сигнала к той наименьшей мощности, которую необходимо отличить от нуля при заданном качестве передачи. Динамический диапазон речи телевизионного диктора, например, равен 25…30 дБ, небольшого вокального ансамбля – 45…65 дБ.

Ценность любых сведений, содержащихся в переданном получателю сообщений, характеризует количество заключенной в нем информации (называемое частным количеством информации). Обозначим эту величину через I. Данная величина может определяться степенью изменения поведения получателя под воздействием принятого сообщения. В теории связи количественная оценка информации основывается на концепции выбора наиболее важного сообщения из всей совокупности возможных сообщений. При этом чем менее вероятен выбор данного сообщения, т.е. чем более оно неожиданно для получателя, тем большее количество информации в нем содержится (можно сказать, что количество информации пропорционально «удивлению» получателя от того, что оно произошло, причем «чудо», имеющее вероятность своего появления, близкое к нулю, являет собой количество информации, близкое к бесконечности). Совершенно очевидно обратное: достоверное (заранее известное) сообщение нет смысла передавать, поскольку оно не является неожиданным и, следовательно, не содержит никакой информации. Поэтому любые реальные сообщения следует рассматривать как случайные события (случайные процессы).

В общем случае передаваемое по каналам связи сообщение можно представить в виде набора некоторых смысловых элементов или символов. Если общее количество (объем) смысловых символов алфавита равно m, а одно сообщение составлено из n элементов, то число возможных сообщений N=mn. Так, например, с помощью двухразрядного десятичного числа (n=2, m=10) можно представить N=102=100 различных чисел от 0 до 99. В частности, при средней длине русского слова n=5 и алфавите в m=32 буквы можно составить 33,5 млн различных слов. Однако использование числа N в качестве меры информации неудобно, так как в данном случае не выполняется условие пропорциональности между длиной слова (длительности сигнала) и количеством содержащейся в нем информации. Между тем удвоение времени передачи сообщений должно приводить к удвоению количества передаваемой информации.

Американский инженер Хартли предложил вычислять количество информации по формуле

IA= -logaPA,

Где PA – вероятность появления случайного события А. Основание логарифма может быть выбрано произвольным.

Логарифмический характер этой формулы выгоден тем, что он позволяет достичь аддитивности информации, заключенной в последовательно расположенных символах. Пусть А и В – два независимых события. Тогда сложное событие С, состоящее в том, что происходит как событие А, так и событие В, будет определено вероятностью РСА∙РВ, а значит, количество информации IC=IA+IB. Очень важно и то, что логарифмическая функция строго монотонна на отрезке изменения аргумента от нуля до единицы; сообщение о наступлении маловероятного события содержит в себе большую информацию, в то время как сообщение о наступлении достоверного события (РА=1) несет нулевую информацию.

Наши рекомендации