Вычисление информации, единицы измерения информации.
Кибернетический подход к исследованию биологических систем.
Для понимания и изучения закономерностей, вследствие которых развитие жизни на земле не остановилось на уровне первобытной протоплазмы, особенно эффективным представляется кибернетический подход (КП) к изучению эволюции живых существ. Биологическая кибернетика является составной частью биофизики сложных систем. Кибернетический подход к изучению функционирования органов, физиологических систем, организма в целом и сообществ организмов позволяет изучить особенности управления и саморегуляции био-х объектов в норме и патологии. Одной из особенностей КП к эволюции биологических систем является то, что он позволяет рассматривать живой организм, как некую систему, состоящую из нескольких функциональных подсистем, каждая из которых выполняет определенный набор задач. Такое рассмотрение биологического организма (БО) дает возможность по-новому взглянуть на процесс его выживания в ходе естественного отбора. У любого БО можно выделить несколько общих типов функциональных подсистем. В наиболее общем виде эти подсистемы можно разделить на два класса - подсистему управления и подсистему исполнения. Подсистема исполнения по сути представляет собой набор устройств, осуществляющих сбор и переработку необходимой для существования БО энергии, а также используемых для его жизнедеятельности веществ и поддержания нужных состояний. Кроме подсистемы исполнения у БО имеется подсистема управления внутренним состоянием. БО, способные перемещаться в пространстве, помимо того, могут осуществлять ряд действий - поиск пищи, отдых, поиск партнеров для спаривания, бегство от опасности и т.д. Стратегию последовательности выполнения и комбинации этих действий можно назвать поведением БО. Для построения оптимального поведения необходимо иметь подсистему управления им. Две подсистемы управления организма состоянием и поведением образуют систему управления (СУ) БО.
Рассмотрение различных объектов живой природы как преобразователей информации или как систем, состоящих из элементарных преобразователей информации, составляет сущность кибернетического подхода к изучению этих объектов. Этот подход требует определенного уровня абстракции. Так, при кибернетическом подходе к изучению мозга как системы нейронов обычно отвлекаются от их размеров, формы, химического строения и др. Предметом изучения становятся состояния нейронов (возбужденное или нет), вырабатываемые ими сигналы, связи между нейронами и законы изменения их состояний.
Основные понятия теории связи и теории информации.
К основным понятиям теории информации относятся: сообщение, сигнал, количество информации, энтропия, кодирование, пропускная способность канала связи. Информацию передают в виде сообщений. Сообщение-это некоторая информация о событиях, закодированная в форме определенного сигнала. Сообщения передают с помощью сигналов, которые являются носителями информации. Сигнал - физический носитель информации. Сигналом может быть звук, свет, буква, механический удар и др. В теории информации и передачи сигналов под информацией понимают совокупность сведений о каких-либо событиях, процессах, явлениях и т.п., рассматриваемых в аспекте их передачи в пространстве и во времени.
В теории информации изучают свойства процессов, которые имеют место при передаче информации на расстояние при помощи сигналов. При этом важное значение имеют понятия качества и скорости передачи информации.
Качество передачи информации тем выше, чем меньше искажения информации на приёмной стороне. С увеличением скорости передачи информации требуется принимать специальные меры, препятствующие потерям информации и снижению качества передачи информации.
Вычисление информации, единицы измерения информации.
Количество информации I(хi), содержащееся в сообщении хi, равно логарифму величины, обратной вероятности Р(хi) этого события:
За единицу информации принято количество информации, содержащееся в сообщении о том, что произошло одно из двух равновероятных событий, то есть если Р(А)=Р(В)=0,5, то
Это количество информации называют бит.
В теории информации источник информации задается в виде множества сообщений X1, Х2,...,Хn, с вероятностями соответственно P1, Р2,...,Рn. В этом случае среднее количество информации, приходящееся на одно сообщение, определяется по формуле Шеннона:
где i=1,2, … n.
Величина I рассматривается как мера неопределенности сведений об источнике информации, которая имела место до приема сообщений и была устранена после их получения. Эту меру неопределенности называют энтропией (Н) источника информации, приходящейся на одно сообщение. Таким образом:
Среднее количество информации и энтропия Н численно равны, но имеют противоположный смысл. Чем из большего числа сообщений получатель информации должен сделать выбор, тем большее значение имеет информационная энтропия. Для источника с единственно возможным сообщением, вероятность которого стремится в 1 (Р—>1), энтропия стремится к нулю (Н—>0). Если все k возможных сообщений источника равновероятны (Р(хi)=1/к), то его энтропия Н максимальна: Предполагается, что каждому сообщению соответствует только одно из возможных состояний источника. В этом случае величина Н может служить мерой неорганизованности системы, являющейся источником информации. Чем менее организована система, тем больше число ее возможных состояний и величина максимальной энтропии;
Для примера рассмотрим три источника информации А, В и С, характеризуемые тремя сообщениями каждый: I, II и III с вероятностями, указанными ниже:
Вычислим энтропии источников А, В и С на одно сообщение:
Как видим, источник информаций С, который характеризуется сообщениями с одинаковыми вероятностями (Р=0,33), имеет самую большую Н=Нmах, то есть самую большую степень неопределенности.
Уровень определенности (детерминированности) источника информации характеризуется величиной где Н-энтропия на одно состояние источника информации, Нmах-максимальная энтропия на одно сообщение, когда все сообщения равновероятны. В нашем примере RC=0, RB=0,02, RA=0,4. Если R=1,0-0,3, источник информации считается детерминированным, R=0,3-0,1 - вероятностно детерминированным, R<0,1 вероятностным (стохастическим). Таким образом, источники В и С - стохастические, а источник А - детерминированный.
4. Передача информации. Среднее количество информации, которое может получить объект, зависит от характеристик канала связи. Каналом связи может быть провод, световой луч, волновод, нервные волокна, кровеносные сосуды и др. Основной характеристикой канала связи является его пропускная способность. Она будет определяться предельной скоростью передачи информации, измеряемой в бит/с. Для передачи сообщения по каналу информация кодируется. На приемной стороне необходим декодер, который осуществляет обратное кодеру преобразование: код сигнала преобразуется в содержание сообщения. При передаче информации по каналу связи могут происходить ее искажения за счет помех из внешней среды и нарушений в самой линии. Эффективными способами борьбы с искажениями информации является создание ее избыточности и передача сигналов по большому числу параллельных каналов. Оба эти способа широко используются в организме человека. В нервных сетях всегда обеспечивается дублирование основного сообщения большим числом параллельных сигналов, поэтому количество рецепторов значительно превышает количество нейронов, к которым от них поступают сигналы. Пропускная способность любых рецепторных аппаратов существенно выше возможностей осознания сенсорной информации. Человеческое сознание пользуется очень малой долей информации, поставляемой в мозг периферическими отделами анализаторов - сенсорными входами. Так например, максимальный поток информации в процессе зрительного восприятия, осознаваемого человеком, составляет всего 40 бит/с, тогда как информационная емкость потока нервных импульсов в зрительных нервах оценивается величиной 107 бит/с. За счет столь огромной избыточности достигается высокая надежность процессов в организме.
5. Кодирование наследственной информации происходит с помощью генетического кода. Генетический код универсален для всех организмов и отличается лишь чередованием нуклеотидов, образующих гены, и кодирующих белки конкретных организмов. Генетический код изначально состоит из триплетов нуклеотидов ДНК, комбинирующихся в разной последовательности. Каждый триплет нуклеотидов кодирует определенную аминокислоту, которая будет встроена в полипептидную цепь. Аминокислот 20, а возможностей для комбинаций четырех нуклеотидов в группы по три – 64. Следовательно, четырех нуклеотидов вполне достаточно, чтобы кодировать 20 аминокислот. Часть триплетов вовсе не кодирует аминокислоты, а запускает или останавливает биосинтез белка. Собственно кодом считается последовательность нуклеотидов в молекуле и-РНК, ибо она снимает информацию с ДНК (процесс транскрипции) и переводит ее в последовательность аминокислот в молекулах синтезируемых белков (процесс трансляции). В состав и-РНК входят нуклеотиды АЦГУ. Триплеты нуклеотидов и-РНК называются кодонами. Уже приведенные примеры триплетов ДНК на и-РНК будут выглядеть следующим образом – триплет ЦГТ на и-РНК станет триплетом ГЦА, а триплет ДНК – ААГ – станет триплетом УУЦ. Именно кодонами и-РНК отражается генетический код в записи. Итак, генетический код триплетен, универсален для всех организмов на земле, вырожден (каждая аминокислота шифруется более чем одним кодоном). Между генами имеются знаки препинания – это триплеты, которые называются стоп-кодонами. Они сигнализируют об окончании синтеза одной полипептидной цепи.