Революция в информационной технике и технологиях.

Информационные сети.

В последние годы создаются локальные и глобальные информационные сети. Основой их деятельности выступают базы данных.

Базы данных разнообразны. Они выступают и в виде библиографических описаний, в справочном виде, в каталожном и т.д.

Например, в США существует Медларс – компьютиризированная библиотечная система медицинского анализа и поиска, она включает 20 баз данных, связанных с 4 000 медицинскими учреждениями США.

В рамках Медларс создана база данных Медлайн, ее образуют более 5 млн. реферативных данных, накопленных с 1966 г. Информация собирается из 3 200 журналов, в т.ч. из 70 зарубежных изданий.

Кроме государственных создаются базы данных и коммерческих, частных организаций и фондов. Примером этого может служить программа ЛЕКСИС, НЕКСИС. ДИАЛОГ.

Программа ЛЕКСИС была создана для облегчения исследований в области юриспруденции. В ее базу данных входят более 3 млн. юридических документов.

База данных НЕКСИС содержит тексты 8 млн. статей из 125 газет, в том числе и из России. Файлы пополняются ежедневно на 40 тыс. статей. Аналогичные функции выполняет база данных ДИАЛОГ.

Отельные ПК соединяются в сети через центральный компьютер. Это позволяет общаться между собой людям, расположенным в разных точках земли, на разных континентах, используя сети коаксиальных или оптоволоконных кабелей, или радиоволны через спутниковую связь.

Информационные технологии внедряются в банковское дело, в делопроизводство на отдельных предприятиях, в гостиничный сервис, торговлю – везде.

Создается проект информатизированного дома, где все операции по его обслуживанию будут выполняться домашним компьютером. Это позволит осуществлять покупки, не выходя из дома, посещать картинные галереи, музеи и спектакли, учиться по электронным учебникам, участвовать в телеконференциях, телесеминарах, сдавать зачеты, сидя дома.

Проблемы революции в технике: Сокращается, но еще остается (лаг)

1. Разрыв между открытием и проектированием изделий.

2. Разрыв между производством и применением в повседневности

3. Разрыв между проектированием и производством изделий.

Циклы информационных изменений.

Ричард Нолан, проф. Гарвардской школы бизнеса, установил, что в сфере компьютерной техники действуют последовательно сменяющие друг друга волны изменений продолжительностью 15-20 лет.

Он выделил три волны (периода):

1. Эра производства баз данных. Она охватила период с начала 1960-х и заканчивается в 1975-80 г.г. Создание баз данных сопровождалось резким сокращением управленческого персонала. Она характеризует индустриальную культуру.

2. Вторая эра, или эра «информатизации». Она связана с повышением уровня работы профессионалов-управленцев, осваивающих новую технику и технологию. Новые техники и технологии внедряются в самые разнообразные отрасли деятельности человека. Происходит информатизация общества. Другая черта этого периода – внедрение микрокомпьютеров в различные виды техники, например, в автомобили, холодильники, микроволновки. Эта эра начинается в конце 70-х, начале 80-х г.г. и завершается к сер. 90-х г.г. Эта эра характеризует переход экономик, культуры от индустриальной стадии к постиндустриальной, информационной.

3. Третья эра – «эра работы сетей». Она начинается в середине 90-х г.г. и завершится к 2010 г. Эта эра характеризует информационную экономику, культуру общества. (1)

См. Глобализация, технология, ответственность. Эволюция компьютеров и телекоммуникаций в 1990-е г.г. Бостон, 1993. р.8-12 (на англ. яз.). – Цит. по: Скворцов Л.В. Информационная культура и цельное знание. М.2001. с.26-28.

Информатика как наука.

Наряду с изменениями в технике, в технологиях, способных передавать и сохранять сообщения, информацию, происходит становление и самой науки об информации – информатики как части математического знания. Современный этап развития информатики связан с трудами Клода Элвуда Шеннона, который в 40 г.г. ХХ века заложил основы теории информации.

В своем понимании информации он опирался на два фундаментальных положения. Первое – в нем информация была представлена как количественная мера неопределенности, то есть энропиии. С этим понятием Шеннон и связал количество информации.

Второе положение теории информации было связано с признанием того, что носитель информации – сигнал, имеет случайную природу. ( то есть он не связан с проводником сообщения).

Для теории информации характерны следующие положения, утверждения:

1. Скорость создания информации – Н, есть энтропия источника, отнесенная к единице времени.

2. Скорость передачи информации - R, есть количество информации, передаваемое по каналу связи в единицу времени ( например, для речи в обычном темпе это около 20 бит в секунду).

3. Избыточность информации – G, свойство сигналов, состоящее в том, что каждый элемент сигнала ( например, символ в тексте) несет информации меньше, чем может нести потенциально). При отсутствии помех избыточность вредна, так снижает эффективность использования системы (снижает скорость передачи по каналу связи, увеличивает число операций при обработке и др.)

Вместе с тем избыточность – единственное средство борьбы с помехами, т.к. она позволяет установить, какие символы были испорчены шумами и восстановить переданный сигнал (например, избыточность позволяет играть в кроссворды).

Избыточность измеряется формулой:

G = (N-n) : N, где

N – текущая длина (число символов) сигнала.

N - длина сигнала при максимальной информационной загрузке, то есть минимальная из длин сигналов, несущих ту же информацию.

4. Пропускная способность канала связи – С, равная максимальной скорости передачи информации: С= max R максимум отыскивается среди всех мыслимых приемо-передающих систем, связанных данным каналом. Например, экспериментально установлено, что пропускная способность зрения и слуха человека около 5 бит/сек.

5. Правила кодирования. Код - правило сопоставления кодовых слов, то есть определенных комбинаций символов и передаваемых сообщений на передающем и принимающем концах канала связи

Теория информации доказала, что при любых помехах и шумах можно обеспечить передачу информации без потерь.

Первая теорема Шеннона о кодировании при наличии шумов гласит, что при Н меньше С ( где Н-энтропия множества передаваемых сообщений, а С – максимальная скорость передачи информации) можно передавать информацию со сколь угодно малой вероятностью ошибок, не смотря на шумы.

Вторая теорема Шеннона утверждала, что скорость передачи информации при этом может не убывать, оставаясь близкой к Н не смотря на введение избыточности.

До сих пор идут дискуссии, что такое информация, например, некоторые определяют ее как меру упорядочивания системы. Но нам важна информация, понятая с ее духовной, содержательной стороны, а не в ее количественных воплощениях.

Так, выяснилось, что один и тот же информационный процесс может иметь различные материальные воплощения, и следовательно, сам по себе не имеет физической интерпретации. Отсюда появляются представления и множественности «миров», «виртуальных реальностях».

Информацию можно передавать и хранить на различных материальных носителях. Последствия потребления информации, в том числе и материальные, физические, не зависят от физических затрат на ее передачу. Так, легкое нажатие кнопки приводит в движение гигантские колеса турбин, короткое сообщение по телефону может вызвать инфаркт и т.д.

Наши рекомендации