Количество информации и единицы ее измерения.
Содержание
Ведение 1
Понятие информации 2
Количество информации и единицы ее измерения 3
Системы счисления 5
Кодирование. Системы кодирования. 8
История развития информатики 10
Архитектура, устройство и состав персонального компьютера 12
Программное обеспечение. Состав и классификация программных средств 18
Понятие операционной системы 23
Классификация операционных систем 24
Выбор пользователем операционной системы 24
Свойства операционных систем 24
ОС MS DOS. Начальные сведения 25
Состав операционной системы MS-DOS 26
Организация информации на диске. Файловая система MS DOS 27
Каталоги 38
Включение персонального компьютера и диалог пользователя
с операционной системой 31
Пакетные файлы 33
Компьютерные вирусы и антивирусные программы 35
Введение
Целью курса является обучение студентов методике постановки и решению практических задач на персональном компьютере. Это необходимо для подготовки студента к работе в условиях современного производства насыщенного вычислительной техникой, а также для применения персонального компьютера в учебном процессе в течение всего периода обучения, включая дипломное проектирование.
Дисциплина «Информатика» ориентирована на приобретение студентами знаний, умений и навыков применения современных информационных технологий и математического аппарата в их профессиональной деятельности.
Она формирует у студентов общее представление о месте информатики в современном мире, математическом моделировании, об информации и методах ее обработки, о персональных компьютерах типа IBM, о структуре, составе и назначении современного программного обеспечения и прививает навыки использования на практике современных информационных технологий, навыки составления алгоритмов и программ на языке высокого уровня.
В результате изучения дисциплины студент должен знать:
§ понятия информации, количества информации и форм ее представления,. информационных ресурсов, информационных процессов и систем и их роль в развитии общества;
§ историю возникновения ЭВМ, состав, назначение и общие характеристики современных персональных компьютеров;
§ состав, структуру и назначение программного обеспечения ПК и его элементов;
§ виды ОС, общую характеристику, состав и порядок загрузки;
§ виды программных оболочек, общую характеристику Norton Commander;
§ основы алгоритмизации и программирования.
Студент должен уметь:
§ работать на ПК типа IBM;
§ применять современные информационные технологии и математический аппарат в профессиональной деятельности;
§ использовать средства автоматизированной обработки информации;
§ составлять алгоритмы и писать программы на алгоритмическом языке.
Понятие информации
Слово "информация" происходит от латинского слова informatio, что в переводе означает сведение, разъяснение, ознакомление. Понятие "информация" является базовым в курсе информатики, однако невозможно дать его определение через другие, более "простые" понятия. Проблема его определения - сложная, т.к. оно является общенаучным понятием. Понятие "информация" используется в различных науках: информатике, кибернетике, биологии и т.д., при этом в каждой науке понятие "информация" связано с различными системами понятий.
В биологии, которая изучает живую природу и поведение живых организмов оно связано с понятиями «поведение», «ген» и «наследование».
В кибернетике (науке об управлении) понятие "информация" используется для описания процессов управления в сложных динамических системах (живых организмах или технических устройствах). Жизнедеятельность любого организма или нормальное функционирование технического устройства связано с процессами управления, благодаря которым поддерживаются в необходимых пределах значения его параметров. Процессы управления включают в себя получение, хранение, преобразование и передачу информации.
В любом процессе управления всегда происходит взаимодействие двух объектов - управляющего и управляемого, которые соединены каналами прямой и обратной связи. По каналу прямой связи передаются управляющие сигналы, а по каналу обратной связи - информация о состоянии управляемого объекта. Таким образом, в кибернетике понятие "информация" связано с такими понятиями как "управление", "прямая связь" и "обратная связь".
Человек получает информацию из окружающего мира с помощью органов чувств, анализирует ее и выявляет важные существенные закономерности с помощью мышления и хранит полученную информацию в памяти. Широко известен термин "средства массовой информации" (газеты, радио, телевидение), которые доводят социально значимую информацию до каждого члена общества.
Процесс систематического научного познания окружающего мира приводит к накоплению информации в форме знаний (фактов, научных теорий и т.д.). Таким образом, с точки зрения науки информация рассматривается как знания.
В широком смысле информация – это отражение реального мира; в обыденной жизни понятие "информация" означает – сведения, осведомленность о положении дел, сообщение о каком – либо факте, событии, объекте, явлении и т.п.
Однако в теории информации и кибернетике под информацией понимается не каждое сообщение, а лишь такое, которое содержит неизвестные ранее его получателю факты, дополняющие его представление об изучаемом или анализируемом объекте (процессе). Другими словами, информация – сведения, которые должны снять в большей или меньшей степени существующую до их получения неопределенность у получателя, пополнить систему его понимания объекта полезными сведениями.
Информация, которую получает человек – это мера (факт) уменьшения неопределенности знания.
Если некоторое сообщение приводит к уменьшению неопределенности наших знаний, то можно говорить, что такое сообщение содержит информацию.
Например, после сдачи экзамена по математике вы мучаетесь неопределенностью, вы не знаете какую оценку получили. Наконец, экзаменационная комиссия объявляет результаты экзамена, и вы получаете сообщение, которое приносит полную определенность, теперь вы знаете свою оценку. Происходит переход от незнания к полному знанию, значит, сообщение экзаменационной комиссии содержит информацию.
Информация предполагает существование двух объектов, при их взаимодействии и возникает информация: источника информации и потребителя (получателя) информации.
Чтобы информация могла быть воспринята, она должна быть выражена в некоторой материальной форме. Материальная форма представления информации называется сообщением.
Сообщение от источника к приемнику передается в материально-энергетической форме (электрический, световой, звуковой сигналы и т. д.). Человек воспринимает сообщения посредством органов чувств. Приемники информации в технике воспринимают сообщения с помощью различной измерительной и регистрирующей аппаратуры.
Информация может представлять собой любой текст, чертеж, звук, речь, рисунок, электромагнитную волну и т.д. При этом информацию можно создавать, принимать, обрабатывать, копировать, искать, передавать, запоминать, разрушать.
Таким образом для передачи и обмена сообщениями (информацией) необходимы следующие условия: ниточник сообщения, получатель сообщения, материально – энергетический носитель сообщения, канал связи между источником и получателем сообщения.
В современном мире информация, как правило, обрабатывается на вычислительных машинах. Поэтому она тесно связана с инструментарием - вычислительной машиной.
Компьютер (computer) – это устройство преобразования информации посредством выполнения управляемой программой последовательности операций.
В случае машинной обработки информации широко используется термин: данные (лат. data). Этот термин принято применять в отношении информации, представленной в виде, позволяющем хранить, передавать или обрабатывать ее с помощью технических средств.
Данные также могут рассматриваться как признаки или записанные наблюдения, которые по каким – то причинам не используются, а только хранятся. В том случае, если появляется возможность использовать эти данные для уменьшения неопределенности о чем – либо, данные превращаются в информацию. Информацией являются используемые данные.
Количество информации и единицы ее измерения.
Веществу можно приписывать довольно большое количество характеристик: массу, заряд, объем и т. д. Для информации имеется не столь большой, но достаточно представительный набор характеристик. У отдельных характеристик информации имеются единицы измерения, что позволяет некоторой ее порции приписывать числа - количественные характеристики информации.
С практической точки зрения информация всегда представляется в виде сообщения. Однако между количеством информации и длиной сообщения нет однозначной зависимости. Как вес груза не определяет его ценность, так и длительность сообщения не определяет то количество информации, которое содержит в себе это сообщение. Каким же образом определяется количество информации в сообщении?
На сегодняшний день наиболее известны три способа измерения информации: объемный, энтропийный и алгоритмический.
Объемный – это самый простой и грубый способ измерения информации (поэтому количественную оценку информации называют - объемом информации).
Объем информации в сообщении - это количество символов в сообщении.
Поскольку сообщение, например, одно и то же число может быть записано разными способами (с использованием разных алфавитов):
"двадцать пять"
XXV,
то этот способ чувствителен к форме представления (записи) сообщения.
. Энтропийный подход к информации - как к мере уменьшения неопределенности знания позволяет количественно измерять информацию. Получатель информации (сообщения) имеет определенные представления о возможных наступлениях некоторых событий. Эти представления в общем случае недостоверны и выражаются вероятностями, с которыми он ожидает то или иное событие Общая мера неопределенности (энтропия) характеризуется некоторой зависимостью от этих вероятностей Количество информации в сообщении определяется тем, насколько уменьшится эта мера после получения сообщения.
Пусть у нас имеется монета, которую мы бросаем на ровную поверхность. С равной вероятностью произойдет одно из двух возможных событий – выпадет "орел" или "решка". Можно говорить, что события равновероятны, если при возрастающем числе опытов число выпадений "орла" и "решки" постепенно сближаются.
Перед броском существует неопределенность нашего знания (возможны два события), и как упадет монета - предсказать невозможно. После броска наступает полная определенность, так как мы видим (получаем зрительное сообщение), что монета в данный момент находится в определенном положении (например, "орел"). Это сообщение приводит к уменьшению неопределенности нашего знания в два раза, т.к. из двух возможных равновероятных событий реализовалось одно.
В окружающей действительности чаще встречаются ситуации, когда может произойти большее, чем два, число равновероятных событий. Так, при бросании шестигранного игрального кубика – существует 6 равновероятных событий.
Чем больше начальное число возможных равновероятных событий, тем больше начальная неопределенность нашего знания и, соответственно, тем большее количество информации будет содержать сообщение о результатах опыта.
За меру количества информации (I) в сообщении принимается величина изменения неопределенности êН(энтропии), вызванная этим сообщением.
I = êН = Н н – Н к
Если после получения сообщения конечная неопределенность Н кобратится в нуль, то первоначальное неполное знание заменится полным знанием и количество информации станет равной начальной неопределенности I = Н н. Иными словами начальная неопределенность Н н– это мера недостающей информации.
Существует множество ситуаций, когда возможные события имеют различные вероятности исхода. Например, если у монеты одна сторона тяжелее другой, то при ее бросании вероятности выпадения "орла" и "решки" будут различаться.
Неопределенность события Н н., имеющего N возможных исходов с различными вероятностями, согласно формуле Шеннона, равна:
Н н = -
Где N - количество возможных событий,
Pi – вероятности отдельных событий.
В этом случае количество недостающей информации определяется по формуле:
I = -
Для частного, но широко распространенного случая, когда события равновероятны
(Pi = ), величину количества информации I можно рассчитать по формуле:
I = - = log 2 N
Информация необходимая для выбора равноправных вариантов, равна логарифму числа вариантов.
I = log 2 N
Для определения количества информации необходимо также ввести единицу измерения.
Если принять число возможных вариантов минимальным – равным 2 (вернемся к опыту с бросанием монеты - здесь из двух возможных событий N=2 реализуется одно), то получаем количество информации необходимое для выбора.
I = log 2 2 = 1