Информационные процессы
СОДЕРЖАНИЕ
введение.……………………………………………..…….. | ||
Тема 1. | Основные понятия и методы теории информации и кодирования. Сигналы, данные, информация. Общая характеристика процессов сбора, передачи, обработки и накопления информации………………………... | |
1.1. Понятие информации. Классификация и свойства информации. Информационные процессы…………………………………………….. | ||
тесты…………………………………………….. | ||
1.2. Структура и обработка данных. Единицы представления, измерения и хранения данных.. | ||
тесты…………………………………………….. | ||
1.3. Кодирование данных в ЭВМ………………. | ||
тесты…………………………………………….. | ||
1.4. Позиционные системы счисления………… | ||
тесты…………………………………………….. | ||
1.5. Основные понятия алгебры логики. Логические основы ЭВМ…………………………….. | ||
тесты…………………………………………….. | ||
1.6. Предмет и задачи информатики. Информационные революции. История развития вычислительной техники. Поколения ЭВМ……... | ||
тесты…………………………………………….. | ||
литература по теме…………………………… | ||
Тема 2. | Технические средства реализации информационных процессов………………………… | |
2.1. Принципы работы вычислительной системы. Понятие и основные виды архитектуры ЭВМ | ||
тесты…………………………………………….. | ||
2.2. Состав и назначение основных элементов персонального компьютера, их характеристики…………………………………………………. | ||
тесты…………………………………………….. | ||
2.3. Запоминающие устройства: классификация, принцип работы, основные характеристики…………………………………………………. | ||
тесты…………………………………………….. | ||
2.4. Устройства ввода-вывода данных, их разновидности и основные характеристики……… | ||
тесты…………………………………………….. | ||
литература по теме | ||
ответы к тестам | ||
заключение |
ВВЕДЕНИЕ
В наши дни достижения информатики привели к тому, что умение эффективно использовать компьютер для решения прикладных задач является необходимым атрибутом профессиональной деятельности любого специалиста и во многом определяет уровень его востребованности в обществе.
Информатика, как дисциплина, практически включена во все Федеральные государственные образовательные стандарты высшего профессионального образования. Однако изучение информатики осложняется тем, что студенты приходят в вуз с различным уровнем компьютерной подготовки, а большинство учебников по информатике не охватывают в полной мере все ее разделы в силу многообразия различных направлений, таких, как теория информации, теоретические основы вычислительной техники (архитектура вычислительных систем, разработка аппаратных средств, компьютерные сети), программирование (разработка программного обеспечения, системы программирования, операционные системы), вычислительные методы (машинная графика, имитационное моделирование), искусственный интеллект, информационные технологии.
В данном учебном пособии излагаются разделы современной информатики, связанные с изучением структуры и общих свойств информации и информационных процессов, общих принципов построения вычислительных устройств, а также систем обработки, хранения и передачи информации. Для контроля усвоения изучаемого теоретического материала предлагаются тесты, ответы к которым приводятся в конце учебного пособия. Более углубленные знания можно получить, воспользовавшись рекомендуемой литературой по изучаемым темам.
Тема 1
Основные понятия и методы теории информации и кодирования. Сигналы, данные, информация. Общая характеристика процессов сбора, передачи, обработки и накопления информации
1.1. Понятие информации. Классификация и
свойства информации.
Информационные процессы
Понятие информации
И |
нформация, как и материя, является первичным понятием и поэтому ей нельзя дать строго научного определения. Вместо определения дается понятие информации, которое зависит от конкретной области науки и техники. Слово «информация» происходит от латинского informatio, означающего сведения, разъяснения, пояснения.
Информация – это сведения о людях, предметах, фактах, событиях и процессах, независимо от формы их представления. Данное определение понятия информации зафиксировано в Законе «Об информации, информатизации и защите информации», принятом у нас в стране в 1995 г.
Все процессы в природе сопровождаются сигналами. Зарегистрированные сигналы образуют данные, которые преобразуются, обрабатываются, передаются и используются с помощью методов. С точки зрения информатики как технической науки информацией является динамический объект, образующийся в ходе информационного процесса, то есть при взаимодействии данных и адекватных им методов. Таким образом, с понятием информации связаны такие понятия как сигнал, сообщение, данные и знание.
Сигнал(электромагнитный, звуковой, световой)– это физический процесс, несущий сообщение о событии или состоянии объекта наблюдения.
Сообщение – это информация, предназначенная для передачи в виде сигналов. Сообщение представляется совокупностью различных знаков и символов, позволяющих выразить информацию в некоторой форме.
Данные – это информация, представленная в формализованном виде и предназначенная для обработки ее на компьютере или другими техническими средствами. Данными являются материальные объекты произвольной формы, выступающие в качестве средства предоставления информации. Данные рассматриваются без учета смыслового содержания. После получения данных формируется знание о некотором факте или процессе.
Знание – это информация, которая появляется в результате мыслительной деятельности человека. Знания, материализованные в виде документов, учебников, художественных произведений, объектов искусства, баз данных и баз знаний, компьютерных программ, представляют информационные ресурсы. В современном обществе информационные ресурсы, также как и материальные, трудовые, финансовые и другие ресурсы, рассматриваются как специальная экономическая категория. С ростом потребностей в информации она становится товаром, а информационные ресурсы – базой для создания информационных продуктов.
Энтропийный подход к информации.Энтропия системы является мерой беспорядка, хаоса, неопределенности этой системы. Термин «информация» часто связывается с вероятностью осуществления того или иного события, с новизной сведений для их получателя. С такой точки зрения информацией называется мера устранения неопределенности в отношении исхода того или иного события. Энтропийный подходк информации как мере уменьшения неопределенности знаний позволяет количественно измерять информацию. За единицу количества информации принимается такое количество информации, которое содержит сообщение, уменьшающее неопределенность (энтропию) в два раза. Такая единица называется бит. Например, перед броском монеты существует неопределенность, так как можно говорить о двух равновероятных событиях: выпадении «орла» или «решки». После броска монеты наступает полная определенность (например, выпал «орел»). Мы получаем зрительное сообщение, которое уменьшает неопределенность наших знаний в два раза, поскольку до броска мы имели два равновероятных события, а после броска – одно событие, то есть в два раза меньше.