Методика изучения линии информация и информационные процессы.
Эта линия охватывает содержание всего базового курса, в любой теме курса речь идет о различных вариантах представления информации и информационных процессов. Ключевыми вопросами данной содержательной линии являются:
· определение информации;
· измерение информации;
· хранение информации;
· передача информации;
· обработка информации.
Определение информации.Понятие информации относится к числу фундаментальных в науке, носит философский характер и является предметом постоянных научных дискуссий. Обсуждение на уроках проблемы определения информации можно делать только языком доступным детям. Нельзя дать единого универсального определения информации. В учебнике И.Г. Семакина раскрываются два подхода к определению информации. Первый подход можно называть субъективным, при котором информацию рассматривают с точки зрения ее роли в жизни и деятельности человека. Второй подход можно назвать кибернетическим, поскольку развитие он получил в кибернетике. Именно это подход позволяет создавать машины, работающие с информацией.
Субъективный подход. При раскрытии понятия «информация» с точки зрения субъективного подхода следует отталкиваться от интуитивных представлений об информации, имеющихся у детей. Ведя беседу в форме диалога, задавая ученикам вопросы можно подвести их к такому определению.
Информация для человека – это знания, которые он получает из различных источников. Далее на многочисленных примерах следует закрепить это определение. Исходя из позиции, что информация для человека – это знания, то запахи, вкусы и осязательные ощущения тоже несут информацию человеку. Таким образом, человек получает информацию из внешнего мира с помощью всех своих органов чувств.
Кибернетический подход к определению и измерению информации.
С точки зрения кибернетического подхода информация - это содержание последовательности символов из некоторого алфавита, причем указанная последовательность необязательно имеет определенный смысл. В этом случае все виды информационных процессов сводятся к действиям над символами, что и происходит в технических информационных системах.
Измерение информации.Вопрос об измерении информации необходимо раскрывать в контексте рассматриваемого подхода к определению информации. Введение понятия информативного сообщения является первым подходом к изучению вопроса об измерении информации в рамках содержательной концепции.
Вопрос об информативности сообщения следует обсуждать на примерах и подвести учащихся к следующим выводам. Сообщение – это информационный поток, который в процессе передачи информации поступает к принимающему его субъекту.
Информативным называется сообщение, которое пополняет знания человека. Для разных людей одно и то же сообщение, с точки зрения его информативности, может быть разным. Информация являющаяся значительной и ценной для одного человека, может не представлять никакого интереса для другого. При содержательном подходе количество информации, получаемое из сообщения, зависит от имеющихся предварительных знаний и оценивается человеком субъективно.
Если сообщение неинформативно для человека, то количество информации в нем с точки зрения этого человека равно нулю. Количество информации в информативном сообщении больше нуля.
Количественную меру информации независимую от субъективного человеческого восприятия ввел американский инженер и математик Шеннон.
Чтобы понять формулу Шеннона необходимо раскрыть учащимся смысл следующих понятий: опыт, неопределенность опыта, равновероятные события. Опытом называют идеализированную модель событий, точный результат которых заранее неизвестен, а количество вариантов велико и неопределенно. Примером опыта является бросание монеты, игрового кубика, вытаскивание из урны одного из 10 разноцветных шаров, вытаскивание одного из 30 экзаменационных билетов т.п. Исходы опыта считаются равновероятными, если ни один из них не имеет преимущества перед другим. С этой точки зрения в опыте с бросанием монеты выпадение орла и решки - равновероятно, в опыте с игровым кубиком выпадение каждой из шести граней кубика - также равновероятно.
С проведением опыта связана некоторая неопределенность. Информация, полученная в результате опыта, снимает эту неопределенность. Чем больше изначальная неопределенность опыта, тем больше информация, получаемая при его фактическом наступлении. При увеличении числа исходов опыта степень неопределенности опыта будет возрастать.
За количество информации Шеннон взял численную меру неопределенности опыта, имеющего n равновероятных исходов. Предположив, что неопределенность опыта пропорциональна числу исходов опыта, он получил следующую формулу
Н = log2n
Здесь Н - численная мера неопределенности опыта или количество информации, n – число исходов опыта. При n =2, H = 1. За единицу информации принимается количество информации, получаемое в опыте, состоящем в выборе одного из двух равновероятных исходов. Эта единица информации называется битом. При содержательном подходе формулу Шеннона для измерения информации можно применить только в частных случаях связанных с опытом, во всех остальных случаях она не пригодна.
С точки зрения кибернетического количество информации в некотором сообщении зависит от количества символов в тексте сообщения, но не зависит от содержания текста, т.е. носит объективный характер. Ключевым здесь являются понятия: алфавита, мощность алфавита, информационный вес символа, информационный объем текста. Алфавит – это конечное множество символов, используемых для представления информации. Число символов в алфавите называется мощностью алфавита. С каждым символом связана определенная вероятность его появления в тексте сообщения. В базовом курсе информатики допускается предположение, что появление каждого символа равновероятно. Тогда согласно Шеннону количество информации, связанное с появлением любого символа алфавита будет H=log2N. Здесь N- мощность алфавита. Величину H называют информационным весом символа.
Минимальная мощность алфавита пригодного для передачи информации равна 2. При N=2, H= log22=1 бит. Один символ двоичного алфавита несет информацию в 1 бит. Бит – основная единица измерения информации. Следующая по величине единица – байт =8 бит.
Отсюда следует, что количество информации (I), заключенное в тексте сообщения равно произведению информационного веса символа (H) на количество символов (K), т.е.
I = H∙K
Эту величину можно назвать информационным объемом текста.
Хранение информации.Понятие «информационные процессы» является базовым в информатике. Под информационными процессами понимаются любые действия, выполняемые с информацией. Существуют три основных типа информационных процессов. Это хранение, передача и обработка информации. Здесь следует рассмотреть эти процессы применительно к человеку без привязки к компьютеру. А реализацию этих информационных процессов с помощью ЭВМ рассмотреть при изучении архитектуры ЭВМ и информационных технологий.
С хранением информации связаны такие понятия как: носитель информации, внутренняя и внешняя память, хранилище информации.
Носитель информации – это физическая среда, непосредственно хранящая информацию.
Основным носителем информации для человека является его собственная биологическая память – мозг. Поскольку мозг находится внутри нас, то его называют внутренней памятью или внутренним носителем информации. Все остальные носители информации являются внешними по отношению к человеку, поэтому их называют внешними носителями информации или внешней памятью.
Вид внешних носителей информации менялся со временем: камень, дерево, бумага, магнитные и оптические диски. Для более надежного хранения информации, чем собственная память человек использует внешние носители, организует хранилища информации. Хранилище информации – это определенным образом организованная информация на внешних носителях, предназначенная для длительного хранения и постоянного использования. Хранилища данных можно также организовывать на устройствах внешней памяти компьютера
Основные свойства хранилища информации: объем хранимой информации, время доступа к информации, надежность хранения, наличие защиты.
Обработка информации.С обработкой информации связаны такие понятия как: постановка задачи обработки, исполнитель обработки, алгоритм обработки, типовые задачи обработки. Постановка задачи обработки: дан некоторый набор исходных данных - исходная информация, требуется получить некоторые результаты – итоговая информация. Сам процесс перехода от исходных данных к результату и есть процесс обработки. Исполнителем обработки может быть человек или техническое устройство, в том числе и компьютер. Для успешного выполнения обработки должно быть известно правило обработки информации или алгоритм обработки.
Необходимо научить учащихся различать типы обработки информации и приводить примеры.
Обработку информации можно разделить на два типа. Первый тип обработки – это когда в результате обработки меняется содержание информации. Решение задач с помощью математических формул или логических рассуждений является примером данного типа обработки информации.
При втором типе обработки информации меняется форма представления информации, но не меняется ее содержание. Примерами такого вида обработки информации является перевод текста с одного языка на другой, кодирование информации, структурирование данных, поиск. Структурирование связано с введением определенной организации в хранилище данных.
Задача поиска - имеется хранилище информации, требуется найти в нем нужную информацию, удовлетворяющую определенным условиям. Поиск осуществляется быстрее, если информация предварительно структурирована.
Передача информации.
Ключевыми понятиями в процессе передачи информации являются источник информации, приемник информации, информационный канал.
Информация передается в виде некоторой последовательности сигналов, символов, знаков. От источника к приемнику информация передается через некоторую материальную среду. Если в процессе передачи информации используются технические устройства связи, то их называют информационными каналами. К ним относятся телефон, радио, телевидение. Органы чувств человека играют роль биологических информационных каналов.
Общую схему процесса передачи информации можно представить следующим образом
Источник информации → информационные канал → Приемник информации
В рамках темы ученики должны уметь приводить конкретные примеры передачи информации, определять для этих примеров источник, приемник информации и используемые каналы связи.
При углубленном изучении базового курса информатики следует познакомить учащихся с основными понятиями технической теории связи и рассмотреть схему передачи информации по техническим каналам связи предложенную Шенноном.
Работу схемы можно пояснить на знакомом всем процессе разговора по телефону.
Под кодированием понимается любое преобразование информации, в форму пригодную для ее передачи по каналу. Процесс обратный кодированию называется декодированием.
Под термином «шум» понимают разного рода помехи, искажающие передаваемый сигнал и приводящие к потере информации. Такие помехи, прежде всего, возникают по техническим причинам. Для защиты каналов связи от воздействия шумов в первую очередь применяются технические способы. Клодом Шенноном была разработана специальная теория кодирования, дающая методы борьбы с шумами. Одна из важнейших идей этой теории состоит в том, что передаваемый по линии связи код должен быть избыточным. При этом избыточность передаваемой информации должна быть минимально - возможной, а достоверность принятой информации – максимальной. В современных системах цифровой связи применяется следующий прием борьбы с потерей информации при передаче. Все сообщение разбивается на порции- блоки. Для каждого блока вычисляется контрольная сумма (сумма двоичных цифр), которая передается вместе с данным блоком. В месте приема сообщения заново вычисляется контрольная сумма принятого блока и, если она не совпадает с первоначальной, то передача данного блока повторяется. Так будет повторяться до тех пор, пока исходная и конечная контрольные суммы не совпадут. Характеристикой информационного канала является скорость передачи информации – это информационный объем сообщения передаваемого в единицу времени. Поэтому единицы измерения скорости информационного потока: бит/сек, байт/сек и т.д. Пропускная способность канала связи – это максимальной количество информации, которое можно передать по этому каналу за единицу времени.