большинство работающих 80 % в информ. Сфере.
обеспеченна возможность к доступу любого члена общества на любой территории и в любое время к необходимой информации.
информ. Становится важным стратегически м ресурсом и занимает ключевое место в экономике.
1.9.дисциплина информатика и её связь с другими науками.
Философия психология | Учение об информации к теории познания | Учения о формальных языках и знаковых системах | лингвистика |
математика | -теория математического моделирования -дискретнаяматематика -математическая логика - теория алгоритмов | Теория информации и теория управления | кибернетика |
Также информатика связанна с Химией Физикой, Электроникой и.т.д.
2.1.понятие информации. Информация- это сведения об окружающем мире (объекте, процессе, явлении, событии), которые являются объектом преобразования (хранение, передачу и т.д.) Восприятие инф - процесс преобразований сведений, поступающих их внешнего мира, в форму, пригодную для дальнейшего использования. 2.2. 2.3. Свойства(качество) инф : 1)релевантность(способ инф соответствовать потреб-лю) 2)своевременность(соответств-ть нужным потреб-лям воремя) 3)полнота(исчерпывающе характ-ть объект/процесс) 4)эргономичность(св-во хар-щее удобства формы и представления инф-и) 5)адекватность(соответ отраженному объекту или явлению) 6)достоверность(не иметь скрыт ошибок) 7)доступность(возможность получения инф) 8)защищенность(невозможность несанкционого использования/изменения) 9)живучесть(сохр свое кач-во с течением времени) 10)уникальность(хранящаяся в единств экземпляре) Количество инф – числовая величина, адекватно характеризующая востребованную инф – ю Общий характер получения инф: Наличие опыта, до опыта должна быть неопределенность в том или ином исходе, после опыта ситуация становится более определенной. 2.4. Классификация инф: По способам восприятия – Визуальная(90), Аудиальная(9), Тактильная, Обонятельная, вкусовая; По формам представления –Текстовая, Числовая, Графическая, Музыкальная, Комбинированная и тд. По общественному значению-личная,обществ,специальная, эстетическая Специальная - научная, техническая, управленческая, производственная Личная – наши знания, умения, интуиция 1.Дискретная – когда параметр сигнала принимает во времени последовательное число значений -> сообщение дискретно, и инф дискретная(чтение книги) 2. Непрерывная - Если источник вырабатывает непрерывное сообщение(речь человека) Дискретизация – непрерывное сообщение ,преобразованное в дискретное 2.5. кол-во инф Кол-во инф – числовая величина, адекватно характеризующая востребованную инф. Получение: 1)наличие опыта-всякая инф добывается нами в виде опыта2) до опыта должна быть неопределенность, после опыта она станов более определен 2.6. энтропия Энтропия –кол-во уменьшенной неопределенности (можно отождествить с кол-ом полученной инф) Е=I с 2 исход. 2.7.Вероятностный подход к определению кол-ва инф: все события происходят с различной вероятностью, но зависимость между вероятностью событий и кол-ом инф можно выразить формулой Шеннона (1948) : I – кол-во инф, N-возможных событий, Pi-вероятности отдельных событий Алфавитный подход к измерению информациине связывает кол-во информации с содержанием сообщения. Алфавитный подход - объективный подход к измерению информации. Он удобен при использовании технических средств работы с информацией, т.к. не зависит от содержания сообщения. Кол-во информации зависит от объема текста и мощности алфавита. Ограничений на max мощность алфавита нет, но есть достаточный алфавит мощностью 256 символов. Этот алфавит используется для представления текстов в компьютере. Поскольку 256=28, то 1символ несет в тексте 8 бит информации Семантический подход к измерению информации Учитывает целесообразность и полезность информации. Применяется при оценке эффективности получаемой информации и ее соответствия реальности. В рамках этого подхода рассмотрим такие меры, как целесообразность, полезность(учитывают прагматику информации) и истинностьинформации (учитывает семантику информации).(автор Норбет Винер) 2.8.единицы измерения информации. Содержательный подход к измерению информации.Сообщение – информативный поток, который в процессе передачи информации поступает к приемнику. Сообщение несет информацию для человека, если содержащиеся в нем сведения являются для него новыми и понятными Алфавитный подход к измерению информациине связывает кол-во информации с содержанием сообщения. Алфавитный подход - объективный подход к измерению информации. Он удобен при использовании технических средств работы с информацией, т.к. не зависит от содержания сообщения. Вероятностный подход к измерения информации.Все события происходят с различной вероятностью, но зависимость между вероятностью событий и количеством информации, полученной при совершении того или иного события можно выразить формулой которую в 1948 году предложил Шеннон. Количество информации - это мера уменьшения неопределенности. 1 БИТ – такое кол-во информации, которое содержит сообщение, уменьшающее неопределенность знаний в два раза. БИТ- это аименьшая единица измерения информации Единицы измерения информации: 1байт = 8 бит 1Кб (килобайт) = 210 байт = 1024 байт 1Мб (мегабайт) = 210 Кб = 1024 Кб 1Гб (гигабайт) = 210 Мб = 1024 Мб Формула Шеннона I - количество информации N – количество возможных событий pi – вероятности отдельных событий | 3.1.Язык как знаковая система. 1)Естественные(рус 325,анг265,…)Кит –несколько десятков тысяч знаков) Последовательность символов образуют слова(по правилу грамотности), слова складываются в предложении по правилу синтаксиса. Правила грамотности и синтаксис формируется с помощью больш-го кол-ва правил.2)Формализованные(сис-мы исчисления, языки программирования, язык матем)Основное отличие форм языков от естеств.языков, это наличие СТРОГИХ правил грамматики и синтаксиса.(нет исключений) 3.2.Кодирование информации -преобразование инф-циии из одной формы представления(знаковой системы)в другую. Средством кодирования служит таблица соответственности знаковых систем. Однотипное цифр. предоставление инф-ции, позволяет манипулировать всеми формами инф-ции:1)Графическая2)Символьная3)Звуковая Источник инф-ции---Кодирующее устройство---каналы и связи--Декодирование инф-ции-Получатель. Кодирование-это преобразование инф-ции в форму пригодную для передачи её. Декодирование-преобразование инф-ции в форму пригодную для получателя. Каналы связи- это технич.средства используемые для передачи инф-ции. Основная характеристика каналов связи СКООСТЬ ПЕРЕДАЧИ ИНФ-ЦИИ. 3.3Двоичное кодирование инфор-ции в компью Вычислительные машины и комп с 100%надежностью могут сохранять и распознавать не более 2 различных состояний(цифр). Двоичное кодирование – один из распространенных способов представления информации. В вычислительных машинах, в роботах и станках с числовым программным управлением, как правило, вся информация, с которой имеет дело устройство, кодируется в виде слов двоичного алфавита. технические устройства, которые могут со стопроцентной надежностью сохранять и распознавать не более двух различных состояний (цифр):Электромагнитное реле(замкнутое, разомкнутое);Поверхность магнитного диска(подмагничен, размагничен);Участок поверхности лазарнего диска(отражает, не отражает);Триггер(уст-во может замыкать и считывать 1бит инф-ции) 3.4Преимущество цифрового представления инф-ции 1)Универсальность-инфор запис в одних и тех же ячейках памяти2)Информация не теряет свои св-ва со временем-живучесть 3.5Кодирование текстовой информации Двоичное кодирование текстовой информации в компьютере. Информация, выраженная с помощью естественных и формальных языков в письменной форме, обычно называется текстовой информацией.Для представления текстовой информации (прописные и строчные буквы русского и латинского алфавитов, цифры, знаки и математические символы) достаточно 256 различных знаков. По формуле можно вычислить, какое количество информации необходимо, чтобы закодировать каждый знак: N = 2i => 256 = 2i => 28 = 2i => I = 8 битов.Для обработки текстовой информации на компьютере необходимо представить ее в двоичной знаковой системе. Для кодирования каждого знака требуется количество информации, равное 8 битам, т. е. длина двоичного кода знака составляет восемь двоичных знаков. Каждому знаку необходимо поставить в соответствие уникальный двоичный код из интервала от 00000000 до 11111111 3.6.кодовые таблицы. Кодовая таблица — таблица, сопоставляющая каждому значению байта некоторый символ (или его отсутствие). Обычно код символа имеет размер 8 бит, так что кодовая страница может содержать максимум 256 символов, из чего вытекает резкая недостаточность всякой 8-битной кодовой страницы для представления многоязычных текстов. К тому же часть символов используется как управляющие, из-за чего число печатных символов редко превышает 223. Кодовая таблица - таблица соответствий символов и их компьютерных кодов. В РФ распространены следующие кодировки: WIN1251 (Windows), KOI-8 (Unix), СP866 (DOS), Macintosh, ISO-8859-5 (Unix). 3.7.Технология создания текстового файла. Компьют. алфавит(N=28=256)à информац. вес символа – 8 бит.Таблица кодировки символа имеет уникальный код ASCll | символ | Двоичный код | N | | | | A | | | R | | Ввод символов
A R Строка код символа ASCll + код символа ASCll … 13(конец строки) + 10(новая строка) Коды символов управление символами Файл строка + строка + … + строка+26(конец файла) Последовательность строк управление символами Операц. Система => просмотр файла на экране => последовательность символов Вывод файла на печать Наши рекомендации |