Понятие информации и информационных технологий.
Понятие информации и информационных технологий.
План:
1. Понятие информационных технологий, средства и методы информационных технологий.
2. Понятие информации. Способы измерения количества информации. Представление информации в ЭВМ, кодирование.
3. Понятие информатизации. Информационное общество. Информационная культура. Информационные продукты и ресурсы.
4. Эволюция информационных технологий. Возможности современных информационных технологий.
5. Классификация информационных технологий.
Понятие информационных технологий.
Технология с греческого (techne) – искусство, мастерство, умение, то есть процессы.
Процесс – совокупность действий, направленных на достижение поставленной цели.
Процесс = стратегия + средства и методы
Информационная технология – процесс, использующий совокупность средств и методов сбора, обработки и передачи данных (первичной информации) для получения информации нового качества о состоянии объекта, процесса или явления (информационного продукта)
Данные
|
Информационная технология – совокупность методов, производственных и программно-технических средств, объединенных в технологическую цепочку, обеспечивающую сбор, хранение, обработку, вывод и распространение информации для снижения трудоемкости процессов использования информационных ресурсов, повышения надежности и оперативности.
Современные (новые, компьютерные) информационные технологии – информационные технологии с "дружественным" интерфейсом работы пользователя, использующие персональные компьютеры и телекоммуникационные средства.
Автоматизированная информационная технология (АИТ) – системно организованная для решения задач управления совокупность методов и средств реализации операций сбора, регистрации, передачи, накопления, поиска, обработки и защиты информации на базе применения развитого программного обеспечения, используемых средств вычислительной техники и связи, а также способов, с помощью которого информация предлагается клиентам.
Три основных принципа современной (компьютерной) информационной технологии:
· интерактивный (диалоговый) режим работы с компьютером;
· интегрированность (стыковка, взаимосвязь) с другими программными продуктами;
· гибкость процесса изменения, как данных, так и постановок задач.
Составляющие понятия «технология»
Технология | ||
Объект | Цель | Средства и методы |
Общая характеристика технических средств ИТ
Основное назначение техники:
q облегчение и повышение уровня эффективности трудовых усилий человека;
q расширение его возможностей в процессе трудовой деятельности;
q освобождение (полное или частичное) человека от работы в условиях, опасных для здоровья.
Меры информации
Информацию можно рассматривать с нескольких сторон: синтаксической, семантической и прагматической. Информацию, рассматриваемую с синтаксических позиций, обычно называют данными, так как при этом не имеет значения смысловая сторона. На синтаксическом уровне учитываются формально-структурные характеристики информации. Семантический аспект предполагает учет смыслового содержания закодированных сообщений для формирования понятий и представлений. Прагматическая сторона информации отражает отношение информации и ее потребителя и характеризуется полезностью (ценностью) информации при достижении поставленной пользователем цели. ЭВМ оперирует с абстрактной информацией, поэтому интерес представляет синтаксический аспект информации. В качестве меры информации используют объем данных и количество информации.
Объем данных Vg измеряется количеством символов, разрядов в сообщении. В различных системах счисления один разряд имеет различный вес и, соответственно, меняется единица измерения данных:
· в десятичной системе счисления – дит;
· в двоичной системе счисления – бит (англ. bit – binary digit – двоичная цифра).
В качестве единицы информации Клод Шеннон предложил принять один бит. Бит – наименьшая единица измерения информации. На практике чаще применяется более крупная единица – байт, равная восьми битам. Именно восемь битов требуется для того, чтобы закодировать любой из 256 символов алфавита клавиатуры компьютера (256 = 28). Широко используются также более крупные производные единицы информации:
1 Килобайт (Кбайт) = 1024 байт = 210 байт;
1 Мегабайт (Мбайт) = 1024 Кбайт = 220 байт;
1 Гигабайт (Гбайт) = 1024 Мбайт = 230 байт;
1 Терабайт (Тбайт) = 1024 Гбайт = 240 байт;
1 Петабайт (Пбайт) = 1024 Тбайт = 250 байт.
Получение информации всегда связано с уменьшением разнообразия или неопределенности. Поэтому для определения количества информации необходимо установить количественную меру снятой неопределенности. Американский инженер Р. Хартли в 1928 году процесс получения информации рассматривал как выбор одного сообщения из конечного наперед заданного множества из N равновероятных сообщений, а количество информации I, содержащееся в выбранном сообщении, определял как двоичный логарифм N. Формула Хартли имеет вид:
I = log2N.
Эта формула удовлетворяет следующим естественным условиям:
· при N = 1 (нет неопределенности) количество информации I = 0;
· с увеличением возможностей выбора, то есть числа возможных сообщений N, мера информации I монотонно возрастает.
Исходя из этого понятия бит – наименьшая единица измерения количества информации, равная количеству информации, содержащемуся в опыте, имеющем два равновероятных исхода.
Американский ученый Клод Шеннон предложил в 1948г. другую формулу определения количества информации, учитывающую возможную неодинаковую вероятность сообщений в наборе событий. Формула Шеннона имеет вид:
I = – = – (p1log2p1 + p2log2p2 + . . . + pNlog2pN),
где pi – вероятность того, что получено именно i-е сообщение в наборе из N сообщений. Меру неопределенности выбора сообщения из набора в N сообщений называют энтропией.
Если события равновероятны, то вероятности p1, ..., pN равны между собой и каждая из них равна . Подставив значение p в формулу Шеннона, получим:
I = – = .
Таким образом, если сообщения независимы и равновероятны, формула Шеннона преобразуется в формулу Хартли. На практике количество информации всегда меньше или равно объему данных.
Кодирование звука
Для того чтобы компьютер мог обрабатывать звук, непрерывный звуковой сигнал должен быть превращен в последовательность электрических импульсов (нулей и единиц). Преобразование непрерывного звукового сигнала в последовательность двоичных кодов производится путем дискретизации сигнала по времени (Δt = t2 - t1) и квантования по уровню (ΔU = U2 – U1).
Временная дискретизация– способ преобразования звука в цифровую форму путем разбивания звуковой волны на отдельные маленькие временные участки, где амплитуды этих участков квантуются (им присваивается определенное значение).
Качество кодирования звука зависит от:
1) глубины кодирования звука – количество уровней звука
2) частоты дискретизации – количество изменений уровня сигнала в единицу времени (за 1 сек).
Культурологический критерий
Каждый знает, что обращение информации в социальной жизни чрезвычайно возросло. Ее стало намного больше, чем было когда-либо раньше. Современные информационные технологии и системы в системах массовой коммуникации (СМК) создали весьма насыщенную медийную среду обитания, основанную на процессах обмена и получения информации. Поэтому современная культура на порядки более информационна, чем любая другая предшествующая. Все это позволило также говорить о наступлении эры «информационного общества».
Парадокс заключается в том, что информационный взрыв в культурологическом плане привел к «размытию» смысла, его рассеиванию. Люди стали более информированными и их очень трудно чем-то удивить. Так, Жан Бодрийяр – поклонник постмодернизма писал: «Информации – становится все больше, а смысла все меньше» (1983). В эру постмодернизма мы оказались в среде симулякров (от лат. simulo, «делать вид, притворяться» или «копия, не имеющая оригинала») – идеализированных знаковых продуктов культуры, которые утратили свою связь с реальными объектами. Эти знаковые продукты создают нам противоречивую культурную среду обитания. Они быстро меняются, мы не можем отличить «плохие знаки» от «хороших», часто они вообще не имеют смысла. В культурном плане мы при помощи информационного взрыва создали общество «копии копий». Поэтому так популярны сегодня пародии, китчи, аналогии, шоу и пр. Причем именно креативные специалисты, обладающие повышенным самосознанием и рефлексией, создают эту «культуру копий», легко извращают, переинтерпретируют и преломляют их первоначальный смысл.
Нельзя забывать, что все разновидности обществ, которые сейчас живут на Земле, руководствуются моральными принципами, которые не имеют ничего общего с информацией. И возникли они в «доинформационную» эпоху. Вспомните о моральных и этических принципах, на которых строится любое общество: «поступай так, как хочешь, чтобы поступили с тобой», «все люди созданы равными», «живи сам и дай жить другим», «это моя страна, права она или нет», и прочие. А какие принципы дал нам информационный бум? Время – деньги? Кто обладает информацией, тот обладает миром?
Понятие информации и информационных технологий.
План:
1. Понятие информационных технологий, средства и методы информационных технологий.
2. Понятие информации. Способы измерения количества информации. Представление информации в ЭВМ, кодирование.
3. Понятие информатизации. Информационное общество. Информационная культура. Информационные продукты и ресурсы.
4. Эволюция информационных технологий. Возможности современных информационных технологий.
5. Классификация информационных технологий.