Базовое программное обеспечение

Информация

Создатели:

Филин Е. и Иванов Д.

факультет ИСиГН

группа 1м

Оглавление

Информация. 1

Информация [3] 3

Понятие информации. 3

Определение информации в различных науках. 3

Информационные революции. 4

Измерение информации. 5

Программное обеспечение [2] 7

Базовое программное обеспечение. 7

Системное программное обеспечение. 7

Операционные системы.. 7

Драйверы.. 10

Аппаратное обеспечение [1] 11

Информационные источники: 12

Информация [3]

Понятие информации

Определение информации в различных науках

Слово «информация» происходит от латинского слова informatio,что в переводе означает сведение, разъяснение, ознакомление. Понятие «информация» является базовым в курсе информатики, однако невозможно дать его определение через другие, более «простые» понятия.

Понятие «информация» используется в различных науках, при этом в каждой науке понятие «информация» связано с различными системами понятий.

Информация в биологии: Биология изучает живую природу и понятие «информация» связывается с целесообразным поведением живых организмов. В живых организмах информация передается и храниться с помощью объектов различной физической природы (состояние ДНК), которые рассматриваются как знаки биологических алфавитов. Генетическая информация передается по наследству и хранится во всех клетках живых организмов.

Филосовский подход: Информация – это взаимодействие, отражение, познание.

Кибернетический подход: Информация – это характеристики управляющего сигнала, передаваемого по линии связи

Информационные революции

В истории развития цивилизации произошло несколько информационных революций — преобразований общественных отношений из-за кардинальных изменений в сфере обработки информации. Следствием подобных преобразований являлось приобретение человеческим обществом нового качества.

Первая революция связана с изобретением письменности, что привело к гигантскому качественному и количественному скачку. Появилась возможность передачи знаний от поколения к поколению.

Вторая (середина XVI в.) вызвана изобретением книгопечатания, которое радикально изменило индустриальное общество, культуру, организацию деятельности.

Третья (конец XIX в.) обусловлена изобретением электричества, благодаря которому появились телеграф, телефон, радио, позволяющие оперативно передавать и накапливать информацию в любом объеме.

Четвертая (70-е гг. XX в.) связана с изобретением микропроцессорной технологии и появлением персонального компьютера. На микропроцессорах и интегральных схемах создаются компьютеры, компьютерные сети, системы передачи данных (информационные коммуникации). Этот период характеризуют три фундаментальные инновации:

  • переход от механических и электрических средств преобразования информации к электронным;
  • миниатюризация всех узлов, устройств, приборов, машин;
  • создание программно-управляемых устройств и процессов.

Последняя информационная революция выдвигает на передний план новую отрасль — информационную индустрию, связанную с производством технических средств, методов, технологий для производства новых знаний. Важнейшая составляющая информационной индустрии — информационная технология.

Измерение информации

1. Измерение информации в быту (информация как новизна).

Разные люди, получив одно и тоже сообщение, по-разному оценивают количество информации, содержащееся в нем. Оно зависит от того, насколько ново это сообщение для получателя. При этом подходе трудно выделить критерии, по которым можно было вывести единицу измерения информации.

2. Измерение информации в технике (информация – любая хранящаяся, обрабатываемая или передаваемая последовательность знаков).

А) В технике часто используют способ определение количества информации называемый объемным. Он основан на подсчете числа символов в сообщении, т.е. связан с его длиной и не зависит от содержания.

Б) В вычислительной технике (ВТ) применяют две стандартные единицы измерения:

бит (binary digit) и байт (bate). 1 байт = 8 бит

Бит – минимальная единица измерения информации, которая представляет собой двоичный знак двоичного алфавита {0;1}.

Байт – единица количества информации в СИ, представляющая собой восьмиразрядный двоичный код, с помощью которого можно представить один символ.

Информационный объем сообщения (информационная емкость сообщения) - количество информации в сообщении, измеренное в стандартных единицах или производных от них (Кбайтах, Мбайтах и т.д.).

1 байт = 8 бит

1 Кбайт = 210 байт = 1024 байт

1 Мбайт = 210 Кбайт = 220 байт

1 Гбайт = 210 Мбайт = 220 Кбайт = 230 байт

В теории информации количеством информации называют числовую характеристику сигнала, не зависящую от его формы и содержания, и характеризующую неопределенность, которая исчезнет после получения сообщения в виде данного сигнала. В этом случае количество информации зависит от вероятности получения сообщения о том или ином событии.

Для абсолютно достоверного события (событие обязательно произойдет, поэтому его вероятность равна 1) количество информации в сообщении о нем равно 0. Чем неожиданнее событие, тем больше информации он несет.

Лишь при равновероятных событиях: ответ «да» или «нет», несет 1 бит.

Программное обеспечение [3]

Базовое программное обеспечение

Наши рекомендации