Свойства и характеристики информации

Аспекты информатики

Информатика – это отрасль науки, изучающая структуру и общие свойства информации, а также вопросы, связанные с ее сбором, хранением, поиском, переработкой, преобразованием, распространением и использованием в различных сферах деятельности.

В соответствии с данным определением основными аспектами информатики являются:

¢ аппаратное обеспечение средств вычислительной техники;

¢ программное обеспечение средств вычислительной техники;

¢ средства взаимодействия аппаратного и программного обеспечения;

¢ средства взаимодействия человека с аппаратным и программным обеспечением.

Структура информатики

Hardware Software Brainware

Задачи информатики

Можно выделить три основные задачи информатики.

1. Исследование информационных процессов любой природы.

2. Разработка информационной техники и создание новых информационных технологий (ИТ) переработки данных.

3. Решение проблем по внедрению компьютерной техники и информационных технологий.

Основные понятия информатики

Информация – сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые уменьшают имеющуюся о них степень неопределенности, неполноты знаний.

Информационные объекты - предметы, процессы, явления материального или нематериального свойства, рассматриваемые с точки зрения их информационных свойств.

Информационные ресурсы – это знания, подготовленные людьми для социального использования в обществе и зафиксированные на материальном носителе.

В состав информационных ресурсов входят разнообразные по содержанию, структуре, технологии формирования и другим характеристикам информационные массивы, базы данных, библиотечные, архивные и иные фонды; регистры, кадастры, электронные библиотеки и другие информационные объекты.

Информационные ресурсы являются базой для создания информационных продуктов.

Информационный продукт – это документированная информация, подготовленная в соответствии с потребностями пользователей и представленная в форме товара.

Информационными продуктами являются программные продукты, базы и банки данных и другая информация. Информационный продукт, являясь результатом интеллектуальной деятельности человека, должен сохраняться на материальном носителе любого физического свойства в виде документов, программ, электронных таблиц и т.д.

База данных – совокупность связанных данных, организация которых основана на общих принципах описания, хранения и манипулирования данными.

Понятие информационной технологии

Информационная технология (ИТ) – это процесс, использующий совокупность средств и методов сбора, обработки и передачи данных (первичной информации) для получения информации нового качества о состоянии объекта, процесса или явления (информационного продукта).

На входе ИТ данные, на выходе – информационный продукт.

Понятие информационной системы

Под системой понимают любой объект, который одновременно рассматривается и как единое целое, и как объединенная в интересах достижения целей совокупность разнородных элементов.

Примером системы может служить компьютер, который состоит из электронных и электромеханических частей, линий связи и т.д. – все это элементы системы.

Цель данной системы – обработка данных.

Информационная система (ИС) – это система, в которой исследуемым объектом является информация.

Информационная система представляет собой совокупность организационных, технических, программных и информационных средств, объединенных в единую систему с целью сбора, хранения, обработки и выдачи необходимой информации для выполнения заданных функций.

ИС предназначена для поддержки принятия решений и производства информационных продуктов.

Составляющие элементы ИС: люди, компьютеры, компьютерные сети, программные продукты, базы данных, технические и программные средства связи.

Информация и данные.

Информация — это сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состояниях, которые уменьшают имеющуюся о них степень неопределенности, неполноты знаний.

Информатика рассматривает информацию как связанные между собой сведения, изменяющие наши представления о явлении или объекте окружающего мира. С этой точки зрения информацию можно рассматривать как совокупность знаний о фактических данных и зависимостях между ними.

В процессе обработки информация может менять структуру и форму. Признаком структуры являются элементы информации и их взаимосвязь. Формы представления информации могут быть различны. Основными из них являются: символьная (основана на использовании различных символов), текстовая (текст — это символы, расположенные в определенном порядке), графическая (различные виды изображений), звуковая.

В повседневной практике такие понятия, как информация и данные, часто рассматриваются как синонимы. На самом деле между ними имеются различия. Данными называется информация, представленная в удобном для обработки виде. Данные могут быть представлены в виде текста, графики, аудио-визуального ряда. Данные по определению – это совокупность каких-либо сведений, полученных с помощью сигналов различной природы: звуковых, световых, электрических и прочих.

Данные могут рассматриваться как сведения, признаки или записанные наблюдения, которые по каким-то причинам не используются, а только хранятся. Представление данных называется языком информатики, представляющим собой совокупность символов, соглашений и правил, используемых для общения, отображения, передачи информации в электронном виде.

Одной из важнейших характеристик информации является ее адекватность. Адекватность информации — это уровень соответствия образа, создаваемого с помощью информации, реальному объекту, процессу, явлению. От степени адекватности информации зависит правильность принятия решения.

Адекватность информации может выражаться в трех формах: синтаксической, семантической и прагматической.

Синтаксическая адекватность отображает формально-структурные характеристики информации, не затрагивая ее смыслового содержания. На синтаксическом уровне учитываются тип носителя и способ представления информации, скорость ее передачи и обработки, размеры кодов представления информации, надежность и Точность преобразования этих кодов и т. д. Информацию, рассматриваемую с таких позиций, обычно называют данными.

Семантическая адекватность определяет степень соответствия образа объекта самому объекту. Здесь учитывается смысловое содержание информации. На этом уровне анализируются сведения, отражаемые информацией, рассматриваются смысловые связи. Таким образом, семантическая адекватность проявляется при наличии единства информации и пользователя. Эта форма служит для формирования понятий и представлений, выявления смысла, содержания информации и ее обобщения.

Прагматическая адекватность отражает соответствие информации цели управления, реализуемой на ее основе. Прагматические свойства информации проявляются при наличии единртва информации, пользователя и цели управления. На этом уровне анализируются потребительские свойства информации, связанные с практическим использованием информации, с соответствием ее целевой функции деятельности системы.

Каждой форме адекватности соответствует своя мера количества информации.

Синтаксическая мера информации оперирует с обезличенной информацией, не выражающей смыслового отношения к объекту. На этом уровне объем данных в сообщении измеряется количеством символов в этом сообщении. В современных ЭВМ минимальной единицей измерения данных является бит — один двоичный разряд. Широко используются также более крупные единицы измерения: байт, равный 8 битам; килобайт, равный 1024 байтам; мегабайт, равный 1024 килобайтам, и т. д.

Семантическая мера информации используется для измерения смыслового содержания информации. Наибольшее распространение здесь получила тезаурусная мера, связывающая семантические свойства информации со способностью пользователя принимать поступившее сообщение. Тезаурус — это совокупность сведений, которыми располагает пользователь или система. Максимальное количество семантической информации потребитель получает при согласовании ее смыслового содержания со своим тезаурусом, когда поступающая информация понятна пользователю и несет ему ранее не известные сведения. С семантической мерой количества информации связан коэффициент содержательности, определяемый как отношение количества семантической информации к общему объему данных.

Прагматическая мера информации определяет ее полезность, ценность для процесса управления. Обычно ценность информации измеряется в тех же единицах, что и целевая функция управления системой.

Основные структуры данных

Работа с большими наборами данных автоматизируется проще, когда данные упорядочены, то есть образуют заданную структуру. Существует три основных типа структур данных:

• линейная,

• иерархическая,

• табличная.

Их можно рассмотреть на примере обычной книги.

Если разобрать книгу на отдельные листы и перемешать их, книга потеряет свое назначение. Она по-прежнему будет представлять набор данных, но подобрать адекватный метод для получения из нее информации весьма непросто. (Еще хуже дело будет обстоять, если из книги вырезать каждую букву отдельно — в этом случае вряд ли вообще найдется адекватный метод для ее прочтения.)

Если же собрать все листы книги в правильной последовательности, мы получим простейшую структуру данных — линейную. Такую книгу уже можно читать, хотя для поиска нужных данных ее придется прочитать подряд, начиная с самого начала, что не всегда удобно.

Для быстрого поиска данных существует иерархическая структура. Так, например, книги разбивают на части, разделы, главы, параграфы и т. п. Элементы структуры более низкого уровня входят в элементы структуры более высокого уровня: разделы состоят из глав, главы из параграфов и т. д.

Для больших массивов поиск данных в иерархической структуре намного проще, чем в линейной, однако и здесь необходима навигация, связанная с необходимостью просмотра. На практике задачу упрощают тем, что в большинстве книг есть вспомогательная перекрестная таблица, связывающая элементы иерархической структуры с элементами линейной структуры, то есть связывающая разделы, главы и параграфы с номерами страниц. В книгах с простой иерархической структурой, рассчитанных на последовательное чтение, эту таблицу принято называть оглавлением, а в книгах со сложной структурой, допускающей выборочное чтение, ее называют содержанием.

Линейные структуры — это хорошо знакомые нам списки. Список — это простейшая структура данных, отличающаяся тем, что каждый элемент данных однозначно определяется своим номером в массиве. Проставляя номера на отдельных страницах рассыпанной книги, мы создаем структуру списка. Обычный журнал посещаемости занятий, например, имеет структуру списка, поскольку все студенты группы зарегистрированы в нем под своими уникальными номерами. Мы называем номера уникальными потому, что в одной группе не могут быть зарегистрированы два студента с одним и тем же номером.

С таблицами данных мы тоже хорошо знакомы, достаточно вспомнить всем известную таблицу умножения. Табличные структуры отличаются от списочных тем, что элементы данных определяются адресом ячейки, который состоит не из одного параметра, как в списках, а из нескольких. Для таблицы умножения, например, адрес ячейки определяется номерами строки и столбца. Нужная ячейка находится на их пересечении, а элемент выбирается из ячейки.

При хранении табличных данных количество разделителей должно быть больше, чем для данных, имеющих структуру списка. Например, когда таблицы печатают в книгах, строки и столбцы разделяют графическими элементами — линиями вертикальной и горизонтальной разметки.

Если нужно сохранить таблицу в виде длинной символьной строки, используют один символ-разделитель между элементами, принадлежащими одной строке, и другой разделитель для отделения строк, например так:

Меркурий*0,39*0,056*0#Венера*0,67*0,88*0#Земля*1,0*1,0*1#Марс*1,51*0,1*2*...

Для розыска элемента, имеющего адрес ячейки ( m , n ), надо просмотреть набор данных с самого начала и пересчитать внешние разделители. Когда будет отсчитан m — 1 разделитель, надо пересчитывать внутренние разделители. После того как будет найден n — 1 разделитель, начнется нужный элемент. Он закончится, когда будет встречен любой очередной разделитель.

Еще проще можно действовать, если все элементы таблицы имеют равную длину. Такие таблицы называют матрицами . В данном случае разделители не нужны, поскольку все элементы имеют равную длину и количество их известно. Для розыска элемента с адресом ( m , n ) в матрице, имеющей М строк и N столбцов, надо просмотреть ее с самого начала и отсчитать a[N(m — 1) + ( n — 1)] символ, где а — длина одного элемента. Со следующего символа начнется нужный элемент. Его длина тоже равна а, поэтому его конец определить нетрудно.

Таким образом, табличные структуры данных (матрицы) — это упорядоченные структуры, в которых адрес элемента определяется номером строки и номером столбца, на пересечении которых находится ячейка, содержащая искомый элемент.

Многомерные таблицы . Выше мы рассмотрели пример таблицы, имеющей два измерения (строка и столбец), но в жизни нередко приходится иметь дело с таблицами, у которых количество измерений больше. Вот пример таблицы, с помощью которой может быть организован учет учащихся. Номер факультета: 3

Номер курса (на факультете): 2

Номер специальности (на курсе): 2

Номер группы в потоке одной специальности: 1

Номер учащегося в группе: 19

Размерность такой таблицы равна пяти, и для однозначного отыскания данных об учащемся в подобной структуре надо знать все пять параметров (координат).Нерегулярные данные, которые трудно представить в виде списка или таблицы, часто представляют в виде иерархических структур. С подобными структурами мы очень хорошо знакомы по обыденной жизни. Иерархическую структуру имеет система почтовых адресов. Подобные структуры также широко применяют в научных систематизациях и всевозможных классификациях. В иерархической структуре адрес каждого элемента определяется путем доступа (маршрутом), ведущим от вершины структуры к данному элементу. Вот, например, как выглядит путь доступа к команде, запускающей программу Калькулятор (стандартная программа компьютеров, работающих в операционной системе Windows):

Пуск > Программы > Стандартные > Калькулятор. Дихотомия данных. Основным недостатком иерархических структур данных является увеличенный размер пути доступа. Очень часто бывает так, что длина маршрута оказывается больше, чем длина самих данных, к которым он ведет. Поэтому в информатике применяют методы для регуляризации иерархических структур с тем, чтобы сделать путь доступа компактным. Один из методов получил название дихотомии(разделение).В иерархической структуре, построенной методом дихотомии, путь доступа к любому элементу можно представить как путь через рациональный лабиринт с поворотами налево (0) или направо (1) и, таким образом, выразить путь доступа в виде компактной двоичной записи.

Упорядочение структур данных

Списочные и табличные структуры являются простыми. Ими легко пользоваться, поскольку адрес каждого элемента задается числом (для списка), двумя числами(для двумерной таблицы) или несколькими числами для многомерной таблицы. Они также легко упорядочиваются. Основным методом упорядочения является сортировка. Данные можно сортировать по любому избранному критерию, например: по алфавиту, по возрастанию порядкового номера или по возрастанию какого-либо параметра.

Несмотря на многочисленные удобства, у простых структур данных есть и недостаток — их трудно обновлять. Если, например, перевести студента из одной группы в другую, изменения надо вносить сразу в два журнала посещаемости; при этом в обоих журналах будет нарушена списочная структура. Если переведенного студента вписать в конец списка группы, нарушится упорядочение по алфавиту, а если его вписать в соответствии с алфавитом, то изменятся порядковые номера всех студентов, которые следуют за ним.

Таким образом, при добавлении произвольного элемента в упорядоченную структуру списка может происходить изменение адресных данных у других элементов. В журналах успеваемости это пережить нетрудно, но в системах, выполняющих автоматическую обработку данных, нужны специальные методы для решения этой проблемы.

Иерархические структуры данных по форме сложнее, чем линейные и табличные, но они не создают проблем с обновлением данных. Их легко развивать путем создания новых уровней. Даже если в учебном заведении будет создан новый факультет, это никак не отразится на пути доступа к сведениям об учащихся прочих факультетов.

Недостатком иерархических структур является относительная трудоемкость записи адреса элемента данных и сложность упорядочения. Часто методы упорядочения в таких структурах основывают на предварительной индексации, которая заключается в том, что каждому элементу данных присваивается свой уникальный индекс, который можно использовать при поиске, сортировке и т. п. Ранее рассмотренный принцип дихотомии на самом деле является одним из методов индексации данных в иерархических структурах. После такой индексации данные легко разыскиваются по двоичному коду связанного с ними индекса.

Адресные данные. Если данные хранятся не как попало, а в организованной структуре (причем любой), то каждый элемент данных приобретает новое свойство (параметр), который можно назвать адресом. Конечно, работать с упорядоченными данными удобнее, но за это приходится платить их размножением, поскольку адреса элементов данных — это тоже данные, и их тоже надо хранить и обрабатывать.

Операции с данными

Для повышения качества данные преобразуются из одного вида в другой с помощью методов обработки. Обработка данных включает операции:

1) Ввод(сбор) данных — накопление данных с целью обеспечения достаточной полноты для принятия решений

2) Формализация данных — приведение данных поступающих из разных источников, к одинаковой форме, для повышения их доступности.

3) Фильтрация данных — это отсеивание «лишних» данных, в которых нет необходимости для повышения достоверности и адекватности.

4) Сортировка данных — это упорядочивание данных по заданному признаку с целью удобства их использования.

5) Архивация — это организация хранения данных в удобной и легкодоступной форме.

6) Защита данных — включает меры, направленные на предотвращение утраты, воспроизведения и модификации данных.

7) Транспортировка данных — прием и передача данных между участниками информационного процесса.

8) Преобразование данных — это перевод данных из одной формы в другую или из одной структуры в другую.

Меры информации.

Классификация мер. Для измерения информации вводятся два параметра: количество информации I и объем данных Vд.

Эти параметры имеют разные выражения и интерпретацию в зависимости от рассматриваемой формы адекватности. Каждой форме адекватности соответствует своя мера количества информации и объема данных (рис.2.1).

Рис.2.1. Меры информации

Синтаксическая мера информации оперирует с обезличенной информацией, не выражающей смыслового отношения к объекту.

Объем данных Vд в сообщении измеряется количеством символов (разрядов) в этом сообщении. В различных системах счисления один разряд имеет различный вес и соответственно меняется единица измерения данных:

в двоичной системе счисления единица измерения – бит (bit – binarydigit – двоичный разряд). В современных ЭВМ наряду с минимальной единицей измерения данных «бит» широко используется укрупненные единицы измерения байт – 23 бит, слово – 24 бит, двойное слово 25 бит, килобайт – 210 байт; мегабайт – 210 килобайт, гигабайт – 210 мегабайт;

в десятичной системе счисления единица измерения – дит (десятичный разряд).

Пример 2.3. Сообщение в двоичной системе в виде восьмиразрядного двоичного кода 10111011 имеет объем данных Vд = 8 бит.

Сообщение в десятичной системе в виде шестиразрядного числа 275903 имеет объем данных Vд= 6 дит.

Количество информации I на синтаксическом уровне определяется в связи с понятием неопределенности состояния системы (энтропии системы). Считается что получение информации о какой-либо системе всегда связано с изменением степени неосведомленности получателя о состоянии этой системы.

Пусть до получения информации потребитель имеет некоторые предварительные (априорные) сведения о системе a. Мерой его неосведомленности о системе является функция H(a), которая в то же время служит и мерой неопределенности состояния системы.

После получения некоторого сообщения b получатель приобрел некоторую дополнительную информацию , уменьшившую его априорную неосведомленность так, что апостериорная (после получения сообщения b неопределенность состояния системы стала .

Тогда количество информации о системе, полученной в сообщении b, определится как

т.е. мерой количества информации изменение (уменьшение) неопределенности состояния системы.

Если конечная неопределенность обратится в нуль, то первоначальное неполное знание заменится полным знанием и количество информации . Иными словами, энтропия системы H(a) может рассматриваться как мера недостающей информации.

Энтропия системы H(a), имеющая N возможных состояний, согласно формуле Шеннона, равна:

H(a)= -,

где – вероятность того, что система находится в i-м состоянии.

Часто данные кодируются числовыми кодами в той или иной системе счисления, особенно это актуально при представлении информации в компьютере. Естественно, что одно и тоже количество разрядов в разных системах счисления может передать разное число состояний отображаемого объекта, что можно представить в виде соотношения

,

где N- число всевозможных отображаемых состояний;

m- основание системы счисления (разнообразие символов алфавита);

n- число разрядов (символов) в сообщении.

Пример 2.4. По каналу связи передается n-разрядное сообщение, использующее m различных символов. Так как количество всевозможных кодовых комбинаций будет , то при равной вероятности появления любой из них количество информации, приобретенной абонентом в результате получения сообщения, будет формула Хартли. Если в качестве основания логарифма принять m, то I=n. В данном случае количество информации (при условии полного априорного незнания абонентом содержания сообщения) будет равно объему данных , полученных по каналу связи. Для не равновероятных состояний системы всегда .

Наиболее часто используются двоичные и десятичные логарифмы. Единицами измерения в этих случаях будут соответственно бит и дит.

Коэффициент (степень) информативности (лаконичность) сообщения определяется отношением количества информации к объему данных, т.е.

, причем 0<Y<1.

С увеличением Y уменьшаются работы по преобразованию информации (данных) в системе. Поэтому стремятся к повышению информативности, для чего разрабатываются специальные методы оптимального кодирования информации.

Семантическая мера информации. Для измерения смыслового содержания информации, т.е. ее количества на семантическом уровне, наибольшее признание получила тезаурусная мера, которая связывает семантические свойства информации со способностью пользователя принимать поступившее сообщение. Для этого используется понятие тезаурус пользователя.

Тезаурус- это совокупность сведений, которыми располагает пользователь или система.

В зависимости от соотношений между смысловым содержанием информации S и тезаурусом пользователя Sp изменяется количество семантической информации Ic воспринимаемой пользователем и включаемой им в дальнейшем в свой тезаурус.

Максимальное количество семантической информации Ic потребитель приобретает при согласовании ее смыслового содержания S со своим тезаурусом Sp, когда поступающая информация понятна пользователю и несет ему ранее не известные (отсутствующие в его тезаурусе) сведения. Следовательно, количество семантической информации в сообщении, количество новых знаний, получаемых пользователем, является величиной относительной. Одно и то же сообщение может иметь смысловое содержание для компетентного пользователя и быть бессмысленным (семантический шум) для пользователя некомпетентного.

Относительной мерой количества семантической информации может служить коэффициент содержательности C, который определяется как отношение количества семантической информации к ее объему:

Прагматическая мера информации. Эта мера определяет полезность информации (ценность) для достижения пользователем поставленной цели. Эта мера также величина относительная, обусловленная особенностями использования этой информации в той или иной системе. Ценность информации целесообразно измерять в тех же самых единицах (или близких к ним), в которых измеряется целевая функция.

Системы Счисления

Для перевода двоичного кода в десятичный код необходимо умножить числовое значение разряда на вес разряда, а затем вычислить сумму полученных произведений.

Например, двоичный код 111101 в десятичном представлении:

1∙20 + 0∙21 + 1∙22 + 1∙23 + 1∙24 + 1∙25 = 61

Для перевода десятичного числа в двоичный код необходимо поделить число на основание системы счисления (в данном случае на число 2) и последовательно записать остатки, двигаясь от последнего к первому.

Поколения ЭВМ.

¢ Первое поколение - создавалось в период с 1945 по 1955 гг. В качестве элементной базы использовали электронные лампы и реле.

В СССР первая ламповая ЭВМ - МЭСМ (малая электронно-счетная машина), была создана коллективом под руководством Сергея Алексеевича Лебедева (основоположник отечественной вычислительной техники).

Электронные лампы грелись, потребляли много электроэнергии, были громоздки и часто выходили из строя.

  1. Второе поколение - создавалось в период с 1956 по 1963 гг. После появления полупроводниковых элементов основной элементной базой компьютеров стали транзисторы. Память машин этого поколения создавалась на основе магнитных запоминающих устройств.

Отечественная ЭВМБЭСМ-6 была лучшей в мире ЭВМ второго поколения.

  1. Третье поколение - разрабатывалось с 1964 по 1971 гг. на новой элементной базе, представляющей собой интегральные схемы.

Интегральные схемы были изобретены, независимо друг от друга, Джеком Килби и Робертом Нойсом.

Уменьшились габариты и потребляемая мощность компьютеров, возросла надежность

  1. Четвертое поколение. Дальнейшая интеграция микросхем привела к созданию чипов (СБИС) (кремниевых кристаллов), что и стало элементной базой ЭВМ четвертого поколения - производительность возросла до сотен миллионов операций в секунду.

Появление микропроцессоров в компании Intel (изобретатель – ТэдХофф) привело к разработке микрокомпьютеров, первые из которых появились в 1970-х гг.

К четвертому поколению относятся персональные компьютеры, разработчиком которых считается Стив Возняк, один из основателей AppleComputer

  1. Пятое поколение - системы искусственного интеллекта. Разработки по созданию ЭВМ на основе искусственного интеллекта (нейрокомпьютеров) начались в 80-х гг. XX в. и продолжаются по сей день. Нейрокомпьютеры имитирует человеческую нейронную сеть.

Классы вычислительных машин

Суперкомпьютеры обладают самым высоким быстродействием и имеют огромные вычислительные мощности.

Суперкомпьютеры используются для сложных расчетов в аэродинамике, метеорологии, космических и физических исследованиях, экономике и финансовом управлении.

Суперкомпьютеры

Производительность наиболее мощных систем достигает десятки Tflops (триллионов операций с плавающей точкой в секунду).

Первое место в редакции Тор50 2007 года заняла машина, установленная в Томском госуниверситете, – суперкомпьютер “СКИФ Cyberia” компании
“Т-Платформы” с производительностью в
9 -12 TFlop/s.

В МГУ установлена машина СКИП, занимающая в рейтинге производительности 36 место – 60 Tflops триллионов операций/сек. Содержит 1250
4х-ядерных процессоров. Используется дляклимат прогнозов, астрофизических исследований и т.д.

Мейнфреймы

Высокопроизводительные компьютеры со значительным объёмом оперативной и внешней памяти, предназначенные для организации централизованных хранилищ данных большой ёмкости и выполнения интенсивных вычислительных работ.

Мейнфреймы способны поддерживать больше одновременно работающих программ, чем суперкомпьютеры, и одновременную работу сотен и тысяч пользователей.

Мейнфреймы выполняют задачи по интеграции больших неоднородных компьютерных комплексов, выглядящих с точки зрения пользователя единым компьютером .

Мини компьютеры используются при управлении предприятиями и организациями. К ним относятся серверы высокого уровня, являющиеся центральными компьютерами в сетях предприятия и управляющие локальными сетями.

Микро компьютеры– это самые массовые модели вычислительных машин. К ним относятся персональные компьютеры настольного и мобильного исполнения. Данный класс может использоваться в качестве рабочих станций, компьютеров для офиса или дома.

Архитектура фон Неймана.

Основные принципы, положенные в основу вычислительной машины, которая могла бы хранить программу в своей памяти, были сформулированы американским математиком Джоном фон Неймананом в 1945 г.

Принципы были сформулированы в докладе, который был разослан многим ученым и получил широкую известность.

Джон фон Нейман выделил пять базовых элементов компьютера:

  • арифметико-логическое устройство (АЛУ),
  • устройство управления (УУ),
  • запоминающее устройство,
  • система ввода информации,
  • система вывода информации.

Свойства и характеристики информации - student2.ru

Наличие заданного набора исполняемых команд и программ было характерной чертой первых компьютерных систем. Сегодня подобный дизайн применяют с целью упрощения конструкции вычислительного устройства.

14. Общая структура компьютера (структура Джона фон Неймана)

 
 
L t1UKDXHTtVBSKC5JzEtJzMnPS7VVqkwtVrK34+UCAAAA//8DAFBLAwQUAAYACAAAACEA3EzgD8EA AADbAAAADwAAAGRycy9kb3ducmV2LnhtbERPS27CMBDdV+odrKnErjhlkVQBg6JCRSUWqIQDDPGQ hMTjyHZJevt6UYnl0/uvNpPpxZ2cby0reJsnIIgrq1uuFZzLz9d3ED4ga+wtk4Jf8rBZPz+tMNd2 5G+6n0ItYgj7HBU0IQy5lL5qyKCf24E4clfrDIYIXS21wzGGm14ukiSVBluODQ0O9NFQ1Z1+jIIb Xcr6UBxceczS7W6Puy67nZWavUzFEkSgKTzE/+4vrSCNY+OX+APk+g8AAP//AwBQSwECLQAUAAYA CAAAACEA8PeKu/0AAADiAQAAEwAAAAAAAAAAAAAAAAAAAAAAW0NvbnRlbnRfVHlwZXNdLnhtbFBL AQItABQABgAIAAAAIQAx3V9h0gAAAI8BAAALAAAAAAAAAAAAAAAAAC4BAABfcmVscy8ucmVsc1BL AQItABQABgAIAAAAIQAzLwWeQQAAADkAAAAQAAAAAAAAAAAAAAAAACkCAABkcnMvc2hhcGV4bWwu eG1sUEsBAi0AFAAGAAgAAAAhANxM4A/BAAAA2wAAAA8AAAAAAAAAAAAAAAAAmAIAAGRycy9kb3du cmV2LnhtbFBLBQYAAAAABAAEAPUAAACGAwAAAAA= " strokeweight="2.25pt">
АЛУ
L t1UKDXHTtVBSKC5JzEtJzMnPS7VVqkwtVrK34+UCAAAA//8DAFBLAwQUAAYACAAAACEAswBFlMQA AADbAAAADwAAAGRycy9kb3ducmV2LnhtbESPzW7CMBCE75V4B2uRuBWHHkIJGIT4EZU4VBAeYImX JBCvI9uF8PZ1pUocRzPzjWa26Ewj7uR8bVnBaJiAIC6srrlUcMq3758gfEDW2FgmBU/ysJj33maY afvgA92PoRQRwj5DBVUIbSalLyoy6Ie2JY7exTqDIUpXSu3wEeGmkR9JkkqDNceFCltaVVTcjj9G wZXOeblf7l3+PU7Xmx1ubuPrSalBv1tOQQTqwiv83/7SCtIJ/H2JP0DOfwEAAP//AwBQSwECLQAU AAYACAAAACEA8PeKu/0AAADiAQAAEwAAAAAAAAAAAAAAAAAAAAAAW0NvbnRlbnRfVHlwZXNdLnht bFBLAQItABQABgAIAAAAIQAx3V9h0gAAAI8BAAALAAAAAAAAAAAAAAAAAC4BAABfcmVscy8ucmVs c1BLAQItABQABgAIAAAAIQAzLwWeQQAAADkAAAAQAAAAAAAAAAAAAAAAACkCAABkcnMvc2hhcGV4 bWwueG1sUEsBAi0AFAAGAAgAAAAhALMARZTEAAAA2wAAAA8AAAAAAAAAAAAAAAAAmAIAAGRycy9k b3ducmV2LnhtbFBLBQYAAAAABAAEAPUAAACJAwAAAAA= " strokeweight="2.25pt">
УУ
L t1UKDXHTtVBSKC5JzEtJzMnPS7VVqkwtVrK34+UCAAAA//8DAFBLAwQUAAYACAAAACEATXZJksMA AADbAAAADwAAAGRycy9kb3ducmV2LnhtbESPQYvCMBSE7wv+h/AEb2vqHupSjSLqouBB1voDns2z rTYvJYla/70RFvY4zMw3zHTemUbcyfnasoLRMAFBXFhdc6ngmP98foPwAVljY5kUPMnDfNb7mGKm 7YN/6X4IpYgQ9hkqqEJoMyl9UZFBP7QtcfTO1hkMUbpSaoePCDeN/EqSVBqsOS5U2NKyouJ6uBkF Fzrl5W6xc/l+nK7WG1xfx5ejUoN+t5iACNSF//Bfe6sVpCN4f4k/QM5eAAAA//8DAFBLAQItABQA BgAIAAAAIQDw94q7/QAAAOIBAAATAAAAAAAAAAAAAAAAAAAAAABbQ29udGVudF9UeXBlc10ueG1s UEsBAi0AFAAGAAgAAAAhADHdX2HSAAAAjwEAAAsAAAAAAAAAAAAAAAAALgEAAF9yZWxzLy5yZWxz UEsBAi0AFAAGAAgAAAAhADMvBZ5BAAAAOQAAABAAAAAAAAAAAAAAAAAAKQIAAGRycy9zaGFwZXht bC54bWxQSwECLQAUAAYACAAAACEATXZJksMAAADbAAAADwAAAAAAAAAAAAAAAACYAgAAZHJzL2Rv d25yZXYueG1sUEsFBgAAAAAEAAQA9QAAAIgDAAAAAA== " strokeweight="2.25pt">
 
 
УВВ

¢ Центральный процессор (ЦП) – управляет функционированием всей системы и выполняет обработку данных.

¢ Оперативная память (ОП) – хранит исходные данные и всю необходимую информацию для обработки данных.

¢ Устройства ввода-вывода (УВВ) – перемещают данные между компьютером и окружающей средой в обе стороны.

¢ Системные внутренние связи – некоторый механизм, обеспечивающий обмен информацией между ЦП, ОП, УВВ.

Принципы Джона фон Неймана

¢ Принцип двоичного кодирования.

¢ Принцип программного управления - ЦП выполняет программу, состоящую из набора команд.

¢ Принцип однородности памяти – над данными любого типа (число, текст, команда) могут быть выполнены одни и те же действия.

¢ Принцип адресности– ОП состоит из ячеек, каждая из которых имеет свой адрес.

¢ Принцип линейности памяти – память имеет линейную структуру, т.е. представляет собой вектор.

Оперативная память

ОП или ОЗУ (оперативно-запоминающее устройство) – это устройство для временного хранения данных.

ОП представляет собой набор ячеек, доступ к которым может осуществляться в произвольном порядке, поэтому память получила название RAM(RandomAccessMemory – память произвольного доступа).

ОП обнуляется при включении и выключении компьютера.

Кэш-память

Кэш-память – это тоже RAM память, но по принципу физической организации относится к статической памяти SRAM (Static RAM).

Кэш-память распределяют по нескольким уровням.

Кэш первого уровня помещается в том же кристалле, что и сам процессор, и имеет объем порядка десятковКбайт.

Кэш второго уровня находится либо в кристалле процессора, либо в том же узле, что и процессор.

Кэш-память первого и второго уровня работает на тактовой частоте, согласованной с частотой процессора (объем порядка сотенКбайт).

Кэш третьего уровня располагается на материнской плате вблизи процессора, работает на частоте материнской платы, и ее объем может достигать нескольких Мбайт

Кэш-память состоит из трех основных элементов:

¢ контроллер кэш-памяти;

¢ кэш-память данных (DataRAM);

¢ кэш-память адресов (TagRAM).

Процессор для получения данных обращается первоначально к TagRAM, если анализ адресов показывает, что требуемых данных в кэш-памяти нет, происходит обращение к ОП.

Постоянная п

Наши рекомендации