Краткая история развития вычислительной техники

Конспекты лекций по дисциплине

«ИНФОРМАТИКА»

для специальности 032102 “Физическая культура для лиц с отклонениями в состоянии здоровья (адаптивная физическая культура)”, специализации «Адаптивное физическое воспитание»

Лекции разработала

ст. преподаватель

Толстых Ольга Сергеевна

Краснодар - 2010

Раздел 1. Понятие информации, общая характеристика процессов передачи обработки и накопления информации

Лекция 1. Информация и информационные процессы

План:

1.1. Понятие информации, общая характеристика процессов передачи обработки и накопления информации.

1.2. Информатика как научно-учебная дисциплина.

1.3. Краткая история развития вычислительной техники.

  1. Понятие об информации,общая характеристика процессов передачи обработки и накопления информации

Информация – набор символов, графических образов или звуковых сигналов, несущих определенную смысловую нагрузку.

Информационные процессы – это процессы сбора, обработки, накопления, хранения, поиска и передачи информации.

Основными этапами (фазами) обращения информации являются:

· сбор (восприятие) информации;

· подготовка (преобразование) информации;

· передача информации;

· обработка (преобразование) информации;

· хранение информации;

· отображение (воспроизведение) информации.

Информационная система – организационно- упорядоченная совокупность информационных объектов и информационных технологий, реализующих информационные процессы.

Информационный объект – это информация, сохраненная и представленная каким-либо способом.

Способы передачи информации.

Сигнал(англ. signal, от лат. signum – знак) – это знак, физический процесс или явление, несущие сообщение о каком-либо событии, состоянии объекта либо передающие команды управления, оповещения и т. д.

Данными называют факты, сведения, представленные в формали­зованном виде (закодированные), занесенные на те или иные носите­ли и допускающие обработку с помощью специальных технических средств (в первую очередь ЭВМ.

Свойства информации.

актуальность(сохраняет свою ценность с течением времени);

полнота(ее достаточно для понимания и принятия решений);

адекватность(ее содержание соответствует состоянию объекта);

достоверность(степень соответствия истине);

канал связи

ИСТОЧНИК ----------->ПРИЁМНИК

Виды информации.

Информация может поступать в аналоговом (непрерывном) виде или дискретно (в виде последовательности отдельных сигналов).

Информатика как научно-учебная дисциплина.

Информатика – наука, изучающая способы автоматизированного создания, хранения, обработки, использования, передачи и защиты информации.

Структура информатики

Краткая история развития вычислительной техники - student2.ru

Информатика=ИНФОРМация+автоМАТИКА

Электронно-вычислительная машина (ЭВМ) или компьютер (англ.

Computer - вычислитель) – устройство для автоматизированной обработки информации.

Информационная технология — это совокупность методов и устройств, используемых людьми для обработки информации.

Краткая история развития вычислительной техники

1823 г. – английский учёный Чарльз Бэббидж разработал проект «Разностной машины» – прообраз современной программно-управляемой машины. С 1833 по 1871 г. он предложил схему «Аналитической машины», чтобы «заменить человека в одной из самых медленных операций его ума». Эта машина имела 4 основные части: «склад» для хранения чисел, «мельницу» для операций над ними, устройство управления и устройства ввода/вывода.

1847 г.– английский математик-самоучка Джордж Буль в работе «Математический анализ логики» изложил основы булевой алгебры. Д. Буль считается основоположником современной математической логики.

1928 г. – американский математик Дж. Нейман сформулировал основы теории игр, ныне применяемых в практике машинного моделирования.

Он сформулировал основные принципы, лежащие в основе архитектуры вычислительной машины.

1936 г.– английский математик А. Тьюринг выдвинул идею абстрактной вычислительной машины «Машина Тьюринга» – гипотетический универсальный преобразователь дискретной информации, теоретическая вычислительная система.

1938 г.– американский математик и инженер Клод Шеннон связал Булеву алгебру (аппарат математической логики), двоичную систему кодирования и релейно-контактные переключательные схемы, заложив основы будущих ЭВМ.

1946 г.– американский инженер-электронщик Д.П. Эккерт и физик Д.У. Моучли сконструировали в Пенсильванском университете первую ЭВМ «ENIAC» (Electronic Numerical Integrator and Computer). Она состояла из 20 тыс. электронных ламп.

1947 – 1948 гг.– академик С.А. Лебедев в Институте электроники АН УССР начинает работу по созданию МЭСМ (Малой Электронной Счётной Машины).

1952 г.– закончена разработка БЭСМ (Большой Электронной Счётной Машины) с быстродействием около 10 тыс. операций в секунду под руководством Сергея Алексеевича Лебедева.


Наши рекомендации