Что называется информатикой? История появления и развития информатики.
Что называется информатикой? История появления и развития информатики.
Ответ:
В настоящее время под информатикой понимают различные по своей природе понятия: научную дисциплину, отрасль народнохозяйственной деятельности, актуальное направление науки и т.д., но наиболее часто принято использовать этот термин в двух значениях: информатика – это электронная информационная технология и научная дисциплина, составляющая теоретическую основу этой технологии.
Термин информатика связан с такими выдающимися учёными, как Отле, Винер, Шеннон, Тауб, Прайс и другими. Именно они положили начало изучению явления информации, анализу проблем социальной коммуникации, информационного поиска и многого другого.
Термин «информатика» был введен в Германии учёным Штейнбургом в 1957 году. Позже этот термин был переведён на другие языки благодаря заслугам французского учёного Дрейфуса.
Выделение информатики как самостоятельной области человеческой деятельности в первую очередь связано с развитием компьютерной техники. Причем основная заслуга в этом принадлежит микропроцессорной технике, появление которой в середине 70-х гг. послужило началом второй электронной революции. С этого времени элементной базой вычислительной машины становятся интегральные схемы и микропроцессоры, а область, связанная с созданием и использованием компьютеров, получила мощный импульс в своем развитии. Термин "информатика" приобретает новое дыхание и используется не только для отображения достижений компьютерной техники, но и связывается с процессами передачи и обработки информации.
В нашей стране подобная трактовка термина "информатика" утвердилась с момента принятия решения в 1983 г. на сессии годичного собрания Академии наук СССР об организации нового отделения информатики, вычислительной техники и автоматизации. Информатика трактовалась как "комплексная научная и инженерная дисциплина, изучающая все аспекты разработки, проектирования, создания, оценки, функционирования основанных на ЭВМ систем переработки информации, их применения и воздействия на различные области социальной практики".
Информатика в таком понимании нацелена на разработку общих методологических принципов построения информационных моделей. Поэтому методы информатики применимы всюду, где существует возможность описания объекта, явления, процесса и т.п. с помощью информационных моделей.
Что такое информационные процесс?
Ответ:
Применение методов к данным называется информационным процессом. Если говорить более полно, то информационный процесс — процесс получения, создания, сбора, обработки, накопления, хранения, поиска, распространения и использования информации.
Среди всех информационных процессов можно выделить наиболее общие. К ним относятся: получение, передача, хранение и обработка информации. Эти процессы являются базовыми. Их выполнение порождает другие информационные процессы. Так, например, получение информации может быть связано с её поиском, хранение — с накоплением. При передаче информации необходимо позаботиться о её защите от разрущающих воздействий. Все процессы требуют той или иной формы представления информации, определяет которую процесс — кодирование. Он сопровождает все остальные процессы и является связующим звеном между ними.
Информационные процессы не изолированы, а протекают циклично в единстве и взаимосвязи друг с другом.
Данные, информация, знания.
Ответ:
Информация является динамическим объектом, образующимся в момент взаимодействия объективных данных и субъективных методов. Как и всякий объект, она обладает свойствами (объекты различимы по своим свойствам). Характерной особенностью информации, отличающей ее от других объектов природы и общества, является отмеченный выше дуализм: на свойства информации влияют как свойства данных, составляющих ее содержательную часть, так и свойства методов, взаимодействующих с данными в ходе информационного процесса. По окончании процесса свойства информации переносятся на свойства новых данных, то есть свойства методов могут переходить на свойства данных.
Данные — диалектическая составная часть информации. Они представляют собой зарегистрированные сигналы. При этом физический метод регистрации может быть любым: механическое перемещение физических тел, изменение их формы или параметров качества поверхности, изменение электрических, магнитных, оптических характеристик, химического состава и (или) характера химических связей, изменение состояния электронной системы и многое другое. В соответствии с методом регистрации данные могут храниться и транспортироваться на носителях различных видов.
Зна́ние — форма существования и систематизации результатов познавательной деятельности человека. Знание помогает людям рационально организовывать свою деятельность и решать различные проблемы, возникающие в её процессе.
Зна́ние в широком смысле — субъективный образ реальности, в форме понятий и представлений.
Зна́ние в узком смысле — обладание проверенной информацией (ответами на вопросы), позволяющей решать поставленную задачу.
Зна́ние (предмета) — уверенное понимание предмета, умение обращаться с ним, разбираться в нём, а также использовать для достижения намеченных целей.
Основные структуры данных.
Ответ:
Работа с большими наборами данных автоматизируется проще, когда данные упорядочены, то есть образуют заданную структуру. Существует три основных типа структур данных: линейная, иерархическая и табличная. Их можно рассмотреть на примере обычной книги.
Если разобрать книгу на отдельные листы и перемешать их, книга потеряет свое назначение. Она по-прежнему будет представлять набор данных, но подобрать адекватный метод для получения из нее информации весьма непросто. (Еще хуже дело будет обстоять, если из книги вырезать каждую букву отдельно — в этом случае вряд ли вообще найдется адекватный метод для ее прочтения.)
Если же собрать все листы книги в правильной последовательности, мы получим простейшую структуру данных — линейную. Такую книгу уже можно читать, хотя для поиска нужных данных ее придется прочитать подряд, начиная с самого начала, что не всегда удобно.
Для быстрого поиска данных существует иерархическая структура. Так, например, книги разбивают на части, разделы, главы, параграфы и т, п. Элементы структуры более низкого уровня входят в элементы структуры более высокого уровня: разделы состоят из глав, главы из параграфов и т. д.
Для больших массивов поиск данных в иерархической структуре намного проще, чем в линейной, однако и здесь необходима навигация, связанная с необходимостью просмотра. На практике задачу упрощают тем, что в большинстве книг есть вспомогательная перекрестная таблица, связывающая элементы иерархической структуры с элементами линейной структуры, то есть связывающая разделы, главы и, параграфы с номерами страниц. В книгах с простой иерархической структурой, рассчитанных на последовательное чтение, эту таблицу принято называть оглавлением, а в книгах со сложной структурой, допускающей выборочное чтение, ее называют содержанием.
Линейные структуры — это хорошо знакомые нам списки. Список — это простейшая структура данных, отличающаяся тем, что каждый элемент данных однозначно определяется своим номером в массиве. Проставляя номера на отдельных страницах рассыпанной книги, мы создаем структуру списка. Обычный журнал посещаемости занятий, например, имеет структуру списка, поскольку все студенты группы зарегистрированы в нем под своими уникальными номерами. Мы называем номера уникальными потому, что в одной группе не могут быть зарегистрированы два студента с одним и тем же номером.
Еще проще можно действовать, если все элементы списка имеют равную длину. В этом случае разделители в списке вообще не нужны. Для розыска элемента с номером n надо просмотреть список с самого начала и отсчитать а(n-1) символ, где а — длина одного элемента. Со следующего символа начнется нужный элемент. Его длина тоже равна а, поэтому его конец определить нетрудно. Такие упрощенные списки, состоящие из элементов равной длины, называют векторами данных. Работать с ними особенно удобно.
Таким образом, линейные структуры данных (списки) — это упорядоченные структуры, в которых адрес элемента однозначно определяется его номером.
Табличные структуры.С таблицами данных мы тоже хорошо знакомы, достаточно вспомнить всем известную таблицу умножения. Табличные структуры отличаются от списочных тем, что элементы данных определяются адресом ячейки, который состоит не из одного параметра, как в списках, а из нескольких. Для таблицы умножения, например, адрес ячейки определяется номерами строки и столбца. Нужная ячейка находится на их пересечении, а элемент выбирается из ячейки.
Для розыска элемента, имеющего адрес ячейки (m, n), надо просмотреть набор данных с самого начала и пересчитать внешние разделители. Когда будет отсчитан m-1, разделитель, надо пересчитывать внутренние разделители. После того как будет найден n-1 разделитель, начнется нужный элемент. Он закончится, когда будет, встречен любой очередной разделитель.
Еще проще можно действовать, если все элементы таблицы имеют равную длину. Такие таблицы называют матрицами. В данном случае разделители не нужны поскольку все элементы имеют равную длину и количество их известно. Для розыска элемента с адресом (т, п) в матрице, имеющей М строк и N столбцов, надо просмотреть ее с самого начала и отсчитать a [N(m -1) + (n -1)] символ, где а — длина одного элемента. Со следующего символа начнется нужный элемент. Его длина тоже равна a, поэтому его конец определить нетрудно.
Таким образом, табличные структуры данных (матрицы) — это упорядоченные структуры, в которых адрес элемента определяется номером строки и номером столбца, на пересечении которых находится ячейка, содержащая искомый элемент.
Многомерные таблицы. Выше мы рассмотрели пример таблицы, имеющей два измерения (строка и столбец), но в жизни нередко приходится иметь дело с таблицами, у которых количество измерений больше. Вот пример таблицы, с помощью которой может быть организован учет учащихся.
Номер факультета: 3
Номер курса (на факультете): 2
Номер специальности (на курсе): 2
Номер группы в потоке одной специальности: 1
Номер учащегося в группе: 19
Размерность такой таблицы равна пяти, и для однозначного отыскания данных обучащемся в подобной структуре надо знать все пять параметров (координат).
Иерархические структуры данных.Нерегулярные данные, которые трудно представить в виде списка или таблицы часто представляют в виде иерархических структур. С подобными структурами мы очень хорошо знакомы по обыденной жизни. Иерархическую структуру имеет система почтовых адресов. Подобные структуры также широко применяют в научных систематизациях и всевозможных классификациях.
В иерархической структуре адрес каждого элемента определяется путем доступа (маршрутом), ведущим от вершины структуры к данному элементу. Вот, например, как выглядит путь доступа к команде, запускающей программу Калькулятор (стандартная программа компьютеров, работающих в операционной системе Windows 98):
Пуск > Программы > Стандартные > Калькулятор.
Дихотомия данных. Основным недостатком иерархических структур данных является увеличенный размер пути доступа. Очень часто бывает так, что длина маршрута оказывается больше, чем длина самих данных, к которым он ведет. Поэтому в информатике применяют методы для регуляризации иерархических структур с тем, чтобы сделать путь доступа компактным. Один из методов получил название дихотомии.
В иерархической структуре, построенной методом дихотомии, путь доступа к любому элементу можно представить как путь через рациональный лабиринт с поворотами налево (0) или направо (1) и, таким образом, выразить путь доступа в виде компактной двоичной записи. В нашем примере путь доступа к текстовому процессору Word 2000 выразится следующим двоичным числом: 1010.
Кодирование информации.
Ответ:
Для автоматизации работы с данными, относящимися к различным типам, очень важно унифицировать их форму представления — для этого обычно используется прием кодирования, то есть выражение данных одного типа через данные другого типа. Естественные человеческие языки — это не что иное, как системы кодирования понятий для выражения мыслей посредством речи. К языкам близко примыкают азбуки (системы кодирования компонентов языка с помощью графических символов). История знает интересные, хотя и безуспешные попытки создания «универсальных» языков и азбук. По-видимому, безуспешность попыток их внедрения связана с тем, что национальные и социальные образования естественным образом понимают, что изменение системы кодирования общественных данных непременно приводит к изменению общественных методов (то есть норм права и морали), а это может быть связано с социальными потрясениями.
Та же проблема универсального средства кодирования достаточно успешно реализуется в отдельных отраслях техники, науки и культуры. В качестве примеров можно привести систему записи математических выражений, телеграфную азбуку, морскую флажковую азбуку, систему Брайля для слепых и многое другое.
Своя система существует и в вычислительной технике — она называется двоичным кодированием и основана на представлении данных последовательностью всего двух знаков: 0 и 1. Эти знаки называются двоичными цифрами, по-английски — binary digit или сокращенно hit (бит).
Одним битом могут быть выражены два понятия: 0 или 1 (да или нет, черное или белое, истина или ложь и т. п.). Если количество битов увеличить до двух, то уже можно выразить четыре различных понятия:
00 01 10 11
Тремя битами можно закодировать восемь различных значений:
000 001 010 011 100 101 110 111
Увеличивая на единицу количество разрядов в системе двоичного кодирования, мы увеличиваем в два раза количество значений, которое может быть выражено в данной системе, то есть общая формула имеет вид:
N=2,
где N— количество независимых кодируемых значений;
т — разрядность двоичного кодирования, принятая в данной системе.
Количество информации. Формула Шеннона. Примеры её применения.
Ответ:
Количество информации – в теории информации это количество информации в одном случайном объекте относительно другого.
Существует множество ситуаций, когда возможные события имеют различные вероятности реализации. Например, если монета несимметрична (одна сторона тяжелее другой), то при ее бросании вероятности выпадения "орла" и "решки" будут различаться.
Формулу для вычисления количества информации в случае различных вероятностей событий предложил К. Шеннон в 1948 году. В этом случае количество информации определяется по формуле:
(2.2) |
где I - количество информации;
N - количество возможных событий;
рi - вероятность i-го события.
Например, пусть при бросании несимметричной четырехгранной пирамидки вероятности отдельных событий будут равны:
Р1 = 1/2, р2 = 1/4, р3 = 1/8, р4 = 1/8.
Тогда количество информации, которое мы получим после реализации одного из них, можно рассчитать по формуле (2.2):
I = -(l/2 log2l/2 + l/4 log2l/4 + l/8 log2l/8 + l/8 log2l/8) = (1/2 + 2/4 + 3/8 + 3/8) битов = 14/8 битов = 1,75 бита.
Для частного, но широко распространенного и рассмотренного выше случая, когда события равновероятны (pi= 1/N), величину количества информации I можно рассчитать по формуле:
(2.3) |
По формуле (2.3) можно определить, например, количество информации, которое мы получим при бросании симметричной и однородной четырехгранной пирамидки: I = log24 = 2 бита
Количество информации, которое мы получаем, достигает максимального значения, если события равновероятны
Законы РФ об информации.
Ответ:
- Федеральный закон об информации, информационных технологиях и защите информации, 2006 год:
1)регулирует отношения, возникающие при осуществлении права на поиск, получение, передачу, производство и распростарнение информации, а также применение информационных технологий и защите информации.
2) вводит определение ключевые понятий «информация», «информационные технологии» и т.д.
3)закон подтверждает свободного доступа к информации
4)закон вводит ограничения, обусловленные специальными случаями: государственная тайна и т.д.
-Закон РФ о средствах массовой информации, 1991 год:
1) закрепляет свободу массовой информации
2) контроль средств массовой информации: регистрации и т.д.
3) определяет статус журналиста
4) регулирует отношения СМИ с гражданами и организациями
5) указывает на социальную роль информации
6) закрепляет право человека на пользование информацией
- Закон РФ о государственной тайне:
1) закрепляет понятие государственной тайны
2) даёт перечень сведений, составляющих государственную тайну
3) определяет мероприятия по защите государственной тайны и формам использования
- Федеральный закон РФ о коммерческой тайне, 2004 год:
1) определяет понятия, связанные с коммерческой тайной
2) закрепляет права обладания коммерческой тайной
- Закон «О безопасности» от 28.12.10 года, закрепляющий правовые основы обеспечения безопасности личности, общества, государства, определяющий систему безопасности и её функции и т.д. (Важно то, что сюда входит понятие безопасности информации)
Информационные революции
Ответ:
В истории развития цивилизации произошло несколько информационных революций — преобразований общественных отношений из-за кардинальных изменений в сфере обработки информации. Следствием подобных преобразований являлось приобретение человеческим обществом нового качества.
Первая революция связана с изобретением письменности, что привело к гигантскому качественному и количественному скачку. Появилась возможность передачи знаний от поколения к поколению.
Вторая (середина XVI в.) вызвана изобретением книгопечатания, которое радикально изменило индустриальное общество, культуру, организацию деятельности.
Третья (конец XIX в.) обусловлена изобретением электричества, благодаря которому появились телеграф, телефон, радио, позволяющие оперативно передавать и накапливать информацию в любом объеме.
Четвертая (70-е гг. XX в.) связана с изобретением микропроцессорной технологии и появлением персонального компьютера. На микропроцессорах и интегральных схемах создаются компьютеры, компьютерные сети, системы передачи данных (информационные коммуникации). Этот период характеризуют три фундаментальные инновации:
ü •переход от механических и электрических средств преобразования информации к электронным;
ü •миниатюризация всех узлов, устройств, приборов, машин;
ü •создание программно-управляемых устройств и процессов.
Последняя информационная революция выдвигает на передний план новую отрасль—информационную индустрию, связанную с производством технических средств, методов, технологий для производства новых знаний. Важнейшая составляющая информационной индустрии — информационная технология.
ВОПРОСЫ 16 и 17 ПЕРЕСЕКАЮТСЯ, ПОЭТОМУ ОТВЕТЫ ДАНЫ КАК НА ОДИН ВОПРОС.
Архитектура фон Неймана.
Ответ:
Принципы построения ЭВМ были заложены в 40-ые годы XX века знаменитым ученом Джоном фон Нейманом (1903-1957).
В конце 1944 года к проекту по созданию EDVAC в качестве научного консультанта был подключен Джон фон Нейман (1903-1957) - выдающийся математик, внесший большой вклад в теорию игр, один из основоположников нейронных сетей.
Подготовив в 1945 году итоговый научный отчет о машине EDVAC, Нейман, кроме описания машины и ее логических возможностей, представил впервые на основе анализа проектных решений, а также идей А. Тьюринга, логическую организацию компьютера безотносительно его элементной базы, что позволило заложить основы проектирования ЭВМ.
Архитектура ЭВМ, предложенная фон Нейманом, следующая: компьютер должен содержать: арифметически-логическое устройство (АЛУ); центральное устройство управления (УУ), ответственное за функционирование всех основных компонент компьютера; запоминающее устройство (ЗУ), причем, в памяти должны сохраняться не только числа, но и команды (этого у Бэббиджа нет); система ввода и вывода информации. Была обоснована необходимость двоичной системы счисления, электронной технологии и последовательного выполнения операций.
Принципы архитектуры фон Неймана:
1. Машина должна работать не в десятичной, а в двоичной системе счисления (бинарной), Это означает, что программа и данные должны быть записаны в коде двоичной системы, где каждое число или символ представляется определенной комбинацией нулей и единиц.
2. Программа, которая управляет последовательностью выполнения операций, должна храниться в памяти машины. Там же должны храниться исходные данные и промежуточные результаты.
3. Чтобы достаточно быстро можно было считать, память компьютера следует организовать по иерархическому принципу, т.е. она должна состоять, по крайней мере, из двух частей: быстрой, но небольшой по емкости (оперативной) и большой (и поэтому медленной) внешней.
Машины, построенные на этих принципах, называются машинами фон-неймановского типа или машиной с фон-неймановской архитектурой.
Правовые аспекты Интернет.
Ответ:
Информационные объекты в Интернет обладают той отличительной чертой, что они, как правило, представляются в виртуальной форме. В этой связи правоотношения, возникающие по их поводу, существенно отличаются от действующих в отношении информационных объектов на материальных, жестких носителях. Наиболее типичным примером здесь может служить доменное имя, предоставляемое для именования сайта (области памяти в Интернет для размещения информации и информационных ресурсов) и обозначения адреса этого сайта в Интернет. Наличие двух одинаковых доменных имен в сети не допускается. И в этом главный смысл регистрации доменных имен в Интернет.
Доменное имя представляет собой особый информационный объект, обладающий и содержанием, и формой исходя из принципа двуединства информации и ее носителя. Применение доменных имен в виртуальном пространстве Интернет ставит много вопросов перед правом.
С юридической точки зрения доменное имя — это адрес (аналогично почтовому адресу в материальном мире) размещения информационного ресурса в Интернет. Как и в случае почтового адреса, здесь должно выполняться требование его уникальности, неповторимости. Это требование достигается регистрацией доменного имени. И в этом смысле безразлично, какое смысловое содержание закладывается в доменное имя. Оно может состоять из любого набора букв, цифр, знаков и других способов обозначения адреса.
Правовое регулирование отношений в Интернет, в виду его специфичности как области человеческих отношений, может базироваться на основе норм актов информационного законодательства. Можно выделить основные направления этого законодательства, имеющие наиболее тесную связь с отношениями, возникающими в Интернет, многие из которых могут быть трансформированы для распространения их действия и на виртуальную среду. Это следующие направления:
законодательство об осуществлении права на поиск, получение и потребление информации (о праве на доступ к информации);
законодательство об интеллектуальной собственности (законодательство об авторском праве и смежных правах, патентное законодательство, законодательство о ноу-хау);
законодательство о СМИ;
законодательство о документированной информации и об информационных ресурсах;
законодательствооб информации ограниченного доступа;
законодательство о создании и применении информационных систем, информационных технологий и средств их обеспечения;
законодательство об ответственности за правонарушения в информационной сфере.
39 Интернет в образовании и самообразовании
Что называется информатикой? История появления и развития информатики.
Ответ:
В настоящее время под информатикой понимают различные по своей природе понятия: научную дисциплину, отрасль народнохозяйственной деятельности, актуальное направление науки и т.д., но наиболее часто принято использовать этот термин в двух значениях: информатика – это электронная информационная технология и научная дисциплина, составляющая теоретическую основу этой технологии.
Термин информатика связан с такими выдающимися учёными, как Отле, Винер, Шеннон, Тауб, Прайс и другими. Именно они положили начало изучению явления информации, анализу проблем социальной коммуникации, информационного поиска и многого другого.
Термин «информатика» был введен в Германии учёным Штейнбургом в 1957 году. Позже этот термин был переведён на другие языки благодаря заслугам французского учёного Дрейфуса.
Выделение информатики как самостоятельной области человеческой деятельности в первую очередь связано с развитием компьютерной техники. Причем основная заслуга в этом принадлежит микропроцессорной технике, появление которой в середине 70-х гг. послужило началом второй электронной революции. С этого времени элементной базой вычислительной машины становятся интегральные схемы и микропроцессоры, а область, связанная с созданием и использованием компьютеров, получила мощный импульс в своем развитии. Термин "информатика" приобретает новое дыхание и используется не только для отображения достижений компьютерной техники, но и связывается с процессами передачи и обработки информации.
В нашей стране подобная трактовка термина "информатика" утвердилась с момента принятия решения в 1983 г. на сессии годичного собрания Академии наук СССР об организации нового отделения информатики, вычислительной техники и автоматизации. Информатика трактовалась как "комплексная научная и инженерная дисциплина, изучающая все аспекты разработки, проектирования, создания, оценки, функционирования основанных на ЭВМ систем переработки информации, их применения и воздействия на различные области социальной практики".
Информатика в таком понимании нацелена на разработку общих методологических принципов построения информационных моделей. Поэтому методы информатики применимы всюду, где существует возможность описания объекта, явления, процесса и т.п. с помощью информационных моделей.