Изложить толкование термина информация в философии, в кибернетике, в повседневной практике, в сфере юриспруденции.
Как оценивается скорость передачи информации.
Скорость передачи данных измеряется количеством битов информации, передаваемых за единицу времени: бит/с. … Пропускная способность оценивается количеством знаков, передаваемых по каналу за единицу времени: знак/с. Скорость передачи информации по каналу это количество информации на выходе за одну секунду. Скорость передачи данных - скорость, с которой передается или принимается информация в двоичной форме. Обычно скорость передачи данных измеряется количеством бит, переданных в одну секунду.Биты в секунду - единица скорости передачи информации, равная количеству двоичных разрядов, пропускаемых каналом связи в 1 секунду с учетом и полезной и служебной информации.
Пропускная способность канала связи - максимальная скорость передачи данных от источника к получателю.Символы в секунду - единица измерения скорости передачи (только) полезной информации.
1 байт = 23 бит =8 бит,
- 1 килобайт = 210 байт = 1024 байт,
- 1 мегабайт = 210 Кбайт = 1024 Кбайт,
- 1 гигабайт = 210 Мбайт = 1024 Мбайт,
- 1 терабайт = 210 Гбайт = 1024 Гбайт, - 1 петабайт = 210 Тбайт = 1024 Тбайт
.
Элементы комбинаторики. Правила умножения и сложения.
Комбинаторика – раздел математики, в котором изучаются задачи выбора элементов из заданного множества и расположения их в группы по заданным правилам, в частности задачи о подсчете числа комбинаций (выборок), получаемых их элементов заданного множества. В каждой из них требуется подсчитать число возможных вариантов осуществления некоторого действия, ответить на вопрос: «Сколькими способами?» Многие комбинаторные задачи могут быть решены с помощью следующих 2х важных правил, называемых соответственно правилами умножения и сложения.
Правило умножения.
Если из нек множ первый объект (элемент х) можно выбрать n1 способами и после каждого такого выбора второй объект (элем у) можно выбр n2 способами, то оба объекта (х и у) в указ порядке можно выбрать n1*n2 способами.Это правило распр-ся на случай трех и более объектов.Пример: сколько трехзначных чисел можно составить из цифр 1,2,3,4,5, если: а) числа не повт; б) числа могут повтор. Решение: а) 1ую цифру выбираем 5мя способами, 2ую – 4мя, 3 – 3мя 5*4*3=60 способов б) 5*5*5=125 способов.
Правило сложенияЕсли некот объект х можно выбр n1 способами, а объект у можно выбр n2 способами, причем первые и вторые выборы таковы, что они взаимно искл друг друга и не могут быть получены одновременно, то объект хUу (х или у) можно выбр n1+n2 способами.
Пример: Четыре города M,N,P,K соединены дорогами так, что из M в N ведут 5дорог, из N в K – 6 дорог, из M в P ведут 4 дороги, из P в К – 3 дороги. Сколькими способами можно проехать из М в К?Решение: Из М в К через N ведут 5*6=30 дорог, Из М в К через P ведут 4*3=12 дорогИз М в К ведут 30+12=42 дороги.
Определение и формулы для вычисления перестановок, размещений, сочетаний.
Основные понятия алгебры случайных событий(случайный эксперимент, случ событие, элементар событие, пространство элемент событий, достоверное событие,невозможное событие)
Основным интуитивным понятием классической теории вероятностей является случайное событие. События, которые могут произойти в результате опыта, можно подразделить на три вида:
а) достоверное событие – событие, которое всегда происходит при проведении опыта;
б) невозможное событие – событие, которое в результате опыта произойти не может;
в) случайное событие – событие, которое может либо произойти, либо не произойти. Например, при броске игральной кости достоверным событием является выпадение числа очков, не превышающего 6, невозможным – выпадение 10 очков, а случайным – выпадение 3 очков. Эти элементарные события называют благоприятствующими случайному событию А. Все прочие элементарные события данного опыта, не благоприятствующие событию. В теории вероятностей элементарное событие или событие-атом – это подмножество пространства исходов случайного эксперимента, которое состоит только из одного элемента. Важно заметить, что элементарное событие – это всё ещё множество, состоящее из одного элемента пространства исходов, но не сам элемент. Однако элементарные события обычно записываются как элементы, а не как множества с целью упрощения, когда это не может вызвать недоразумения. Случа́йный экспериме́нт (случайное испытание) — математическая модель соответствующего реального эксперимента, результат которого невозможно точно предсказать.
Изложить толкование термина информация в философии, в кибернетике, в повседневной практике, в сфере юриспруденции.
В философии((лат. informatio - разъяснение, изложение, осведомленность) -главный вопрос, относительно которого ведутся дискуссии, – это вопрос о том, что такое информация и какова ее природа. Одни связывают понятие информации с атрибутами материи, другие видят в ней один из видов проявления энергии, третьи усматривают в информации отдельную фундаментальную научную категорию, сходную с материей и энергией (например, как меру организации, присущую материальным объектам).
Информация в кибернетике. Естественнонаучное понимание И. основано на 2-х понятиях, предназначенных для различных целей (для информации теории, иначе называемой статистической теорией связи, и теории статистических оценок). Кибернетика (ограничивая и уточняя интуитивное представление об И.) изучает машины и живые организмы с точки зрения их способности воспринимать определённую И., сохранять её в «памяти», передавать по «каналам связи» и перерабатывать её в «сигналы», направляющие их деятельность в соответствующую сторону.
В сфере юриспруденции- для доступа к источникам правовой информации,напр «Консультант Плюс»,Гарант,поиск правовой информации в сети интернет, с помощ поисковых каталогов .Актуализация информационного банка — это процесс включения в него новых документов и поддержания уже имеющихся документов в контрольном состоянии в соответствии с текущими изменениями законодательства.
3. Охарактеризовать формы представления информации.
Информация - очень емкое понятие, в которое вмещается весь мир: все разнообразие вещей и явлений, вся история, все тома научных исследований, творения поэтов и прозаиков. И все это отражается в двух формах - непрерывной и дискретной. Непрерывными величинами называют величины, характеризующиеся физическими величинами (длина, ширина, вес, объем, расстояние, плотность, масса, температура и т.д.). Дискретными величинами называют величины, характеризующиеся числом, количеством предметов или информации (10 Мб, 3книги, 15 шагов и т.д.).
4. Пояснить причину вероятностного характера процессов в системах коммуникации, смысл терминов энтропия и количество информации.
Существование неопределённости связано с участием вероятностей в осуществлении событий. Устранение неопределённости есть увеличение вероятности наступления того, что задано как цель.
Энтропия (от греч. entropia - поворот, превращение) - мера неупорядоченности больших систем. Впервые понятие "энтропия" введено в XIX в. в результате анализа работы тепловых машин, где энтропия характеризует ту часть энергии, которая рассеивается в пространстве, не совершая полезной работы (отсюда определение: энтропия - мера обесценивания энергии). В теории информации энтропия- мера неопределенности какого-либо опыта (испытания), который может иметь разные исходы.
Понятие информации (informatio - разъяснение, осведомление, изложение). Информация - это некоторая последовательность (налицо упорядоченность) сведений, знаний, которые актуализируемы (получаемы, передаваемы, преобразуемы, сжимаемы или регистрируемы) с помощью некоторых знаков (символьного, образного, жестового, звукового, сенсомоторного типа). Количество информации - числовая величина, адекватно характеризующая актуализируемую информацию по разнообразию, сложности, структурированности, определённости, выбору (вероятности) состояний отображаемой системы.
5. Раскрыть содержание меры энтропии по Шеннону и связь этой меры с мерой энтропии по Хартли. Единицы измерения энтропии.
В основу теории информации положен предложенный К.Шенноном метод исчислений количества новой (непредсказуемой) и избыточной (предсказуемой) информации, содержащейся в сообщениях, передаваемых по каналам технической связи. Исторически первые шаги к введению понятия энтропии были сделаны в 1928 г. американским инженером-связистом Хартли, предложившим характеризовать степень неопределенности опыта с различными исходами числом log . Однако он считал несущественным возможность неравновероятных исходов. Ошибочность точки зрения Хартли была показана Клодом Шенноном, предложившим принять в качестве меры неопределенности опыта с возможными исходами , А1, А2... величину. (бит).