Представление изображений конечным объемом данных
Компьютерное изображение в его цифровом представлении является набором значений интенсивностей светового потока, распределенных по конечной площади, имеющей обычно прямоугольную форму.
Для простоты рассмотрим сначала монохромные изображения. Тогда интенсивность излучаемой световой энергии с единицы поверхности в точке с координатами изображения можно представить некоторым числом. Единичный элемент изображения, характеризуемый определенным значением, называется пикселем, а величина - яркостью.
Поток данных об изображении имеет существенное количество излишней информации, которая может быть устранена практически без заметных для глаза искажений.
Существует два типа избыточности:
• Статистическая избыточность, связанная с корреляцией и предсказуемостью данных. Эта избыточность может быть устранена без потери информации, исходные данные при этом могут быть полностью восстановлены.
• Визуальная (субъективная) избыточность, которую можно устранить с частичной потерей данных, мало влияющих на качество воспроизводимых изображений; это - информация, которую можно изъять из изображения, не нарушая визуально воспринимаемое качество изображений.
Статистическая избыточность изображений. Пусть имеется дискретизированное M x N пикселей и квантованное с точностью K бит на пиксель монохромное изображение. Следовательно, для хранения этого изображения необходимо M x N x K бит информации. Если предположить, что квантованные значения яркости не равновероятны, то уменьшение информации возможно путем изменения количества бит информации для кодирования пикселей: более вероятные кодируются словами с меньшим количеством бит, менее вероятные - с большим.
Этот метод называется кодированием словами переменной длины или энтропийным кодированием.
Пусть квантованный уровень яркости z имеет вероятность P(z) и ему присваивается слово - код длины L(z) бит. Тогда средняя длина кода для всего изображения составит
бит на пиксель. Нижняя граница для определяется информационной теоремой и называется энтропией случайной величины:
Таким образом, энтропия - это мера количества информации, которую несет случайная величина уровня яркости z.
H(f)≥0, поскольку P(z)є[0,1].
Из формулы H(f) вытекает, что чем более неравномерно распределение P(z), тем меньше энтропия и тем эффективнее может быть энтропийное кодирование.
Устранение визуальной избыточности изображений является основным резервом сокращения передаваемой информации. Для оптимизации процесса кодирования с точки зрения обеспечения передачи наименьшего объема информации необходимо, с одной стороны, не передавать избыточную информацию, а, с другой, - не допустить чрезмерной потери качества изображения.
До сих пор не существует простой и адекватной модели визуального восприятия изображений, пригодной для оптимизации их кодирования.
Наиболее известные методы эффективного кодирования символов основаны на знании частоты каждого символа присутствующего в сообщении. Зная эти частоты, строят таблицу кодов, обладающую следующими свойствами:
• различные коды могут иметь различное количество бит;
• коды символов с большей частотой встречаемости, имеют больше бит, чем коды символов с меньшей частотой;
• хотя коды имеют различную битовую длину, они могут быть восстановлены единственным образом.
Этими свойствами обладает известный алгоритм Хаффмана.