Бірлескен және шартты энтропия

Алдыңғы бөлімде жеке жұп оқиғаларды қарап шыққан соң дереккөздердің орташа бағасына өтейік.

4.2 суретте қазіргі жағдай көрсетілген

Бірлескен және шартты энтропия - student2.ru Алфавит Х = {xi, … , xM}

Ықтималдық p(xi)

Шартты ықтималдық p(yj, xi)

және p(xi, yj)

Алфавит Y={yj, … , yN}

Ықтималдық p(yj)

4.2 Сурет. Екі байланысқан дискретті дереккөз.

Екі дереккөздің бірлескен энтропиясы барлық жұп оқиғалардың ақпараттарының математикалық күтімі ретінде анықталады.

Екі Х және Y жадсыз дискретті дереккөздерінің бірлескен энтропиясы

Бірлескен және шартты энтропия - student2.ru

Ескерту.Бұл жерде бірлескен оқиғалардың барлық жұптары қарап шығылған, яғни

Бірлескен және шартты энтропия - student2.ru

Барлық жұп оқиғалардың шартты ақпараттарын ортақтастырып, шартты энтропияны аламыз.

4.1 Кесте. Жұм символдарының р(хі, уі) бірлескен ықтималдықтарын және жеке р(хі) һәм р(уі) символдарының ықтималдықтарын бағалау.

Бірлескен және шартты энтропия - student2.ru

Екі Х және У жадсыз дискретті дереккөзінің шартты энтропиясы

Бірлескен және шартты энтропия - student2.ru

Бірлескен және шартты энтропия - student2.ru

(4.14)-те Бірлескен және шартты энтропия - student2.ru -ті Бірлескен және шартты энтропия - student2.ru -ке және Бірлескен және шартты энтропия - student2.ru -ке алмас- тырсақ, шығады

Бірлескен және шартты энтропия - student2.ru

Осылайша, бірлескен энтропия бір дереккөздің энтропиясының және басқа бір дереккөздің энтропиясының біршама бөлігінің қосындысы ретінде көрсетілуі мүмкін. Тәуелсіз дереккөздер үшін екінші дереккөздің энтропиясы қосындыға толықтай кіреді, себебі Бірлескен және шартты энтропия - student2.ru және Бірлескен және шартты энтропия - student2.ru . Байланысқан дереккөздер үшін әрдайым Бірлескен және шартты энтропия - student2.ru Сондықтан, жалпы жағдайда, орынды болатын

Бірлескен және шартты энтропия - student2.ru

Мысал: Байланысқан дереккөздер.

Қазір төбедегі анықтамаларды және формулаларды толық айқындайтын сандық мысалды жан-жақты реттеудің сәті түсіп тұр. Бұл мақсат үшін шешу тәсілі практикада тікелей қолданылатын мәселе таңдалып алынған еді.

Бізде дискретті Х және У дереккөздерінің 100000 бірлескен (хі, уі) жұп оқиғалардың таңдау нұсқасы бар болсын және әр дереккөздің алфавитінде төрт оқиға болсын. (х1, у1) жұбы 1000 мәрте ұшырасқан болсын.

Онда (х1, у1) жұбын бағалау ықтималдығы 10000/10000 = 0,1-ге тең. Басқа жұп оқиғалардың бағалаулары олардың қатысты жиіліктерімен есептеліп 4.1 кестеде көрсетілген. Алынған бағалаулар жұп оқиғалардың ықтималдықтарына жақын деп есептейік және алдағыда ықтималдықтар турасында айтатын боламыз. (хі, уі) оқиғаларының ықтималдықтары қатарлар мен бағандардың қосындысынан алынған. Бірлескен және шартты энтропия - student2.ru бақылау сомасы оң жақ төмен бұрышта көрсетілген.

Енді, энтропияны есептеуге қажетті барлық ықтималдықтар бізге мағлұм болған кезде, анықтайтынымыз:

1. X және Y дереккөздерінің энтропияларын;

2. Дереккөздердің бірлескен энтропиясын;

3. Екі шартты энтропияны ;

Бақылау үшін есептелетін:

4. Бірлескен және шартты энтропия - student2.ru шартты ықтималдықтары;

5. Бірлескен және шартты энтропия - student2.ru шартты энтропиясын анықтаймыз.

Ескерту. Оңайлық үшін үтірден соң нақты 4 таңбаға дейін есептеу жүргіземіз.

Шешім:

1.

Бірлескен және шартты энтропия - student2.ru

Бірлескен және шартты энтропия - student2.ru

Бірлескен және шартты энтропия - student2.ru

2.

Бірлескен және шартты энтропия - student2.ru

3. (4.16)-дан ұзын есептеулерсіз, алатынымыз:

Бірлескен және шартты энтропия - student2.ru

Бірлескен және шартты энтропия - student2.ru

4.2 Кесте. Бірлескен және шартты энтропия - student2.ru шартты ықтималдығы.

Бірлескен және шартты энтропия - student2.ru

4. 4.2 кестеде 4.1 кестеге сәйкес есептелген шартты ықтималдықтар көрсетілген. Сонымен қатар біз стохастикалық матрица алғанымызға назар аударайық. Әр қатар үшін шартты ықтималдықтар сомасы 1-ге тең.

5.

Бірлескен және шартты энтропия - student2.ru

Орытындылар

Алдыңғы бөлімдерде келтірілген барлық тұжырымдар математикалық формада 4.3 кестеде көрсетілген. Ақпараттар теориясының негізгі идеясы дереккөз ақпаратын анықталмағандық шамасы ретінде көрсету болып табылады. Бұл анықталмағандық осы дереккөздің алфавитіндегі кездейсоқ оқиғаларға жүргізілген тәжірибелер арқылы айқындалады. Мұндай қадам кестенің үш бағанын түсіндіреді.

Ақпарат кездейсоқ оқиғалардан негізделген соң, бірінші бағанға оқиғалар ықтималдығы және жұп оқиғалардың бірлескен ықтималдығы негізгі шамалар ретінде түсінігі енгізіледі. Жұп оқиғалар үшін шартты ықтималдық түсінігі енгізіледі. Екінші бағанда оқиға ақпаратының және жұп оқиғалар һәм шартты және өзара ақпараттар анықтамасы беріледі. Соңғы үшінші бағанда энтропияның дереккөз анықталмағандығы ретіндегі түсінігі енгізіледі.

Дереккөз энтропиясы екі дереккөздің бірлескен және шартты энтропиялары сәйкес оқиғалар ақпаратының математикалық күтімі ретінде түсіндіріледі. Шартты ықтималдық – басқа оқиға жүзеге асқандағы бір оқиғаның ықтималдығы, сондықтан шартты ақпарат және шартты энтропия түсініктері шартты ықтималдықтан шығады.

4.3 Кесте. Бірлескен және шартты энтропия - student2.ru символды жадсыз Х және Y дискретті дереккөздері.

Бірлескен және шартты энтропия - student2.ru

Өзара ақпараттың ықтималдықтар теориясында аналогы жоқ. Бұл ақпараттық техникада негізгі рөл атқаратын ақпараттар теориясын жаңадан түсіну. Өзара ақпарат канал түсінігін ол арқылы ақпарат тасымалдау мүмкіндігімен байланыстырады. Бұл түсінік осы кітаптың 7 бөлімінде толық қаралады.

БӨЛІМ

СТАЦИОНАРЛЫ

ДИСКРЕТТІ ЖАДТЫ

ДЕРЕККӨЗДЕР

Энтропия

Ақпараттың аналогтық дереккөздерінің сигналдары сызық арқылы шектелген, сондықтан уақытта салыстырылған. Мәселен телефондық желідегі ұқсас сөйлесу сигналы мысал бола алады. Белгілеуден соң, ұқсас дереккөз дискреттікке айналады, және, мәселен, сигналды 256 деңгейге кванттаған соң, біз 8-битті 0-ден 255-ке дейінгі екілік толық сандар реттілігін аламыз. 5.1 суретте көрсетілгендей екі жақын сандардың мәндері ұқсас, себебі телефондық сигнал жиіліктің тар алқабында тасымалданады. Жақын есептеулердің уақытша қатынасына, яғни есептеу жадына байланысты, оның анықталмағандығы (ақпарат) ұқсас жадсыз дереккөзге қарағанда төмендейді, сол себепті қысу тәсілдерінің негізгі мақсаты, әсіресе видеосигналдарды тасымалдау кезінде, шығынның төмендеуі болып табылады.

Бірлескен және шартты энтропия - student2.ru

5.1 Сурет. Үздіксіз сигнал.

Жадты дискретті дереккөздердің энтропиясын қалай анықтаймыз деген сұрақ туындайды. Мақсат қоюдан бастайық.

Анықтама 5.1.1.Дискретті Х дереккөзіне Бірлескен және шартты энтропия - student2.ru дереккөзінің алфавитіне тиесілі Бірлескен және шартты энтропия - student2.ru оқиғасының реттілігі орындалуы болып табылатын уақытта дискретті стохастикалық процесс деген анықтама берсек те болады.

Ескерту.Түсініспеушілік болмауы үшін біз алфавит құрамын грек әріптерімен белгіледік. Бұл жағдайда Бірлескен және шартты энтропия - student2.ru -ші оқиғаның Бірлескен және шартты энтропия - student2.ru айнымалысының орнына X алфавитінің кез-келген саны қойылуы мүмкін.

Анықтама 5.1.2.Оқиға реттіліктерінің бірлескен ықтималдықтары уақыт санағының бастапқы нүктесінің таңдауына тәуелді емес болған жағдайда дискретті дереккөз стационарлы болып табылады.

Ескерту. Бақылаулардың санақ нүктесінен тәуелсіз болуы біз таңдауды уақыттың кез-келген сәтінен бастай аламыз дегенді білдіреді, яғни статистика бақылау уақтысының басталуына тәуелді емес.

Анықтама 5.1.3.Стационарлы дискретті дереккөз математикалық тұрғыда Бірлескен және шартты энтропия - student2.ru болғандағы кез-келген Бірлескен және шартты энтропия - student2.ru таңдауы үшін барлық бірлескен Бірлескен және шартты энтропия - student2.ru ықтималдықтары мағлұм болған жағдайда толық сипатталған.

Стационарлы жадты дискретті дереккөздің энтропиясының анықтамасы бірдей нәтижеге әкелетін екі амалдан шығады. Бірінші амалда біз бірлескен энтропия, ал екіншісінде шартты энтропия түсінігін қолданамыз. Екі жағдайда да біз келесі сауалға жауап іздейміз: «Егер дереккөз жадысы бірнеше реттілік оқиғаларға таралса, алдыңғы оқиғалар блогы мәлім болған жағдайда, бөлек оқиғада қандай қосымша дерек бар?»

Наши рекомендации