2 Энтропия, оның қасиеттері


Энтропия хабарламаның анықталамаған мөлшері ретінде



бет2/2
Дата13.12.2021
өлшемі29,16 Kb.
#125433
1   2
Байланысты:
Д2 энтропия
Д2 энтропия, 92662213. Sulanudyn zhiek buryshyn anyktau, Насостар, Water, water every where.
Энтропия хабарламаның анықталамаған мөлшері ретінде

Хабарламаны алу нәтижесінде ақпаратты алудың міндетті шарты қандай хабарлама берілетіндігі анықталмаған болып табылады.

Бұл жағдайда хабарламаны беру нәтижесіндегі, ақпарат саны неғұрлым көп болса соғұрлым анықталмағандық та көп болады.

Ақпаратты алу механизімін қарастырайық:

БЕРГЕНГЕ ДЕЙІНГІ АНЫҚТАЛМАҒАНДЫҚ

БЕРГЕННЕН КЕЙІНГІ АҚПАРАТ

Сонымен, Шеннон бойынша анықталмағандық–ол энтропия. Н міндеті.

H(xi) = log 1/p(xi). (4)



. (5)

Энтропия және ақпарат теңдеуі ұқсайды, бірақ мәні әр-түрлі. Энтропия-априорлық сипаттама (бергенге дейін), ақпарат-апостериорлық сипаттама (бергеннен кейін).

Ақпарат теориясының негізінде Шеннон ұсынған, бір кездейсоқ шамада соған қатысты келесі кездейсоқ шама жататын ақпарат көлемін өлшеу тәсілі жатыр. Бұл тәсіл ақпарат көлемін санмен сипаттауға мүмкіндік береді. P(X=Xi)= pi, P(Y=Yj)= qj үлестірім заңымен және P(X=Xi, Y=Yj)= pij біріккен үлестірілімен берілген Х және Y кездейсоқ шамасы үшін, Y-ке қатысты Х-те жататын ақпарат көлемі мынаған тең:

(6)

px(t1), py(t2) және pxy(t1,t2) ықтималдылығымен үлестірілген Х және Y үздіксіз кездесоқ шамасы үшін формула мына түрде болады:



(7)
Энтропия және ақпарат амалдарының қасиеттері:

  • I(X, Y)≥0, I(X, Y)=0 <=> Х және Y тәуелсіз;

  • I(X, Y)= I(Y, X);

  • HX=0 <=> X- константа;

  • I(X, Y)=HX+HY-H(X,Y) , где ;

  • I(X, Y)≤ I(X, X).


Шеннон энтропиясының мәні. Дискретті кездейсоқ шаманың энтропиясы – бұл берілген дискретті кездейсоқ шама мәнін байланыс каналы арқылы жіберетін биттің орташа көлемінің минимумы. Мысалды қарастырайық(бәйге). Бәйгеге ұтыс ықтималдылықтары бірдей 4 ат қатысады, яғни әрбір аттың ұту ықтималдылығы 1/4-ке тең. Ұтатын аттың номеріне тең Х дискретті кездейсоқ шамасын енгіземіз. Мұна НХ=2. Әрбір айналым сайын байланыс каналы арқылы ұтқан ат номері туралы 2 биттік ақпарат жіберу жеткілікті. Ат номерін келесідей кодтаймыз:1-00,2-01,3-10,4-11.Егер Х-тің берілген мәнін кодтайтын мәлімет ұзындығын қайтаратын L(X) функциясын енгізсек, онда математикалық күтімі ML(X) –Х-ті кодтайтын мәліметтің орташа ұзындығы. L-ді формальды түрде L(X)= len(code(X)) 2 функциясы арқылы анықтауға болады, мұндағы Х-тің әр мәніне code(X) сәйкесінше биттік код қояды және бірмәнді болады, ал len кез келген нақты кодқа ұзындығын бит түрінде қайтарады. L- бұл дискретті кездейсоқ шамадағы функция, яғни бұл да дискретті кездейсоқ шама. Бұл мысалда ML(X)=HX. Х дискретті кездейсоқ шамасы келесідей үлестірілген болсын яғни, 1-ші номерлі ат-озық. Онда Ат номерлерін кодтаймыз: 1-0,2-10,3-110,4-111, яғни , әрбір код келесі кодтың префиксі болмауы үшін (мұндай кодтауды префикстік деп атайды).16 айналымда орташа есеппен 1-ші ат 12 рет, 2-ші – 2 рет, 3-ші – 1 рет және 4-ші -1 рет ұтуы керек. Осыған байланысты жеңімпаз туралы мәліметтің орташа ұзындығы (1*12+2*2+3*1+3*1)/16=1.375 бит/сим тең және математикалық күтімі L(X).Шынымен,L(X) қазір ықтималдылықты келесі түрде үлестірумен беріледі: Бұдан Сонымен, ML(X)>HX. Қарастырылған екі жағдай үшін кодтаудың бұдан да тиімді түрі жоқ екенін дәлелдеуге болады. Ақпарат мөлшері туралы Шеннон энтропиясының көзқарасқа сәйкес келетінін, психологиялық реакцияның орташа уақытын анықтау тәсілінде көрсетуге болады. Бұл тәжірибеде адамның көзінше N лампочканың біреуі жағылады, ол қайсысы екенін көрсету керек. Әрбір лампочка ықтималдылықпен жанатындай бірнеше тексеріс жүргізіледі(мұндағы i-лампочка номері). Тәжірибеден өтушінің дұрыс жауап беруі үшін кететін орташа уақыты, өзіміз ойлағандай N лампочканың санына емес, – энтропия көлеміне пропорционал. Бұл тәжірибеде адам ақпарат көп алған сайын, соғұрлым оны өңдеу уакыты да ұзақ болады, сәйкесінше оған деген реакция да.

Достарыңызбен бөлісу:
1   2




©www.engime.org 2024
әкімшілігінің қараңыз

    Басты бет