Aliens

Pieslēgties Reģistrācija

Pieslēgties

Lietotājvārds *
Parole *
Atcerēties

Izveidot profilu

Fields marked with an asterisk (*) are required.
Vārds *
Lietotājvārds *
Parole *
Parole pārbaudei *
E-pasts *
E-pasts pārbaudei *
Captcha *

Izdevniecība "Apvārsnis" piedāvā

Entropija, kibernētiskā

Informācijas teorijas pamatjēdziens kas kvantitatīvi raksturo gadījumlieluma nenoteiktību.

Mēvienība - bits.

Ja dots diskrēts gadījumlielums X, kas ar varbūtības p1, p2 ... pk pieņem attiecīgi vērtības x1, x2, ... xk, tad entropija aprēķināma pēc formulas

                                                         H(X) = H(p1, p2, ... pk) = - summas zīme pi log2pi.

Entropiju H(X) var interpretēt kā skaitli, kas izteic, cik ar "jā" vai "nē" atbildamu jautājumu vidēji nepieciešams, lai uzzinātu gadījumlieluma X vērtību. Entropijas jēdzienu lieto, definējot informācijas jēzienu: saņemtās informācijas daudzums tiek mērīts ar atbilstošo entropijas samazināšanos. Entropijas jēdziens dod iespēju formulēt fundamentālas likumsakarības, kas jāievēro, lai varētu optimāli kodēt pa sakaru kanāliem raidāmos ziņojumos.

Entropijas jēdzienu kibernētikā 1947.gadā ieviesis K.Šenons (ASV).