Ok

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.

01/12/2013

De la racaille

Fresques italiennes du temps de Giotto

 

| Commentaires (0) |  Facebook | | |

14/11/2013

Excavator

Prisme-detail--1-regular.gifPrisme-detail--1-irregular.gif

| Commentaires (0) |  Facebook | | |

11/10/2013

Memory

Du point de vue d'un récepteur, plus la source émet d'informations différentes, plus l'entropie (ou incertitude sur ce que la source émet) est grande.

nag champa

Ainsi, si une source est réputée envoyer toujours le même symbole, par exemple la lettre 'a', alors son entropie est nulle, c'est-à-dire minimale.

Nag ChampaEn effet, un récepteur qui connait seulement les statistiques de transmission de la source est assuré que le prochain symbole sera un 'a'.

Nag ChampaPar contre, si la source est réputée envoyer un 'a' la moitié du temps et un 'b' l'autre moitié, le récepteur est incertain de la prochaine lettre à recevoir.

Nag ChampaL'entropie de la source dans ce cas est donc non nulle (positive) et représente quantitativement l'incertitude qui règne sur l'information émanant de la source.

Nag ChampaL'entropie indique alors la quantité d'information nécessaire pour que le récepteur puisse déterminer sans ambiguïté ce que la source a transmis.

Nag ChampaPlus le récepteur reçoit d'information sur le message transmis, plus l'entropie (incertitude) vis-à-vis de ce message décroît.

Nag ChampaEn particulier, plus la source est redondante, moins elle contient d'information.

En l'absence de contraintes particulières, l'entropie est maximale pour une source dont tous les symboles sont équiprobables.

| Commentaires (0) |  Facebook | | |