jueves, 10 de agosto de 2017

ENTROPIA

Antes de iniciar no puedo pasar por alto el presentarme y darles un breve resumen de lo que quiero presentar en este blog: Bueno mi nombre es cesar alfredo garcia pedroza soy ingeniero electronico y actualmente me encuentro realizando una maestria en ciencias de la informacion y las comunicaciones con enfasis en Ingenieria de software, realmente es algo que me apasiona y por fin se me presento la oportunidad de estudiarlo; En este blog van a encontrar pequeños articulos de temas que iremos tocando en las diferentes materias de la maestria.

Este primer Post seleccione el tema de Entropia un tema que escuche en clase y me parece importante abordarlo.

Entropia (Teoría de la información): Es la medida de la incertidumbre que existe en un conjunto de mensajes (de los cuales solo se recibe uno).




El padre de la entropia es el señor claude e shannon que determino que la cantidad de información necesaria para codificar un dato es log(1/p) donde p es la probabilidad que aparezca ese dato.

definió la siguiente formula





No hay comentarios:

Publicar un comentario

Ejemplo de Simulacion Netlogo

breed [Agricultores Agricultor] turtles-own [energy edad] to Configuracion    clear-all    ask patches [ set pcolor green...