INFORMACIÓN
MEDICIÓN DE LA INFORMACIÓN

La cantidad de información contenida en un mensaje es susceptible de medirse, este tema forma parte de la teoría matemática de la información desarrollada por el matemático Claude Shannon y otros científicos.

Se llama Pregunta Binaria a aquella que sólo admite dos posibles respuesta: Si y No. La cantidad de información de un mensaje es igual al número mínimo de preguntas binarias requeridas para determinar completamente dicho mensaje. La cantidad de información determinada por una sola pregunta binaria se llama Bit (cantidad mínima de información).

La información se manipula mediante Símbolos. Un Mensaje es una serie de símbolos. Al conjunto de símbolos se le llama Código. Si todos los símbolos tienen la misma longitud (esto es, el mismo número de Bits). El número n de símbolos diferentes está dado por:

n = 2b

Donde:

 b = Es el número de bits requeridos para representar cada símbolo.

El código ASCII es un código de siete bits que se utiliza ampliamente.

 A continuación se muestra la tabla comparativa del tamaño de palabra (Byte) de diferentes microprocesadores y el número de diferentes símbolos que se pueden formar en cada uno de ellos:

MICROPROCESADORbn
Z808256
802861665,536
80386 ó 486324.3x109
Pentium641.8x1019

Existen otros códigos en el que los símbolos tienen diferente cantidad de bits. Un código que hace mínima la longitud del mensaje es óptimo, y de ahí que aunque es posible desarrollar una cantidad enorme de símbolos se intenta utilizar los menores posibles.

En un conmutador, la información se maneja en paquetes de bits. Se llama Byte a la mínima cantidad de información que se puede obtener especificando una dirección.