Unidades de medida de la información

Al tratarse de dispositivos electrónicos, los computadores registran la información en un formato especial. Las personas se comunican a través del habla combinando palabras en oraciones. El habla humana es análoga porque utiliza señales continuas que varían en fortaleza y calidad. Las computadoras son digitales, pues reconocen solo dos estados: encendido (on) y apagado (off).Puesto que los equipos actuales emplean circuitos digitales que tienen solo dos estados naturalmente estables, la cantidad mínima de información que puede manejarse será aquélla que pueda registrarse en esos términos. Dicho de otra forma, el dato mínimo que puede registrarse en un
computador es aquél que es susceptible de representarse por medio de dos estados, puesto que a nivel interno del equipo se podrá utilizar ya sea un pulso eléctrico (o más frecuentemente, un nivel predefinido de voltaje, por ejemplo +3V), o su ausencia (nivel de voltaje +OV), como su equivalente.

Claude Shannon, quien trabajaba en los Laboratorios Bell Telephone en la época de los primeros computadores electrónicos, observó la estrecha relación existente entre los circuitos de “switcheo” electrónico y el álgebra de Boole, por lo que propuso el término bit (obtenido de la contracción de la palabra binary digit; Dígito binario) para hacer referencia a cualquiera de esos dos estados y por conveniencia, se seleccionaron los símbolos 0 y 1 para que los humanos representaran la carencia o existencia del pulso eléctrico respectivamente.

Byte

byte-01_pLa cantidad de información que puede representarse con un bit es muy pequeña. Por otro lado, los seres humanos difícilmente piensan en términos de bits cuando se refieren a la información. De manera natural, entonces, surgió la necesidad de relacionar al bit con los símbolos manejados por el ser humano. Con este fin se definieron tablas o códigos de caracteres, en donde se establecía que una secuencia dada de una cantidad fija de bits se utilizaría para representar internamente a un cierto símbolo. Se le da el nombre de Byte (se pronuncia bait) a la agrupación de bits empleada para representar un símbolo. Por ejemplo, en el código ASCII (American Standard Code for Interchange Information, en español Código Normalizado Americano para Intercambiar Información) se decidió emplear combinaciones de 7 bits para representar cada símbolo; una ampliación de este código es el que utilizan los Computadores personales. Otro código de caracteres importante es el EBCDIC (Extended Binary-Coded Decimal Interchange Code) que usa 8 bits para cada carácter (símbolo) y es muy empleado con equipo IBM.

Cuando se considera el carácter como elemento base para medir cantidad de información, de nuevo se hace evidente que se trata de una unidad muy pequeña.

Por ello se utilizan múltiplos del byte, como lo son el KByte (kilobyte) que equivale a 1,024 bytes, el MByte (megabyte) igual a 1’048,576 bytes y el GByte (gigabyte) igual a 1’048,576,000 bytes. Es común emplear dichas unidades manejando más bien sus magnitudes que sus valores exactos (esto es, hablar de miles o millones de bytes). Debido a los constantes avances tecnológicos en el área de la electrónica, cada día se cuentan con equipos de mayor capacidad de retención de información. Debido a ello, no es raro utilizar múltiplos mayores que los ya citados, como son el TeraByte, con órdenes de magnitud de billones de bytes(1012).

Si bien el byte y sus múltiplos proporcionan una noción del volumen de información manejado, es también importante conocer la velocidad con la cual se le procesa. Se emplea el término palabra para denotar al gr upo de bits que un computador puede manejar en una sola operación y se entenderá por longitud de palabra a la cantidad de bits que integran dicho conjunto. Usualmente, la longitud de la palabra es un múltiplo entero del byte, aunque existen numerosas excepciones. Computadores con longitud de palabra mayor, en igualdad de otros factores, son capaces de procesar más información por unidad de tiempo que aquellos con tamaños de palabra más reducidos.

Igualmente relevante para conocer el poder de procesamiento de un computador es la velocidad con que se ejecutan las instrucciones. Así, no es difícil encontrar que se caracterice a un computador por el número de operaciones que puede realizar en una unidad de tiempo, por ejemplo, se puede mencionar que un equipo es capaz de realizar dos millones de instrucciones por segundo, o bien, 2 MIPS.

Un significado especial presenta el manejo de números con parte fraccionada, a los cuales en el ámbito de la computación se les conoce como números de punto flotante. Cuando las instrucciones se refieren a operaciones con ese tipo de números se habla de millones de operaciones con números de punto flotante por segundo, MegaFLOPS o MFLOPS (por sus siglas en inglés).

El empleo de las unidades antes descritas suele ser de dudosa utilidad como medida de comparación, puesto que en cada computador existen instrucciones con diferentes tiempos de ejecución (instrucciones básicas y complejas, en el sentido de que la ejecución de éstas últimas conlleva la realización de varias operaciones básicas) y porque en dos computadores diferentes, una misma instrucción puede realizarse en tiempos distintos. Por ello, es común hablar de la frecuencia con que se realiza una instrucción básica y se está en condiciones de comenzar otra. Para evitar problemas tales como querer utilizar un resultado antes de obtenerlo, la ejecución de instrucciones está coordinada por un circuito que emite pulso a intervalos regulares, denominado reloj interno. La frecuencia del reloj se mide en Megahertz (Mhz), esto es, en millones de ciclos por segundo (entendiéndose como ciclo de reloj el lapso transcurrido entre la emisión de dos pulsos consecutivos).

Finalmente, otro factor que influye en la velocidad de procesos de los computadores es el tiempo en que se puede obtener un dato cualquiera, almacenado en el equipo, para poder operar con él (memoria principal). Unidades tales como segundos y minutos son terriblemente grandes para medir los tiempos de trabajo de los circuitos electrónicos. Por ello, lo usual es utilizar submúltiplos como los microsegundos (millonésimas de segundo, o 106) y los nanosegundos (milmillonésinas de segundo, esto es 10-9seg).

ACTIVIDAD # 2

Después de leer el documento realice una breve síntesis y responda la siguientes preguntas:

  1. ¿Qué es una señal análoga? De ejemplos
  2. ¿Qué es una señal digital? De ejemplos
  3. Investigar en la red y explicar con sus propias palabra qué es y para que sirve álgebra de Boole y su relación con la informática, utilice gráficas en el documento
  4. ¿Para qué sirve la tabla de códigos ASCII?