2.3 Información, codificación y sistema de numeración; el sistema binario


A finales de la década de 1930, Claude Shannon mostró que utilizando interruptores que se encontraban cerrados para "verdadero" y abiertos para "falso", se podían llevar a cabo operaciones lógicas asignando el número 1 a "verdadero" y el número 0 a "falso".
Este sistema de codificación de información se denominó binario. Es la forma de codificación que permite el funcionamiento de los ordenadores. El sistema binario utiliza dos condiciones (representadas por los dígitos 0 y 1) para codificar información.
Desde el año 2000 AC, los seres humanos han contado utilizando 10 dígitos (0, 1, 2, 3, 4, 5, 6, 7, 8, 9). Esto se denomina "base decimal" (o base 10). Sin embargo, las civilizaciones antiguas, e incluso algunas aplicaciones actuales, utilizaron y continúan utilizando otras bases numéricas:
  • Sexagesimal (60), utilizada por los Sumerios. Esta base se utiliza actualmente en nuestro sistema de cronometraje, para los minutos y los segundos,
  • Vigesimal (20), utilizada por los mayas,
  • Duodecimal (12), utilizada en el sistema monetario del Reino Unido e Irlanda hasta 1971: una "libra" valía veinte "chelines", y un "chelín" valía doce "peniques". El actual sistema de cronometraje también se basa en doce horas (algo que se traduce en el uso que se le da en Norteamérica),
  • Quinario (5), utilizado por los mayas,
  • Binario (2), utilizado por la tecnología digital.

El término bit (abreviado con la minúscula b) significa dígito binario, y corresponde al número 0 o 1 en la numeración binaria. Es la unidad de información más pequeña que puede manipular una máquina digital. Es posible representar esta información binaria:
  • con una señal eléctrica o magnética que, más allá de un cierto nivel, representa el 1,
  • a través de la aspereza o profundidad de los hoyos de una superficie,
  • utilizando circuitos eléctricos, componentes eléctricos que poseen dos condiciones estables (una que representa al 1 y la otra al 0).
El byte (abreviado con la mayúscula B) es una unidad de información compuesta por 8 bits. Se puede utilizar para almacenar, entre otras cosas, un carácter, como por ejemplo una letra o un número.
Agrupar números en cúmulos de 8 facilita su lectura, así como agrupar números en grupos de tres hace más legibles los millares cuando se trabaja en base decimal. Por ejemplo, el número "1.256.245" se lee mejor que "1256245".
Por lo general, una unidad de información de 16 bits se denomina palabra.
Una unidad de información de 32 bits se denomina palabra doble (o también, dword).
Para un byte, el menor número posible es 0 (representado por ocho ceros: 00000000), y el mayor es 255 (representado por ocho unos: 11111111), que permite la creación de 256 valores diferentes.
Durante mucho tiempo, la informática fue una ciencia inusual ya que utilizaba diferentes valores para sus unidades, diferentes a las del sistema métrico (también llamado "sistema Internacional"). Los usuarios de ordenadores aprendían con rapidez que 1 kilobyte estaba compuesto por 1024 bytes. Por este motivo, en diciembre de 1998, la Comisión Electrotécnica Internacional intervino en el tema. La lista siguiente incluye las unidades estandarizadas de la IEC:
  • Un kilobyte (kB) = 1000 bytes
  • Un megabyte (MB) = 1000 kB = 1.000.000 bytes
  • Un gigabyte (GB) = 1000 MB = 1.000.000.000 bytes
  • Un terabyte (TB) = 1000 GB = 1.000.000.000.000 bytes 

No hay comentarios:

Publicar un comentario