A finales de la década de 1930, Claude Shannon mostró
que utilizando interruptores que se encontraban cerrados para
"verdadero" y abiertos para "falso", se podían llevar a
cabo operaciones lógicas asignando el número 1 a "verdadero" y el
número 0 a
"falso".
Este sistema de codificación de información se
denominó binario. Es la forma de codificación que permite el
funcionamiento de los ordenadores. El sistema binario utiliza dos condiciones
(representadas por los dígitos 0 y 1) para codificar información.
Desde el año 2000 AC , los seres humanos han contado
utilizando 10 dígitos (0, 1, 2, 3, 4, 5, 6, 7, 8, 9). Esto se denomina
"base decimal" (o base 10). Sin embargo, las civilizaciones antiguas,
e incluso algunas aplicaciones actuales, utilizaron y continúan utilizando
otras bases numéricas:
- Sexagesimal (60), utilizada por los Sumerios. Esta base se utiliza
actualmente en nuestro sistema de cronometraje, para los minutos y los
segundos,
- Vigesimal (20), utilizada por los mayas,
- Duodecimal (12), utilizada en el sistema monetario del Reino Unido e
Irlanda hasta 1971: una "libra" valía veinte
"chelines", y un "chelín" valía doce
"peniques". El actual sistema de cronometraje también se basa en
doce horas (algo que se traduce en el uso que se le da en Norteamérica),
- Quinario (5), utilizado por los mayas,
- Binario (2), utilizado por la tecnología digital.
El término bit (abreviado con la minúscula b)
significa dígito binario, y corresponde al número 0 o 1 en la numeración
binaria. Es la unidad de información más pequeña que puede manipular una
máquina digital. Es posible representar esta información binaria:
- con una señal eléctrica o magnética que, más allá de un cierto nivel,
representa el 1,
- a través de la aspereza o profundidad de los hoyos de una
superficie,
- utilizando circuitos eléctricos, componentes eléctricos que poseen dos
condiciones estables (una que representa al 1 y la otra al 0).
Agrupar números en cúmulos de 8 facilita su lectura, así como agrupar números en grupos de tres hace más legibles los millares cuando se trabaja en base decimal. Por ejemplo, el número "1.256.245" se lee mejor que "1256245".
Por lo general, una unidad de información de 16 bits se denomina palabra.
Una unidad de información de 32 bits se denomina palabra doble (o también, dword).
Para un byte, el menor número posible es 0 (representado por ocho ceros: 00000000), y el mayor es 255 (representado por ocho unos: 11111111), que permite la creación de 256 valores diferentes.
Durante mucho tiempo, la informática fue una ciencia
inusual ya que utilizaba diferentes valores para sus unidades, diferentes a las
del sistema métrico (también llamado "sistema Internacional"). Los
usuarios de ordenadores aprendían con rapidez que 1 kilobyte estaba compuesto
por 1024 bytes. Por este motivo, en diciembre de 1998, la Comisión Electrotécnica
Internacional intervino en el tema. La lista siguiente incluye las unidades
estandarizadas de la IEC :
- Un kilobyte (kB) = 1000 bytes
- Un megabyte (MB) = 1000 kB = 1.000.000 bytes
- Un gigabyte (GB) = 1000 MB = 1.000.000.000 bytes
- Un terabyte (TB) = 1000 GB = 1.000.000.000.000 bytes
No hay comentarios:
Publicar un comentario