Por @Alvy — 3 de Mayo de 2018

El entrañable Profesor Brailsford narra para Computerphile una batallita de la prehistoria de la informática acerca del origen de términos como bit y por extensión los bytes y lo que técnicamente se denominan palabras.

Curiosamente el término bit lo acuñó en 1947 John Tukey, que trabajaba en el los Laboratorios Bell con el mismísimo Shannon. Es una abreviatura de binary digit y es la forma más cómoda y práctica de manejar la información en computación (por aquello de los voltajes.

El hecho de que los bits luego se agrupen en bytes de 5, 6, 8, 10 o más dígitos y en palabras más grandes todavía es una historia completamente distinta – y por eso a veces tienen distinta longitud, un tanto indefinida.

Al principio se intentaba agruparlos de modo que pudieran representar caracteres –letras del alfabeto– y era normal recurrir a códigos conocidos como el Baudot (5 bits). Se podían utilizar alfabetos más grandes o variaciones que añadieran mayúsculas y otros signos; de aquella época quedan agrupaciones de 6 o 7 bits. Pero había una diferencia importante entre los bytes y las palabras y ninguno de los dos estaba demasiado bien definido.

Como sabiamente explica Brailsford los informáticos de las primeras épocas eran más bien matemáticos y su mayor obsesión era hacer cálculos numéricos pero sobre todo mantener la precisión de esos cálculos.

Recordemos que por aquel entonces se utilizaban todavía las tablas de logaritmos para muchas operaciones. Para trabajar con números decimales y binarios se debía tener en cuenta el factor 3,322 que es el Log2(10). En cálculo los estudiantes usaban entre 4 y 10 dígitos decimales de precisión, de modo que se necesitaban entre 33 y 36 bits para representar un valor con precisión. Máquinas como el EDSAC tenían «palabras» de 18 bits (17 + suma de control) así que uniendo un par de ellas se podían obtener los valores adecuados (35 o 36 bits). De hecho algunas máquinas como el EDVAC usaban 40 bits para dejarse de historias y alcanzar 10 o 12 dígitos decimales de precisión.

La clave fue que cuando IBM como empresa comenzó a adquirir relevancia se consideraba que usar más bits de los necesarios era casi un lujo. Pero para IBM era muy conveniente porque podía vender máquinas más grandes y caras, así que dijo «dejémonos de tonterías y múltiplos de 2 y en vez de 5 y 6 bits utilicemos caracteres de 8 bits».

Así que IBM comenzó a llamar bytes a los grupos de 8 bits, que entonces eran suficientes para mostrar cualquier carácter. Y para contentar a matemáticos y científicos uniendo 4 bytes se podían formar palabras de 32 bits, con las que almacenar números decimales de suficiente precisión para la mayor parte de los cálculos. Así es como IBM hizo que un byte se comenzara a entender inequívocamente como 8 bits – hasta nuestros días.

Relacionado:

Compartir en Flipboard Publicar / Tuitear