El objetivo de este libro es presentar una breve síntesis de la eclosión y evolución del medio digital, y acotar las aportaciones principales realizadas por los pioneros, los matemáticos y los ingenieros, principalmente, de cara a su conceptualización. Intentaremos sintetizar las aportaciones relativas a la terminología del ámbito y los conceptos de multimedia, hipermedia, internet, hipertexto y narrativa interactiva. Hemos dividido el texto en tres grandes apartados: «Los pioneros del medio digital y la tecnología digital»; «La consolidación del programa interactivo. El hipermedia, el multimedia y el caso de internet»; y «El hipertexto: orígenes, conceptos y desarrollo».
Respecto al análisis y la estructuración que sigue, hay que resaltar de entrada que no pretendemos realizar un examen exhaustivo de la historia del medio digital contemplando todos los autores destacados e invenciones —para eso ya existen enciclopedias específicas—, sino realizar un breve recorrido por los que consideramos los personajes esenciales que permitieron a la tecnología avanzar hasta lo que se conoce en nuestros dias como el medio digital interactivo.
La aparición del medio digital surge con medio siglo de retraso respecto del género cinematográfico, que se inicia a finales del siglo XIX gracias al invento del cinematógrafo de los hermanos August y Louis Lumière, pero se desarrolla de manera exponencialmente superior. La diferencia entre los medios analógicos y digitales radica en su funcionamiento: hasta la llegada de la digitalización, todos los medios funcionaban por analogía, es decir, por réplica o imitación. Hablar de analogía es hablar de transcripción. Codificar información de manera analógica significa transcribir una determinada magnitud en otro sistema, constituido por una nueva magnitud, proporcional a la primera, pero más manejable.
Tradicionalmente, en el medio analógico, un artista o autor tiene un modelo o una realidad y lo transcribe (o transforma) en soportes físicos como el papel fotográfico (fotografía), la piedra (escultura) o el cuadro (pintura). En el medio digital, ya no hablamos de transcripción, sino de conversión: la codificación de la información significa la conversión de magnitudes de tipo físico en parámetros numéricos de tipo binario. El modelo se convierte en un conjunto de números (siempre 0/1) sin ninguna variable física. Así, durante el proceso de conversión digital, elementos de diferente naturaleza física como textos, imágenes o sonidos, terminan convertidos en bits de información (una especie de paquete único de información, lo que nos hace pensar que en el fondo solo existe un único medio y los programas interactivos son «unimediales»). En resumen: en la transcripción analógica siempre existe un soporte físico de base (papel, roca, tela, etc.), pero en la conversión digital solo un conjunto de números ocupan el procesador del ordenador. Llamamos medio digital a todas aquellas prácticas, originadas en un soporte analógico o digital, que a partir del procesamiento de su señal se convierten en un código numérico determinado (combinación en cadena entre 0 y 1).
Podemos hablar de medio nuevo gracias a un conjunto de aportaciones de matemáticos e ingenieros que inventaron y desplegaron instrumentos y lenguajes, actualmente denominados sistemas informáticos, que permitieron plantear y establecer los fundamentos de este nuevo entorno de comunicación conocido con el nombre de medio digital. En general, con respecto a sus pioneros, debemos mencionar a los siguientes autores: Charles Babbage, Herman Hollerith, Alan Turing, Norbert Wiener, Claude Shannon, Konrad Zuse, Jack Kilby y Joseph Carl Robnett Licklider. En la figura 1 ofrecemos esquemáticamente las aportaciones más significativas de cada uno de estos autores.
Charles Babbage fue un matemático inglés y científico de la computación. Nació en Devonshire y era hijo de un rico banquero de Londres. Fue alumno del Trinity College y de Peterhouse en Cambrigde, donde se graduó en 1814. Fue la primera persona en concebir lo que hoy llamaríamos ordenador. Inventor de la máquina diferencial y la máquina analítica. Trabajó varios años junto a Augusta Ada King, considerada como la primera programadora de la historia de la computación.
Figura 1. Pioneros del medio digital y la tecnología digital

Los antecedentes que lo llevaron, en 1812, a la idea de crear su máquina diferencial fueron una aversión hacia el desorden en sí, su conocimiento de las tablas logarítmicas y los trabajos de máquinas calculadoras realizados por Blaise Pascal y Gottfried Leibniz. Presentó un tiempo después un modelo que llamó máquina diferencial en la Royal Astronomical Society en 1822. Su objetivo era tabular polinomios usando un método numérico llamado método de las diferencias. La sociedad accedió a la idea y le subvencionó el proyecto. Babbage comenzó con la construcción de su máquina, pero esta nunca fue terminada. Entre 1833 y 1842, Babbage ideó una máquina que fuera programable para hacer cualquier tipo de cálculo, no solo los referentes al cálculo de tablas logarítmicas o funciones polinómicas. La llamó máquina analítica. El diseño se basaba en el telar de Joseph Marie Jacquard, que utilizaba tarjetas perforadas para determinar cómo debía ser realizada una costura. El diseño se adaptó para obtener cálculos de funciones analíticas. La máquina analítica presentaba unos dispositivos de entrada basados en las tarjetas perforadas de Jacquard (inputs), un procesador aritmético que calculaba números (microprocesador), una unidad de control que determinaba qué tarea debía ser realizada (CPU), un mecanismo de salida (output) y una memoria donde los números podían ser guardados hasta ser procesados (ROM, RAM). Se considera que la máquina analítica de Babbage fue la primera computadora del mundo. Un diseño inicial totalmente funcional fue terminado en 1835. Sin embargo, debido a problemas similares a los presentados en la máquina diferencial, la máquina analítica nunca funcionó.
La condesa de Lovelace (nacida el 10 de diciembre de 1815 en Londres), conocida habitualmente como Ada Lovelace, fue una matemática británica. Describió la máquina analítica de Charles Babbage, y es considerada como la primera programadora, desde que escribió la manipulación de los símbolos, de acuerdo con las normas para una máquina de Charles Babbage que aún no había sido construida. Dedujo y anticipó la capacidad de los ordenadores para ir más allá de los simples cálculos de números, mientras que otros, incluido el propio Babbage, se centraron únicamente en estas capacidades. Su padre fue el conocido poeta lord Byron. Ada fue la primera persona en escribir un programa para un ordenador programable: escribió un «plan» donde describe los pasos que permitirían calcular los valores de los números de Bernoulli, su primer programa, que utilizaba dos bucles, y con esto demostró la capacidad de bifurcación de la máquina de Babbage. También describió cómo se podían calcular operaciones trigonométricas que contaban con variables utilizando la máquina de Babbage.
Herman Hollerith era hijo de inmigrantes alemanes, cursó estudios en el City College de Nueva York a la edad de 15 años y se graduó como ingeniero de minas con matrícula de honor en la Columbia School of Mines a la edad de 19 años. Fue uno de los pioneros en el desarrollo de la informática y el procesamiento automatizado de grandes volúmenes de información. Creó un sistema electromagnético que tiene sus orígenes en Pascal, basado en la fuerza motriz de la electricidad. Creador de la empresa informática IBM (Internacional Business Machine Corporation) en 1924. Anteriormente había creado la Tabulating Machine Company.
Hollerith fundó en 1896 la Tabulating Machine Company, que luego se fusionó con otras dos empresas: Computing Scale e International Time Recording, que dieron lugar a CTR (Computing Tabulating Recording) Company. En 1924 la CTR cambió su nombre por el de International Business Machine Corporation (IBM), que años más tarde se convertiría en el gigante por excelencia de la computación.
El inglés Alan Turing estudió lógica matemática en la Universidad de Cambridge y en 1937 fue a estudiar a la Universidad de Princeton, como estudiante ya graduado. Condenado a causa de su homosexualidad a un tratamiento, o según se mire una tortura médico-farmacéutica equivalente a la castración, se suicidó por envenenamiento en 1954. Puede ser considerado el padre de la inteligencia artificial, aunque este nombre no se empleara hasta después de 1956. Creó una máquina para resolver problemas formales: el autómata celular y la famosa máquina de Turing (cambio en el estado de unas células), e inventó el test de Turing (modelo formal para resolver cualquier problema matemático, el cual prepara el territorio para la futura ciencia de la computación). El test nos indica que si no hay manera de discernir si un comportamiento es de máquina o de persona, es que la máquina se comporta inteligentemente.
Turing propone en 1950 la siguiente prueba (conocida como la prueba de Turing): si una persona se comunica solo a través de un terminal con dos partes más, que se encuentran escondidas, y no puede discriminar a través de preguntas cuál de las partes es una persona y cuál un ordenador, entonces no se puede negar que la máquina muestra la cualidad que, en las personas, se llama inteligencia.
Norbert Wiener fue un ingeniero ruso que emigró en 1880 a Nueva Orleáns. Se doctoró por Harvard en Filosofía a la edad de 18 años y se ocupó de la relación de los humanos con las máquinas. Escribió diferentes tratados y obras sobre la ciencia de la cibernética.
Se preocupó por los mecanismos de regulación en los seres vivos y, por extensión, desarrolló buena parte de la teoría de la cibernética. También desarrolló el concepto de feedback o retroalimentación. Fue uno de los precursores del inicio de la era de la automatización.
Entre su abundante obra relacionada con la cibernética, destaca su primera publicación: Cibernética o el control y comunicación en animales y máquinas (1948). En esta obra, Wiener describe la cibernética como «la ciencia del control y la comunicación en el animal y en la máquina». Se trataba de una ciencia multidisciplinar dedicada al análisis del conjunto de procesos similares que se dan tanto en seres vivos como en máquinas, como el control del flujo de información y las comunicaciones. El cuerpo humano puede estudiarse como una máquina dotada de complejos sistemas de control de la información, que regulan el estado de la temperatura, el agua en el organismo, etc., de la misma manera que este está formado por un sistema de comunicaciones eléctricas y químicas, que configuran, respectivamente, los sistemas nervioso y hormonal.
La cibernética se presenta como un paradigma científico capaz de explicar los conceptos básicos de las ciencias materiales, como una estructura de conocimiento lógico: el axioma central entiende que todo fenómeno del universo es consecuencia de procesos de comunicación, que abarcan a todos los elementos y variables que componen el sistema universal y sus subsistemas.
Claude Shannon fue un ingeniero electrotécnico y matemático, nacido en Gaylord (Michigan), considerado el padre de la era de las comunicaciones electrónicas. Estudió en la Universidad de Michigan y en 1940 se doctoró en el MIT. Mientras trabajaba para los laboratorios Bell formuló una teoría que explicaba la comunicación de la información, conocida mundialmente como la teoría de la comunicación. Buena parte de su investigación la dedicó también al estudio de las redes telefónicas, la relación existente entre los relés y la lógica binaria (reuniendo la álgebra de Boole con el circuito telefónico) y la creación del concepto de BIT (BInary digiT).
La teoría matemática de la comunicación fue el clímax del matemático Shannon y de sus investigaciones en ingeniería. El concepto de entropía es una característica importante a tener en cuenta en la teoría de Shannon: significa que en el envío de información existe cierto grado de duda sobre si el mensaje llegará completo. Shannon demostró, en 1938, cómo las operaciones booleanas elementales se podían representar a través de circuitos computables eléctricos, y cómo la combinación de circuitos podía representar operaciones aritméticas y lógicas complejas.
Konrad Zuse nació en Berlín en 1910 y estudió ingeniería civil en el Instituto Politécnico de Berlín. Se graduó en 1933. Entre 1936 y 1939, Zuse construyó la primera computadora electromecánica binaria programable, la cual se basaba en una serie de relés eléctricos para automatizar los procesos. Solo pudo construir un prototipo para pruebas que llamó Z-1, el cual nunca llegó a funcionar debido a la falta de perfeccionamiento de sus elementos mecánicos. Después le siguieron el Z-2 y el Z-3.
Miembro del partido nazi, durante la Segunda Guerra Mundial se dedicó a la creación de máquinas de desencriptación como BOMB o ENIGMA y a mejorar las versiones de la serie Z.
En 1940 Zuse terminó el Z-2, que fue la primera computadora electromagnética funcional del mundo. El año siguiente fabricó el Z-3, para el cual desarrolló un programa de control que hacía uso de dígitos binarios. Esta computadora fue destruida en 1944 a causa de la guerra. Se había basado, en los tres casos, Z-1, Z-2 y Z-3, en los recientes trabajos de Alan Turing y su test. Se trataba de un dispositivo totalmente electromecánico, con una unidad aritmética basada en interruptores mecánicos y una memoria que consistía en capas de barras de metal, dispuestas entre láminas de vidrio. Una de las más resaltables características era que podía ser programado por medio de tarjetas perforadas. El invento de Zuse era una máquina binaria con interruptores de dos posiciones que representaban ceros y unos. Sin embargo, el Z-1 no funcionaba del todo bien debido a las dificultades que presentaba la transmisión de comandos a través de conexiones mecánicas.
Durante la Segunda Guerra Mundial, Zuse construyó una computadora utilizando tubos de vacío, y consiguió construir el Z-3, que él mismo denominó la «primera computadora funcional del mundo». En 1941 el DVL, el Instituto de Investigaciones Aeronáuticas de Alemania, ofreció un contrato a Zuse para que construyera el modelo Z-4. Entre 1945 y 1946 Zuse desarrolló el Plankalkül, o cálculo de planes, que es considerado como el primer lenguaje algorítmico del mundo. Durante los años cincuenta desarrolló el Z-5, la última de las grandes computadoras basadas en relés. Otras computadoras en desarrollo fueron el Z-11, Z-22 y Z-23.
Jack Kilby nació en 1923 en Jefferson City (Missouri), y fue diplomado por la Universidad de Illinois y Wisconsin. Desde 1958 fue empleado de la compañía informática Texas Instruments, donde desarrolló el microchip en 1959. La investigación de Kilby le llevó hacia la producción de los microprocesadores y contribuyó a establecer los conceptos técnicos usados hoy en día en todo el campo de la microelectrónica.
Fue el creador del circuito monolítico integrado. Destaca por su aportación para la creación del microprocesador. También se le puede considerar coinventor de la calculadora de bolsillo.
Los circuitos integrados fueron posibles gracias a descubrimientos experimentales que demostraron que los semiconductores pueden realizar las mismas funciones que los tubos de vacío. La integración de grandes cantidades de diminutos transistores en pequeños chips fue un gran avance para el ensamblado manual de los tubos de vacío (válvulas) y circuitos utilizando componentes discretos. Existen dos ventajas principales de los circuitos integrados sobre los circuitos convencionales: el coste y el rendimiento.
Entre los circuitos integrados más avanzados se encuentra el microprocesador, que controla todo, desde computadoras hasta teléfonos móviles y hornos microondas. Los chips de memoria digitales son otra familia de circuitos integrados que son de importancia crucial para la moderna sociedad de la información. La eficiencia de los circuitos integrados es alta debido a que el pequeño tamaño de los chips permite conexiones que posibilitan la utilización de lógica de bajo consumo (como es el caso del sensor CMOS) en altas velocidades de conmutación.
J.C.R. Licklider nació en 1915 en Sant Louis (Estados Unidos) y murió en 1990 en Arlington. Es considerado una de las personas más influyentes de la historia de la ciencia de la computación y personaje clave para la posterior implementación de lo que hoy conocemos como internet.
La primera descripción documentada de las interacciones sociales que podrían ser propiciadas a través de las redes informáticas se encuentra en una serie de memorándums escritos por J.C.R. Licklider, entonces profesor del MIT, en agosto de 1962. Licklider describe en ellos su concepto de red galáctica (Galactic Network): una red interconectada globalmente a través de la cual cada uno pudiera acceder desde cualquier lugar a diferentes tipos de datos y programas. En esencia, el concepto era muy parecido al del internet actual, aunque entonces se concebía como un sueño de ciencia ficción. Se le considera precursor de nociones básicas como el concepto de la red, el ratón, el hipertexto o el sistema «windows».
En octubre de 1962, Licklider fue nombrado director de la IPTO (Information Processing Techniques Office), una división de ARPA (Advanced Research Project Agency) que de la misma manera dependía del Pentágono estadounidense, el sistema de defensa. Se creó entonces ARPANET, un anteproyecto de internet protegido por la administración. Bajo su mandato, y a través de su impulso, se destinaron grandes sumas de dinero a la investigación, que permitieron la posterior creación de internet.