Publicada

Pese a lo que se pueda pensar hoy, al echar la vista atrás desde un mundo en que los circuitos son omnipresentes, lo cierto es que en sus inicios el transistor fue considerado sobre todo un buen sustituto de las válvulas de vacío. Ni siquiera tuvo demasiado éxito en este empeño, ya que empresas como RCA, General Electric, Sylvania o Philco (Philadelfia Storage Battery Company) no dejaron de utilizarlas: su venta no alcanzó el pico hasta 1957 y no mostró un declive pronunciado hasta finales de la década de 1960. Como señalé con anterioridad, fueron las Fuerzas Armadas estadounidenses, con el programa de miniaturización de equipos militares, las que salvaron en un primer momento al transistor.

No obstante, la industria acabó por responder y en 1954 se desarrollaron dispositivos de silicio, los cuales podían funcionar a temperaturas mucho más elevadas que los primeros diseños, basados en el germanio. El nuevo elemento fue el preferido para la aviación y para los misiles teledirigidos, a pesar de que era mucho más caro. En todo caso, las posibilidades que ofrecían este componente electrónico y los materiales semiconductores terminaron por hacerse evidentes para el mundo empresarial. Para firmas emprendedoras, por supuesto, pero también para algunos científicos inmersos en un entorno en que el dinero y los negocios representaban un valor en sí mismos, no solo en el aspecto material, sino también en el cultural.

De este modo, muchos investigadores decidieron traspasar las fronteras del ámbito académico de una manera mucho más radical de lo que lo habían hecho cuando aceptaron trabajar en instalaciones industriales, como podían ser los Laboratorios Bell. Esto es, se convirtieron ellos mismos en empresarios. Tal fue el origen del célebre Silicon Valley, situado el sudeste de San Francisco. En su constitución desempeñaron papeles centrales Frederick Terman, catedrático y director de la Escuela  de Ingeniería de la cercana Universidad de Stanford, y William Shockley, que abandonó los Laboratorios Bell de Nueva Jersey en busca de horizontes más lucrativos (en 1955 fundó, en lo que entonces no eran más que los alrededores de la bahía de San Francisco, su propia firma: Shockley Semiconductor Laboratory).

Como es bien sabido, el crecimiento de Silicon Valley durante las décadas de 1960 y 1970 fue extraordinario y constituyó el símbolo de una «nueva alianza» entre ciencia e industria.

Un momento especialmente importante para la «aplicación civil» del transistor se produjo en torno a 1960, cuando se introdujeron técnicas planares en su fabricación. Estas partían de una oblea de semiconductor (germanio o silicio) y  permitían construir los componentes necesarios y al mismo tiempo conectarlos entre sí, ya fueran transistores, resistores o capacitores. Estos procesos abrieron el camino a la creación posterior de los chips. De esa manera, se consiguió no tener que unir a un circuito los componentes específicos; se logró, en definitiva, producir circuitos integrados, en los que sus diferentes integrantes podían fabricarse sobre una misma oblea de material semiconductor.

Algunas empresas que desarrollaron esta tecnología fueron Texas Instruments, dedicada a la geofísica, pero que en 1952 decidió que el futuro estaba en los transistores y en la miniaturización de componentes electrónicos, y Fairchild Semiconductor, creada en 1957 por un grupo de ocho científicos disidentes de la firma de Shockley y dedicada a fabricar dispositivos de silicio. Ninguna tenía relación con el sector de las telecomunicaciones y por ello buscaron nuevos ámbitos a los que llevar sus novedosos productos. Entre estos estaban las calculadoras, un área en la que Texas Instruments desempeñó (al igual que IBM) un papel dominante durante algún tiempo.

Hasta ese momento las máquinas de calcular disponibles eran gigantescos tinglados de componentes electrónicos. Así era ENIAC, que tenía, como ya indiqué, 18.000 tubos de vacío y miles de resistencias y de condensadores unidos por kilómetros de cables, pesaba 27 toneladas y consumía 174 kilovatios, por lo que generaba una enorme cantidad de calor. Podemos considerarlo el paradigma de la primera generación de ordenadores, mientras que la segunda llegó en la década de 1950 con los nuevos inventos. Así, el TRADIC (acrónimo de Transistorized Digital Computer), construido en 1955 por los Laboratorios Bell para la Fuerza Aérea estadounidense, utilizaba setecientos transistores y podía competir en velocidad con ENIAC, aunque consumía poco más de la mitad de energía que este.

Portada de 'Historia de la física cuántica. Volumen III', de José Manuel Sánchez Ron (Crítica)

Entre los protagonistas de la «revolución de los circuitos integrados» destacan dos: Jack Kilby (1923-2005) y Robert Noyce (1927-1990). Kilby entró a trabajar en Texas Instruments en mayo de 1958. Pronto se preguntó qué pasaría si en lugar de tomar diferentes componentes y unirlos para formar un circuito, este se hiciese directamente sobre un material semiconductor. En agosto de 1958, mostró su invento a los directivos de la empresa y fabricó un oscilador en un pequeño trozo de germanio. Generó los componentes mediante ataque químico y los unió con delgados hilos de oro. Conectó el resultado a un osciloscopio y, tras activar un conmutador, apareció en la pantalla una onda senoidal. Así demostró que había construido un oscilador de cambio de fase, a partir de ese trocito de material semiconductor, es decir, que los circuitos integrados eran factibles. El 6 de febrero de 1959, solicitó varias patentes del producto. En los documentos indicó que era capaz de fabricar resistores, capacitores y amplificadores en una única pieza, con tan solo añadir terminales a una pequeña barra semiconductora y formar uniones p-n en determinados puntos de esta. En definitiva, que podía obtener un circuito integrado. En realidad, este no era monolítico, porque tenía conexiones externas de hilo de oro, y eso dificultaba su producción industrial.

El otro gran protagonista de esta historia es Noyce, conocido a veces como el «alcalde de Silicon Valley». Este empezó cofundando en 1957 Fairchild Semiconductor, en la que trabajaba en ese momento.

Ese mismo año, Jean Hoerni (1924-1997) desarrolló en los laboratorios de esta empresa las técnicas fundamentales (proceso «planar») para la fabricación de un microchip parecido al de Kilby: un circuito integrado basado en una oblea de silicio, no de germanio, y con una capa protectora de dióxido de silicio. Hoerni patentó esta tecnología en 1959, pero Noyce reelaboró su trabajo y depositó una lámina metálica (de aluminio) sobre la estructura básica. De este modo, conectó los diversos componentes en la oblea de silicio y consiguió el primer circuito integrado monolítico, que era, además, bastante más robusto. Construyó su invento en 1958, pero no solicitó la patente hasta el 30 de julio de 1959. Es decir, su solicitud era posterior a la de Kilby. En 1961, Fairchild Semiconductor produjo comercialmente los primeros microchips, o simplemente chips (esta es una antigua palabra inglesa, que quiere decir «pequeño, y especialmente delgado, trozo de madera, piedra u otro material, separado al labrarlo, cortarlo o romperlo»). La NASA, con su programa Apolo, fue uno de los mayores consumidores de circuitos integrados hasta 1965.

En 1968, Noyce dejó su anterior empresa y fundó Intel junto a Gordon Moore (1929-2023), con el propósito de construir circuitos lógicos mediante el empleo de dispositivos semiconductores. En esta firma, Ted Hoff (n. 1937), un joven ingeniero electrónico, tuvo la idea de crear un «procesador universal», que evitase tener que utilizar un chip para cada función de una calculadora (hacer el cómputo, controlar el teclado, etc.). Federico Faggin materializó esta creación dos años más tarde, en 1970, cuando diseñó el primer «microprocesador» comercial, que inauguró la revolución microelectrónica. Este Moore, por cierto, enunció la conocida ley que lleva su nombre, en un artículo publicado el 19 de abril de 1965 en la revista Electronics.

En este texto vaticinó que el número de transistores en un circuito integrado se duplicaría cada 18-24 meses. Su predicción resultó básicamente cierta hasta el año 2000. Así es como lo escribió: "La complejidad de los componentes de costo mínimo ha aumentado al ritmo de aproximadamente un factor de dos por año. Ciertamente, se espera que a corto plazo este ritmo continúe, si no es que aumente. A largo plazo el ritmo de crecimiento es un poco más incierto, aunque existen razones para pensar que durante al menos diez años no permanecerá constante. Esto significa que hacia 1975 el número de componentes de coste mínimo por circuito integrado será de 65.000".

En este mismo artículo, Moore ofreció una buena visión de conjunto de la situación en que se encontraba la que él denominó «electrónica integrada», esto es, aquella que utilizaba circuitos integrados, así como las perspectivas futuras de este campo a corto y medio plazo:

"El futuro de la electrónica integrada es el futuro de la propia electrónica. Las ventajas de la integración acarrearán una proliferación de la electrónica, empujando esa ciencia a muchas áreas nuevas. Los circuitos integrados conducirán a maravillas tales como computadoras caseras (o al menos terminales conectadas con una computadora central), controles automáticos para automóviles y equipos personales de comunicación portables […]. Pero el potencial mayor reside en la producción de grandes sistemas. En comunicaciones telefónicas, circuitos integrados en filtros digitales separarán canales en múltiples equipos. Circuitos integrados también servirán como conmutadores en circuitos telefónicos y procesarán datos. Las computadoras serán más poderosas y se organizarán de formas completamente diferentes. Por ejemplo, las memorias construidas con electrónica integrada pueden ser distribuidas a lo largo de una máquina en lugar de estar concentradas en una unidad central. En adición, la fiabilidad mejorada que hará posible los circuitos integrados permitirá construir unidades de procesamiento más grandes. Máquinas similares a las que existen hoy se podrán fabricar con menores costes y más rápidamente […]".

"La electrónica integrada ya está establecida. Sus técnicas son casi obligatorias para los nuevos sistemas militares, ya que la fiabilidad, tamaño y peso que requieren algunos de ellos se consigue únicamente con integración [esto es, sistemas integrados]. Programas tales como el Apolo, para vuelos tripulados a la Luna, han demostrado la fiabilidad de la electrónica integrada […]".

"Muchas empresas en el campo comercial de las computadoras están diseñando máquinas, o las tienen en los primeros estadios de producción, que emplean electrónica integrada. Estas máquinas cuestan menos y funcionan mejor que las que utilizan electrónica «convencional » […]".

"La utilización de circuitería integrada lineal está todavía restringida a lo militar. Esas funciones integradas son caras y no están a disposición en la variedad que se requiere para satisfacer una parte importante de la electrónica lineal. Pero las primeras aplicaciones están comenzando a aparecer en la electrónica comercial, en particular en equipos que necesitan amplificadores de baja frecuencia de pequeño tamaño […]. Es probable que el silicio continúe siendo el material básico, aunque otros serán útiles para aplicaciones específicas. Por ejemplo, el arseniuro de galio será importante para funciones integradas de microondas. Pero el silicio predominará a bajas frecuencias debido a la tecnología que ya se ha desarrollado en torno a él, a su óxido, y porque es un material de partida abundante y relativamente barato. No obstante, en abril de 2005 el propio Moore comprendió que este crecimiento exponencial no podía continuar para siempre y que la miniaturización alcanzaría pronto los límites atómicos. También señaló que la industria, dada la gran reducción lograda en los costes de fabricación de los microprocesadores, ya se dedicaba más a ampliar las aplicaciones de los circuitos integrados que a aumentar su potencia. Este cambio en la orientación empresarial ha venido acompañado de problemas de obsolescencia de los muy variados equipos y objetos de uso cotidiano que utilizan tecnología digital. En la actualidad, millones de aparatos son desechados cada año y reemplazados por otros más novedosos, lo que genera enormes cantidades de contaminación".

Nótese lo que Moore dijo en uno de los párrafos de la cita anterior, con respecto a la importancia que «lo militar» tuvo para el desarrollo de esta nueva tecnología. A comienzos de la década de 1960, los encargos del Ejército permitieron que empresas ya establecidas en el mundo de la electrónica, como RAC o Fairchild, y nuevas como Intel, refinaran sus productos, aumentaran la densidad de componentes y, sobre todo, redujeran los costes de fabricación. En 1962, los diseñadores del Minuteman II, la segunda generación de misiles balísticos intercontinentales, optaron por utilizar chips en sus circuitos.

Esta decisión generó, durante los siguientes tres años, contratos con firmas del campo de la electrónica por valor de 24 millones de dólares. Poco después, Texas Instruments vendía cuatro mil microchips mensuales al programa Minuteman. Este utilizó también los servicios de Fairchild, que consiguió encargos importantes. La Marina no se quedó atrás e incorporó este tipo de tecnología en los primeros proyectiles nucleares lanzados desde submarinos. A mediados de la década de 1960, se los podía encontrar instalados en una gran variedad de instrumentos militares. Dada la naturaleza de los objetivos castrenses, en los que la reducción de tamaño y peso era primordial, la NASA no se pudo quedar al margen. El 27 de noviembre de 1963 —año en el que se vendieron alrededor de medio millón de chips (al año siguiente se cuadruplicaron las ventas, un ritmo que se mantuvo en el tiempo)—, la agencia espacial lanzó desde Cabo Cañaveral el primer satélite de la serie IMP (siglas en inglés de Plataforma de Vigilancia Interplanetaria), destinado a estudiar el plasma y el campo magnético entre los planetas. Este fue el primer vehículo espacial que utilizó electrónica integrada. Esta entró enseguida a formar parte del programa Apolo, con el Ordenador de Guiado Apolo.

En 1964, Fairchild, por entonces el principal suministrador de circuitos integrados a los cohetes de la agencia, anunció la primera línea de productos de este tipo dirigidos sobre todo a estimular el mercado civil. Herbert Kleiman ha argumentado que la probabilidad de que la empresa tomara esta iniciativa, sin contar con la aprobación de la NASA, el principal cliente de sus productos más caros, es muy remota. En otras palabras, la carrera espacial aceleró la conversión de los circuitos integrados en una mercancía de uso generalizado.

El caso es que en 1968 se fabricaron cincuenta veces más chips que cinco años antes. Otro hecho a tener en cuenta cuando se analiza la adopción de los transistores por el mundo civil, es que los elementos de conmutación empleados en la electrónica anterior, como válvulas o tubos de vacío, eran relativamente caros. La fabricación de aparatos de radio y televisión no presentaba grandes dificultades en lo que a esto se refiere. En la década de 1950, una radio, por ejemplo, utilizaba dos o tres docenas de capacitores, que eran comparativamente baratos, pero solo dos o tres transistores. La situación era parecida en lo que atañe a los primeros televisores.

No obstante, con el tiempo los circuitos integrados también cambiaron esto, pues los componentes convencionales, como los resistores, consumían mucha energía, ocupaban mucho espacio y eran mucho más caros. Al reducirse los precios de producción, la nueva tecnología penetró cada vez más en el ámbito civil: primero, con el empleo de ordenadores en la Administración, y luego en bancos o empresas de seguros. Según un informe del Congreso de Estados Unidos, en junio de 1960 el Gobierno Federal utilizaba en sus oficinas 524 computadoras, destinadas al procesamiento electrónico de datos, lo que representaba el 20 % del total de estos aparatos vendidos en el país hasta finales de 1959.26 Solo el Departamento del Censo utilizaba seis grandes máquinas para este fin. Ello le permitió elaborar el censo de 1960 con una plantilla de cuatro mil personas, lo que representaba el 45 % de las empleadas la década anterior, a pesar de que la población había aumentado un 20 %. Además, publicó los resultados mucho más rápidamente. La Agencia de la Tercera Edad y de Seguros de Viudedad, una rama de la Tesorería de la Seguridad Social, instaló terminales de IBM en 1956, para registrar los datos de los ingresos y de las contribuciones de sus afiliados. Durante el período en que los ordenadores eran demasiado caros y grandes, pero imprescindibles para las empresas que manejaban mucha información, IBM y RCA alquilaban sus centros de cálculo, provistos de máquinas transistorizadas, capaces de escribir y leer 33.000 caracteres por segundo en cintas magnéticas.

Otro avance importante tuvo lugar en 1967, cuando Jerry Merryman, James van Tassel y el ya mencionado Jack Kilby, trabajadores todos ellos de Texas Instruments, utilizaron los microchips para desarrollar la primera calculadora electrónica de bolsillo, la Pocketronic. Esta comenzó a comercializarse el 14 de abril de 1971 y, como ha señalado Reid (2001: 171-172), «para los estándares actuales, aquel primer modelo era un dinosaurio: era una calculadora con cuatro funciones (suma, resta, multiplicación y división), pesaba 1.130 gramos y costaba unos 150 dólares. Pero se vendió con locura».

Poco a poco, pero cada vez con mayor velocidad, las computadora se hicieron más potentes, más rápidas, más pequeñas y más baratas. Hasta llegar a mediados de la década de 1970, cuando aparecieron los ordenadores personales (conocidos como PC, del inglés personal computer). El paso de las enormes máquinas de cálculo a los terminales de sobremesa comenzó en 1975, cuando una empresa poco conocida de Nuevo México sacó a la venta (por casi cuatrocientos dólares) el Altair, un dispositivo que dio pie a una serie de innovaciones. Estas condujeron al lanzamiento de 1977 del Apple II, creado por Steve Jobs (1955-2011) y Stephen Wozniak (1950). Un año antes, Bill Gates (1955) había fundado Microsoft, empresa que acabó por dominar en buena medida el mundo de la informática, sobre todo, gracias a los desarrollos en el ámbito de los lenguajes de programación. En la década de 1980, este tipo de aparatos se extendió por los países desarrollados, donde eran utilizados para todo tipo de servicios. Uno de los modelos producidos en esa época fue el Commodore 64, lanzado en 1982 y acompañado por una gran variedad de videojuegos, del que se habían vendido 17 millones de unidades en 1994.

Para hacerse idea de la importancia y difusión del ordenador, basta con decir que la revista Time lo eligió como «personaje del año» en 1982. De hecho, y como es evidente que en este caso la elección no era un ser humano, por primera vez en la historia se pudo leer en la portada del semanario neoyorquino del 3 de enero de 1983: "MACHINE OF THE YEAR. The Computer Moves In".

El editorial que justificaba esa decisión empezaba con la siguiente frase: «¿POR FAVOR, ALGUIEN PODRÍA DECIRME QUÉ PUEDE HACER UNA COMPUTADORA PERSONAL?». La intención irónica de la pregunta se veía resaltada por el color rojo brillante de las letras.

El artículo no se limita a proporcionar una respuesta a este interrogante, sino que ofrece cientos de ellas. Un ordenador personal, dice, puede enviar cartas a la velocidad de la luz, diagnosticar a un caniche enfermo, preparar en minutos una póliza de seguros adaptada al cliente o comprobar recetas de cerveza. Abundaban los testimonios. Michael Lamb, de Tucson, diseñó un mecanismo para que su computadora pudiera controlar la anestesia durante una cirugía. El grupo de rock Earth, Wind and Fire utilizaba uno para hacer explotar bombas de humo durante sus conciertos. Y el reverendo Ron Jaenisch, de Sunnyvale, California, lo programó de manera que pudiera recitar toda la ceremonia de una boda.

El mundo digital pronto se convirtió en el reino de los terminales; de los CD-ROM (término procedente del inglés compact disc-read only memory); del módem (acrónimo de modulator-demodulator, un aparato que convierte las señales del ordenador en analógicas y viceversa, para poder transmitirlas por la red telefónica); de las memorias capaces de almacenar bytes (un número fijo de bits, 8 en la actualidad, como un octeto), megabytes (un millón de bytes), gigabytes, terabytes, etc.; del ASCII (siglas de American Standard Code for Information Interchange, un conjunto estándar de caracteres); de Telnet (procedente de Teletype Network); de internet: de buscadores web (entre los que destaca Google); y del email, los servidores, las redes sociales (Facebook, Twitter/X, WhatsApp…), la nubes, la fibra óptica (como sustituto de los cables de cobre) y la IA. Aunque no han desaparecido, los PC han sido sustituidos por generaciones de teléfonos móviles inteligentes con conexión a la red, pantalla táctil y la posibilidad de realizar muchas de las funciones del ordenador personal.

La importancia de los smartphones es difícil de exagerar. Basta con recordar que el walkie-talkie constituyó una de las grandes novedades de la segunda guerra mundial. Su éxito y su atractivo fueron tales que tras la contienda varias firmas intentaron introducir este tipo de comunicación inalámbrica en el mercado general. Por ejemplo, en 1946 ATT estableció un servicio público de radiotelefonía en Saint Louis (Estados Unidos). Utilizaba un único transmisor y ofrecía seis canales: alguien llamaba por radio al operador y este le conectaba con la persona con la que deseaba hablar. Tuvo tanta demanda que pronto quedó bloqueado y no podía expandirse sin congestionar las frecuencias disponibles. En 1947, la empresa dio con la solución: en lugar de utilizar un único transmisor, crearon un conjunto de emisores de baja potencia, cada uno situado en una zona acotada, una celda o «célula» (de ahí el término celular en «teléfonos móviles o celulares»). Al desplazarse el usuario del sistema, su llamada pasaba de una región a otra (los actuales repetidores), lo que permitía que más personas tuviesen acceso de manera simultánea a la red. Esta se estableció por primera vez en Chicago en 1978 y contaba con diez antenas, que comunicaban a dos mil usuarios. Al año siguiente, ya había ejemplos en Japón. Sin embargo, la tecnología era muy primitiva, muy cara y no existían estándares comunes, lo que complicaba mucho su difusión.

La situación cambió en 1983, cuando se puso en marcha el primer sistema comercial de telefonía celular o móvil. Este se inauguró con una llamada efectuada desde Chicago a un nieto de Alexander Graham Bell, uno de los inventores (el más celebrado) del teléfono, que se encontraba en Alemania. Los aparatos pertenecían a la denominada segunda generación, que utilizaba ya señales digitales en lugar de analógicas. Los circuitos integrados fueron, por supuesto, una parte imprescindible de este desarrollo, de la creación de lo que terminó por ser un procedimiento universal de comunicación social.  En 1990, existían unos 12,4 millones de teléfonos móviles (el 0,25 % de la población mundial en ese año). A finales de 2025, se estima que se alcanzarán los 18.000 millones de unidades, frente a algo más de 8.000 millones de habitantes.

La televisión también cambió y se adaptó al mundo digital. Así, las emisiones vía satélite comenzaron a finales de la década de 1990. La British Sky Broadcasting Ltd. (BSkyB) británica, por ejemplo, arrancó en 1998. Es evidente que el paso a esta nueva señal significó que los televisores antiguos se quedaron obsoletos. Esta es otra característica de las revoluciones tecnológicas, que tienen innegables consecuencias en los correspondientes mercados e industrias. Las grabaciones musicales siguieron un camino parecido. En la década de 1980 el formato digital comenzó a sustituir al analógico y lo hizo con mucha rapidez.

Los CD relegaron a los viejos discos de vinilo y acabaron por convertirlos en objetos para coleccionistas (los casetes ni siquiera sirvieron para eso, dada su limitada durabilidad sin degradar el sonido). Otro tanto se podría decir de las películas de cine (DVD, siglas de Digital Versatile Disc) o de la fotografía. Por supuesto, también de la radio (los programas digitales se envían en forma de códigos numéricos, con la ventaja frente a la tecnología previa de que la señal no se ve afectada por edificios u otros obstáculos, por lo que el sonido es mejor).

El mundo, en definitiva, ha cambiado de manera sustancial con el invento del transistor, un «hijo» de la física cuántica.