El nanomundo en tus manos

El nanomundo en tus manos


5. Nanotecnologías para la sociedad de la información

Página 12 de 22

— 5 —

NANOTECNOLOGÍAS PARA LA SOCIEDAD DE LA INFORMACIÓN

La última pregunta se formuló por primera vez, medio en broma, el 21 de mayo de 2061, en momentos en que la humanidad (también por primera vez) se bañó en luz. La pregunta llegó como resultado de una apuesta por cinco dólares hecha entre dos hombres que bebían cerveza, y sucedió de esta manera:

Alexander Adell y Bertram Lupov eran dos de los fieles asistentes de Multivac. Dentro de las dimensiones de lo humano sabían qué era lo que pasaba detrás del rostro frío, parpadeante e intermitentemente luminoso —kilómetros y kilómetros de rostro— de la gigantesca computadora. Al menos tenían una vaga noción del plan general de circuitos y retransmisores que desde hacía mucho tiempo habían superado toda posibilidad de ser dominados por una sola persona.

Multivac se autoajustaba y autocorregía. Así tenía que ser, porque nada que fuera humano podía ajustarla y corregirla con la rapidez suficiente o siquiera con la eficacia suficiente. De manera que Adell y Lupov atendían al monstruoso gigante sólo en forma ligera y superficial, pero lo hacían tan bien como podría hacerlo cualquier otro hombre. La alimentaban con información, adaptaban las preguntas a sus necesidades y traducían las respuestas que aparecían. Por cierto, ellos, y todos los demás asistentes tenían pleno derecho a compartir la gloria de Multivac.

ISAAC ASIMOV, «La última pregunta», (1956), en La última pregunta y otros cuentos, Ediciones B, 1994.

5.1. Siglo XXI: la llegada del «homo digitalis»

No hace falta más que un pequeño recorrido en el metro de cualquier gran ciudad, o sentarse unos momentos en una cafetería, para comprobar que estamos rodeados de personas que continuamente utilizan el teléfono móvil o un pequeño ordenador para escuchar música, ver una película, editar algún texto, entretenerse con algún juego, comunicarse mediante rápidos mensajes, hacer fotografías, escribir sus impresiones sobre sucesos que acaban de ocurrir y que hacen llegar instantáneamente a sus amistades a través de las redes sociales, comprar las entradas de un espectáculo o consultar la última actualización de un periódico. Otras personas leen sus novelas favoritas en un «libro electrónico», escuchan los éxitos del momento con un reproductor de música o se entretienen de manera hipnótica jugando con una consola portátil. En nuestras empresas el computador personal (PC) o los potentes servidores se han convertido en herramientas fundamentales que permiten el diseño, producción y comercialización de bienes de consumo, y facilitan la comunicación interna, la redacción de informes, el contacto inmediato con clientes, la gestión de enormes bases de datos, la contabilidad de miles de facturas, el almacenamiento de impensables cantidades de documentos o la gestión de complejos proyectos. En nuestros hogares, en nuestros colegios, en los supermercados: allá donde miremos nos encontraremos seguramente con equipos electrónicos (hardware) y con códigos y programas (software) cada vez más versátiles.

En menos de medio siglo los seres humanos se han dotado de nuevas herramientas que facilitan las relaciones de todo tipo, profundizando en una de las características de esta especie: su necesidad de socializarse y comunicarse, y la capacidad para adaptarse a los cambios. El desarrollo de todas estas nuevas tecnologías de la información y de las comunicaciones (generalmente conocidas como TIC, por sus siglas) está aumentando a un ritmo frenético las posibilidades que se abren ante nuestros ojos. La mayor parte de los países se han aprovechado de este nuevo entorno tecnológico, siguiendo las tendencias marcadas por los más avanzados, y casi sin darnos cuenta nuestra civilización se ha hecho absolutamente dependiente de las TIC. Al igual que el control del fuego supuso un antes y un después para la historia de la humanidad, ya que dotó de seguridad y habitabilidad a los refugios, permitió la cocción de alimentos y la forja de diversos metales, se puede decir que la revolución experimentada en las TIC desde finales del siglo XX está suponiendo un salto de igual magnitud que tendrá consecuencias de difícil predicción. Ahora mismo estamos cabalgando sobre una ola sin que sepamos claramente hasta qué playa nos va a llevar. Algunas de esas consecuencias ya se han manifestado. Un ejemplo claro ha sido la globalización de la economía, que ha podido llevarse a cabo gracias a la existencia de potentes equipos informáticos y redes de comunicaciones que permiten la gestión de grandes volúmenes de información, realizar movimientos instantáneos de capital y acceder a proveedores de bienes y servicios ubicados en cualquier lugar del planeta. Muchas de las turbulencias económicas que están padeciendo países o regiones que fueron hegemónicas durante el siglo XX, como la vieja Europa o los Estados Unidos de Norteamérica, se deben en parte a las nuevas reglas del juego impuestas por la globalización, junto con la liberalización del comercio o la deslocalización de los centros productivos. Las mismas redes que favorecen nuevos modelos de negocio sirven para poner en marcha nuevos esquemas de interacción entre las personas como el representado por las redes sociales (que a su vez no dejan de ser otro tipo de negocio). Estas redes sociales están en su infancia y es muy difícil saber cómo evolucionarán y qué efectos provocarán en las sociedades dentro de un par de décadas o medio siglo, pero parece que pudieran llegar a ser un mecanismo para profundizar en la democratización de las mismas, siendo el contrapeso de una globalización basada en meros intereses económicos. Por otro lado, recientes acontecimientos muestran cómo las redes informáticas son un medio para conocer lo que las entidades hacen o las personas piensan, gracias a sofisticados sistemas de espionaje. Como siempre, nos encontramos ante la cara y la cruz de la ciencia y la tecnología.

Las TIC han servido para que todas las áreas convencionales de producción hayan experimentado una profunda revolución y para la implantación de nuevos servicios y nuevos modelos de negocio. Sin embargo debemos recordar que las TIC se basan en una tecnología capaz de generar, almacenar, procesar, transmitir y codificar todo tipo de datos, y que dichas acciones al fin y al cabo se realizan mediante el adecuado control de corrientes eléctricas, campos magnéticos o la propagación de ondas electromagnéticas, gracias a un profundo conocimiento de estos fenómenos físicos y de los materiales que están involucrados en dichos procesos. Cuando descargamos un archivo con un videoclip desde un remoto servidor recibimos grandes cantidades de datos a través de nuestra conexión inalámbrica, de cobre o de fibra óptica; dichos datos son almacenados en un disco duro fabricado con sofisticados materiales magnéticos o en una memoria de estado sólido, para posteriormente ser manipulados a gran velocidad mediante complejas operaciones algebraicas o lógicas gracias a los cientos de millones de transistores de un procesador. Finalmente los datos resultantes se muestran convertidos en imágenes sobre una pantalla ultradelgada formada por millones de diminutos píxeles. Este acto cotidiano era inimaginable hace varias décadas cuando procesadores, discos duros, fibras ópticas o pantallas planas sencillamente no existían salvo en la imaginación de algunos futurólogos.

Evidentemente si hablamos de materiales, corrientes eléctricas y campos magnéticos, la nanotecnología tiene mucho que decir al respecto, pues nos va a permitir controlar el flujo de datos y su procesamiento al nivel de la nanoescala. En realidad, el desarrollo actual de las TIC ha sido posible gracias a la microtecnología, primero, y la nanotecnología, más tarde, que han impulsado el proceso de miniaturización de componentes y dispositivos que encontramos en los equipos electrónicos. Las secciones siguientes narran esta historia, comenzada hace más de un siglo, plagada de descubrimientos y cambios de paradigmas, historia que continúa desarrollándose y de la que somos testigos y también protagonistas.

5.2. El nacimiento de la electrónica: del vacío a los semiconductores

A finales del siglo XIX ya se conocía que los átomos eran los constituyentes fundamentales de la materia, tal como la percibimos en nuestro entorno. A su vez, existían claros indicios que señalaban que los átomos estaban constituidos por otras partículas que, entre otras propiedades, eran las responsables de los fenómenos eléctricos observados en la naturaleza. A finales de la década de 1890, el físico J. J. Thomson descubrió los llamados «rayos catódicos» en una serie de experimentos sobre el transporte de la electricidad a través de gases de diverso tipo encerrados en ampollas de vidrio. Thomson determinó que dichos rayos estaban constituidos por partículas muy ligeras y que presentaban carga eléctrica negativa. Ahora sabemos que estas partículas, que se denominaron «electrones», son responsables de la mayoría de los fenómenos eléctricos y de la formación de los enlaces químicos que dan lugar a las diversas formas adoptadas por la materia, tal como hemos descrito en anteriores capítulos. El electrón era una pieza más que nos permitía entender el maravilloso puzle de la naturaleza. Este fantástico descubrimiento se apoyó en todo el conocimiento acumulado durante varios siglos sobre los fenómenos electromagnéticos, que quedaron unificados en el gran marco conceptual desarrollado por el físico escocés J. C. Maxwell. La importancia de los trabajos de Thomson fue reconocida mediante la concesión del Premio Nobel de Física en 1906.

La pequeña masa de los electrones resultó ser decisiva para sus aplicaciones tecnológicas, pues gracias a su ligereza pueden responder con facilidad a la presencia de campos eléctricos y magnéticos. De esta manera es posible provocar en los electrones movimientos rápidos de una forma controlada que es lo que conocemos como corriente eléctrica. La electricidad, que es como se denomina vulgarmente a la corriente eléctrica, se comenzó a usar a finales del siglo XIX tanto para transmitir información utilizando el telégrafo o el teléfono como para distribuir energía en las ciudades. Por si esto fuese poco, los electrones a su paso por un gas o un filamento del material adecuado (carbono, metales) provocaban su incandescencia, que podía ser aprovechada para la iluminación, tal como vislumbraron H. Davy, J. Swan y T. A. Edison. Desde ese momento la vida en nuestros hogares cambió para siempre. Además, la facilidad con la que los electrones pueden ser acelerados permite su utilización como emisores y receptores de ondas electromagnéticas que, convenientemente moduladas, sirven para codificar y enviar información a sitios remotos mediante el sistema que llamamos «radio». De este modo, utilizando estos conceptos, entre finales del siglo XIX y principios del siglo XX se desarrollaron un conjunto de técnicas con las que se podía controlar el movimiento de los electrones con el fin de transportar y almacenar energía, iluminar vías y viviendas, y transmitir información de manera casi instantánea entre puntos alejados. Había nacido la electrónica, el arte de dominar las corrientes de electrones. Además del papel relevante de la electricidad en la transmisión de información y la iluminación, no se debe olvidar su papel en el funcionamiento de decenas de artilugios mecánicos, mediante motores eléctricos, facilitando así muchas tareas en fábricas y hogares.

Durante sus inicios, la electrónica se desarrolló usando tanto metales como sistemas donde se había practicado el vacío para el transporte y control de los electrones. En 1906, el norteamericano L. De Forest se inspiró en el tubo de rayos catódicos para diseñar la primera válvula o tríodo de vacío (Figura 5.1). Este dispositivo posee tres terminales, de ahí su nombre, y permite controlar el flujo de electrones entre dos de estos terminales mediante el voltaje que se aplica en el tercer terminal. En realidad se trataba de un «grifo electrónico». El tríodo fue extensamente utilizado durante la primera mitad del siglo XX en la fabricación de emisores y receptores de radio, osciloscopios, radares, televisores e impresionantes máquinas para realizar cálculos. Toda la electrónica basada en tríodos y tubos de rayos catódicos se denomina «electrónica de vacío», ya que en estos dispositivos los electrones se desplazan dentro de un tubo sellado en el que se ha practicado el vacío, evitando las colisiones de los electrones con las moléculas del gas residual o que la ionización de éstas provoque descargas incontroladas.

Las primeras máquinas de calcular o computadoras totalmente electrónicas se basaron en el uso intensivo de estos tríodos. Estos «dinosaurios» de la computación se idearon con fines militares durante la Segunda Guerra Mundial para realizar complejos cálculos de las trayectorias de proyectiles o para el descifrado de los códigos empleados por los alemanes en sus máquinas ENIGMA. Las máquinas de la serie Colossus Mark II desarrolladas en Reino Unido en 1944 poseían 2400 tríodos. En EE.UU. se desarrolló la computadora ENIAC (siglas de la denominación inglesa Electronic Numerical Integrator and Calculator) que utilizaba más de 17 000 tríodos, pesaba casi treinta toneladas, consumía unos 150 kW y permitía realizar 300 multiplicaciones o 5000 sumas en un segundo, una altísima velocidad de procesamiento para la época. Un auténtico «dinosaurio» de la computación. Los computadores comerciales basados en tríodos aparecieron a finales de la década de los cuarenta y continuaron usándose hasta bien entrados los años sesenta, a pesar de ser bastante voluminosos y devorar mucha energía. Durante otros cuarenta años la electrónica de vacío mantuvo su vigencia en el mercado de los monitores y receptores de televisión, pero en la última década hemos asistido a su progresiva extinción de nuestras casas y oficinas. Ahora la electrónica de vacío tiene una cuota de mercado residual, empleándose en sofisticados amplificadores analógicos usados en grabación o reproducción musical, y en interruptores, relés y condensadores de equipos de alta tensión.

FIGURA 5.1. Partes de un tríodo de vacío. Adaptado de wikipedia <http://en.wikipedia.org/wiki/File:Triode_tube_schematic.svg>.

La electrónica de vacío presentaba serias limitaciones para poder incrementar la potencia de cálculo, ya que la mejora de sus prestaciones pasaba por acumular más y más tríodos, aumentando el tamaño de los equipos y derrochando más y más energía. Por si fuese poco los tríodos se estropeaban con bastante frecuencia, lo que limitaba el uso de los computadores de tríodos para realizar cálculos de larga duración. El paradigma de la electrónica sufrió una transformación en la segunda mitad del siglo XX a raíz del descubrimiento realizado en 1947 por parte de J. Bardeen, W. Brattain y W. Shockley en los Laboratorios Bell de EE.UU., quienes inventaron y patentaron el primer transistor de germanio, un material semiconductor. Los materiales semiconductores se comportan como aislantes eléctricos a bajas temperaturas y como metales conductores a altas temperaturas. Posteriormente desarrollaron distintos tipos de transistores usando otros materiales semiconductores como el silicio. En la Figura 5.2 se muestran diversos transistores en los que se aprecia que poseen tres terminales al igual que su hermano mayor, el tríodo. En los transistores los electrones viajan por un material sólido en lugar de un tubo vacío, realizando las mismas tareas que los tríodos de vacío pero requiriendo la aplicación de voltajes muy inferiores, lo que suponía un consumo energético mucho menor. Había nacido la electrónica de «estado sólido» en contraposición a la electrónica de vacío. Por la trascendencia de este hallazgo los tres descubridores del transistor recibieron en 1954 el Premio Nobel de Física.

FIGURA 5.2. Diversos modelos de transistores. Imagen obtenida de wikipedia. <http:// commons.wikimedia.org/wiki/ File:Transistorer_%28croped%29.jpg>.

Sin embargo, ni los investigadores ni los directivos de los Laboratorios Bell supieron vislumbrar el enorme potencial de aplicación de este descubrimiento y a principios de los años cincuenta concedieron la licencia de explotación de su patente a la empresa japonesa Tokyo Tsushin Kogyo KK, que se basó en este nuevo invento para construir un receptor de radio de bajo coste. Los transistores, condensadores y resistencias se agrupaban sobre una placa y eran conectados a través de pistas de cobre trazadas sobre la parte trasera de la misma placa: había nacido el «circuito impreso». Dicho receptor de radio, dirigido a las clases populares, tuvo una gran acogida y la empresa decidió expandirse, para lo que decidió modificar su nombre usando una identificación más comercial, SONY, derivado de la palabra «sonnus» (sonido en latín). Esta compañía se ha convertido en uno de los gigantes de la industria de la información con el paso del tiempo. Éste es un magnífico ejemplo de cómo la transferencia de tecnología depende de muchos factores que deben actuar de manera complementaria: no se trata sólo de hacer buena ciencia o tener buenas ideas que puedan plasmarse en una posible aplicación, sino que además hay que saberlas proteger mediante patentes y disponer de adecuadas estrategias de transferencia y comercialización de estos conocimientos.

5.3. La increíble historia del transistor menguante

La llegada del transistor supuso una revolución más profunda de lo que se podía prever ya que permitió explorar una estrategia: la miniaturización de los dispositivos electrónicos. Para aumentar la capacidad de procesamiento de la información necesitamos incorporar más elementos (resistencias, condensadores, transistores) en un circuito y la electrónica de estado sólido permite disminuir cada vez más el tamaño de estos elementos, compactando más el sistema, lo que acorta el recorrido de los electrones en su interior haciendo que se pueda procesar más información de manera más rápida. «Más pequeño» significa, en este caso, mayor rapidez y mayor capacidad. Una auténtica panacea: se puede aumentar la capacidad de procesamiento sin aumentar el tamaño del conjunto del equipo. Estas ideas permitieron diseñar nuevos circuitos impresos. Sin embargo, la complejidad de este tipo de circuitos impresos hizo que se buscase una alternativa. En 1958, J. Kilby, de la empresa Texas Instruments, y en 1959, R. Noyce, de la empresa Fairchild Camera and Instruments, demostraron que la solución era integrar todos los elementos que dan funcionalidad a un dispositivo sobre una oblea de silicio, usando sofisticadas técnicas de estampado sobre superficies, a las que se llamaron técnicas litográficas por su similitud con los procesos de impresión. Estos nuevos métodos involucran el uso de luz, máscaras, métodos de ataque químico y sustancias que actúan como reveladores. Con este conjunto de técnicas se perfilan sobre la superficie del silicio motivos que delimitan regiones ricas en electrones (regiones n), regiones pobres en electrones (regiones p), regiones aislantes de óxido de silicio (que constituyen barreras para el paso de las cargas) y otras regiones sobre las que se depositan metales que permiten hacer buenos contactos o proporcionan otras propiedades adicionales al transistor o condensador. El resultado es una arquitectura compleja que se conoce como circuito integrado o «chip». A partir de esos momentos, el silicio fue el material sobre el que se asentó la poderosa industria de la electrónica. La elección del silicio no fue baladí: posee unas propiedades electrónicas aceptables a la vez que es relativamente barato por ser muy abundante en la corteza terrestre. Por este revolucionario planteamiento J. Kilby recibió el Premio Nobel de Física en el año 2000.

Es interesante mencionar que el nacimiento de los primeros circuitos integrados formados con elementos de tamaño milimétrico se producía aproximadamente en el mismo momento en el que R. Feynman realizaba sus asombrosas predicciones de lo que posteriormente sería la nanotecnología. Desde principios de los años sesenta se inició una vertiginosa carrera por empaquetar el mayor número de componentes electrónicos en los chips, con la finalidad de proporcionar más prestaciones al sistema final (receptores de radio o TV, calculadoras, computadores, tarjetas para controlar procesos, sistemas sensores, etc.). Para poder reducir más y más el tamaño de los transistores, condensadores y resistencias, se han ido desarrollando técnicas muy sofisticadas como la litografía óptica que trabaja con radiación ultravioleta (UV), el crecimiento epitaxial mediante haces moleculares (MBE) o la litografía electrónica de las que ya hemos hablado en el Capítulo 3. El número de transistores que es posible incorporar por unidad de superficie se ha duplicado aproximadamente cada año y medio, tal como fue pronosticado en 1965 por G. Moore, cofundador de la empresa Intel, en la ley empírica que lleva su nombre y que se ilustra en la Figura 5.3.

FIGURA 5.3. Evolución del número de transistores por procesador. El comportamiento exponencial observado, enfatizado mediante la línea discontinua, se conoce como la Ley de Moore.

Los transistores que se comercializan en la actualidad están fabricados principalmente con la llamada tecnología MOSFET (siglas del término inglés Metal Oxide Semiconductor Field Effect Transistor). Un transistor MOSFET posee una región llamada «canal» por la que transita la carga eléctrica desde un electrodo denominado «fuente» a otro denominado «drenaje». La longitud de dicho canal indica la generación tecnológica a la que el transistor pertenece. La Figura 5.4 muestra el esquema de uno de estos transistores. En el año 2004, Intel fabricó los primeros procesadores con transistores con 90 nm de longitud de canal. Si consideramos por bueno el argumento de que la nanotecnología tiene sus dominios por debajo de los 100 nm, ya en la nanoescala, se puede decir que la «nanoelectrónica» basada en el silicio ya lleva casi una década con nosotros. Todos los dispositivos que nos facilitan nuestra vida cotidiana y aumentan nuestra capacidad de interacción ya son «hijos de la nanotecnología». Lo más llamativo es que el ritmo de miniaturización ha podido mantenerse durante medio siglo a pesar de los múltiples problemas de índole tecnológica, nada fáciles de resolver, que han surgido en el camino. Por poner un ejemplo de lo sucedido en los últimos años podemos mencionar que en 2007 se implantó la tecnología de 45 nm, en 2009 aparecieron los transistores de la generación de los 32 nm, que es la que ahora usamos de forma mayoritaria hasta que el mercado se inunde de procesadores basados en transistores de 22 nm, que comenzaron a fabricarse por Intel a finales del año 2011. Para hacernos una idea de lo que esta tecnología representa, solo basta mencionar que con ella se pueden empaquetar unos 10 millones de transistores en el espacio que ocupa el punto con el que esta frase termina. Nos encontramos, sin duda alguna, ante una de las obras cumbre del ingenio humano.

Cada avance en la miniaturización ha supuesto la superación de muchos retos tecnológicos mediante la adecuada elección y combinación de materiales, modificaciones en el diseño de la arquitectura del chip y avances en las herramientas de fabricación. Un ejemplo de estos avances lo encontramos en la espectacular mejora en las técnicas de litografía. Por ejemplo se puede utilizar luz de 193 nm para dibujar patrones de 30 nm gracias a las ideas del matemático e ingeniero T. Kailath, que recibió el Premio Fronteras del Conocimiento 2010 de la Fundación BBVA. Se sabe que el límite de la litografía óptica está impuesto por el principio de Rayleigh que, de forma resumida, afirma que no se pueden distinguir dos objetos, por ejemplo dos líneas, separadas menos que la mitad de la longitud de onda de la luz con la que los queremos observar. De esta manera usando una luz láser de 193 nm en los procesos litográficos sólo podríamos dibujar motivos separados unos 100 nm. Una opción para escribir motivos de tamaño nanométrico consiste en usar tecnología llamada «ultravioleta extremo» (EUV) pero resulta muy cara. La solución que propuso Kailath se basa en el uso de la teoría del procesamiento de señales que demuestran que uno puede ir más allá del límite impuesto por el principio de Rayleigh. Si se quiere distinguir dos líneas separadas menos de la mitad de la longitud de onda, esto se puede lograr desfasando de manera adecuada la luz que es emitida por una de las dos líneas. Esta idea, extendida a patrones y diseños mucho más complejos, es la que está detrás de las nuevas técnicas litográficas que permiten dibujar motivos de unas pocas decenas de nanómetros sobre una superficie.

FIGURA 5.4. Esquema de un transistor MOSFET. La longitud del canal que conecta el terminal fuente con el terminal drenaje da nombre a la tecnología de fabricación: 90 nm, 45 nm, 32 nm, 22 nm, etc.

Otro ejemplo de los cambios en el diseño lo encontramos en la nueva generación de transistores de 22 nm que poseen una arquitectura tridimensional (3D), abandonando la típica configuración plana o 2D. Esta nueva arquitectura permitirá reducir el consumo energético de los dispositivos, uno de los temas clave para la industria de la electrónica, pero ha aumentado considerablemente la dificultad del diseño y fabricación de los procesadores. Sin embargo, a pesar de las dificultades iniciales, la implementación de las tecnologías de fabricación 3D abre una nueva senda en las estrategias de fabricación que conducirá al aumento de las capacidades y prestaciones de nuestros equipos electrónicos.

Para hacernos una idea acerca de la potencia de los procesadores que ahora se comercializan tomemos como ejemplo el procesador Intel Xeon E5 2687W que se basa aún en la «vieja» tecnología de 32 nm. Este procesador ocupa menos de 440 mm2, tiene 8 núcleos con un total de 2270 millones de transistores que pueden funcionar a una frecuencia máxima de 3,8 GHz, con un consumo de 150 W. Estos números le permiten alcanzar una velocidad teórica máxima de casi 400 GFlop/s. Por cierto, un «Flop/s» es una unidad de medida del rendimiento de un computador que se refiere a una operación de «coma flotante» por segundo, entendiendo una operación de coma flotante como aquella que involucra números con una cierta cantidad de decimales. Si comparamos este procesador con el computador ENIAC, un auténtico dinosaurio que operaba a 500 Flop/s, vemos que el tamaño se ha reducido varios millones de veces a la vez que la potencia de cálculo se ha incrementado un factor de casi mil millones. Todo ello con mil veces menos de consumo energético. Sin embargo, los números que resultan más llamativos tienen que ver con el coste de un transistor. Por ejemplo, a finales de los años sesenta un transistor tenía un coste aproximado de un dólar. Por ese mismo dólar, en los años ochenta se obtenían mil transistores de un circuito integrado, en el año 2000, casi un millón de transistores, y hoy en día se consiguen unos cien millones de transistores. En realidad, el «milagro» de la electrónica se ha basado en la reducción espectacular de los costes de los componentes que ha permitido que el precio de un equipo informático se mantenga más o menos constante a lo largo del tiempo, siguiendo una ley empírica propuesta por B. Machrone en 1984. Todas estas cifras ayudan a entender la impresionante revolución que está ocurriendo en nuestra economía y nuestra sociedad: los sistemas electrónicos que nos ayudan en nuestra actividad cotidiana nos ofrecen cada vez más prestaciones, pagando menos por ello.

5.4. Más pequeño, más datos

Hasta ahora hemos descrito la evolución de la microelectrónica basada en el silicio y su conversión en la nanoelectrónica, pero estos cambios también han sido evidentes en otros dispositivos como memorias, discos duros, pantallas, cámaras, etc. El ritmo al que la capacidad de almacenamiento de datos ha crecido es impresionante. A mediados de los años ochenta los primeros computadores personales (PC) incluían un disco duro de 20 a 40 MB (megabytes) y por aquel entonces se utilizaban disquetes flexibles de 128 kB (kilobytes). Recordemos que un byte es una unidad de información que equivale, por lo general, a 8 bits, y que un bit es la unidad mínima de información que puede tomar los valores 0 o 1 en un sistema binario. En términos actuales, ¡un disco duro de aquel momento podría almacenar entre seis y doce canciones en formato mp3! Hoy en día, un PC de sobremesa incluye un disco duro de más de 2 TB (terabytes). Un cálculo simple revela que los discos duros han aumentado su capacidad de almacenamiento en un factor 100 000 en veinticinco años, en tan sólo una generación de nuestra especie.

La capacidad de almacenamiento de los discos duros ha crecido espectacularmente gracias a la aplicación de tecnologías basadas en sorprendentes fenómenos físicos. Un claro ejemplo es el uso de cabezas lectoras de bits magnéticos, basadas en el fenómeno de la magnetorresistencia gigante (GMR), descubierto en 1988 por A. Fert y P. Grünberg. En el año 1997, los primeros discos duros con este tipo de cabeza lectora salieron al mercado, diez años después los dos investigadores recibieron el Premio Nobel de Física. Éste es un claro ejemplo de una transferencia rápida de un conocimiento básico al mercado y de la generación de pingües beneficios.

Además de los sistemas de almacenamiento de datos basados en materiales magnéticos, en los últimos quince años han emergido con fuerza los dispositivos de almacenamiento de estado sólido. Un ejemplo muy extendido en nuestra vida cotidiana lo encontramos en los dispositivos de tipo pendrive que utilizamos para almacenar y transferir datos. Algunos de estos dispositivos tienen una superficie de unos 2 cm2 y llegan a almacenar 128 GB. Un simple cálculo nos muestra que en estos dispositivos un bit tiene una superficie similar a la que ocuparía un cuadrado de 40 nm de lado. Por lo tanto es evidente que la nanotecnología está impulsando el desarrollo de nuevos sistemas de almacenamiento de datos que tienen aún un largo recorrido por delante. Pensemos, por ejemplo, que el desarrollo de bits que tuviesen un tamaño de 4 nm de lado permitiría la fabricación de dispositivos de más de 6 TB, capaces de almacenar más de 2000 horas de películas o ¡más de diez años consecutivos de música!

El espectacular crecimiento que se está observando en la densidad de almacenamiento de datos sigue la denominada Ley de Kryder, en honor a M. Kryder, un ingeniero norteamericano que en un artículo publicado en 2005 en la revista Scientific American propuso una ley de crecimiento más rápida que la Ley de Moore para describir el crecimiento del almacenamiento en los discos duros. Esta ley dice que en los próximos treinta años veremos cómo se multiplica por cinco la capacidad de almacenamiento cada diez años. De esta forma en 2015 tendremos discos que serán capaces de mantener 1 TB por centímetro cuadrado, en 2025 se llegará a los 5 TB/cm2, en 2035 a los 25 TB/cm2, etc. Este rápido aumento de la capacidad de los discos duros ha traído consigo un considerable abaratamiento del almacenamiento de datos hasta el punto que es posible conseguir varios GB gratuitos en muchos proveedores de servicios en Internet. ¿Quién iba a imaginar todo esto hace veinte años?

La nanoelectrónica ha seguido acelerando la invasión de procesadores y discos duros, y ha irrumpido con fuerza en otros sectores, como el de las pantallas planas. En los últimos quince años hemos asistido a una evolución permanente de las pantallas tras la decadencia y extinción de los monitores basados en tubos de rayos catódicos, surgiendo las pantallas de plasma, TFT (del inglés, Thin Film Transistor), LCD (Liquid Crystal Display), para llegar a las basadas en dispositivos LED, denominadas así por el uso de diodos semiconductores emisores de luz o LEDs (Light-Emitting Diode). Aunque los diodos LED se inventaron en los años sesenta, ha sido recientemente cuando se ha podido dominar la emisión de una amplia gama de colores con alta intensidad gracias a la adecuada selección de los materiales semiconductores como el arseniuro de galio y aluminio (AlGaAs), o el arseniuro fosfuro de galio (GaAsP) entre muchos otros. El control necesario para la fabricación e integración de estos LED se alcanza con técnicas prácticamente idénticas a las empleadas en la fabricación de procesadores, utilizando los conocimientos proporcionados por la nanotecnología. Por cierto, los dispositivos LED también han revolucionado el sector de la iluminación debido a su menor consumo con respecto de las bombillas incandescentes basadas en tecnologías fundamentadas hace más de un siglo. En el año 2007, el gobierno de EE.UU. promulgó una ley que ponía fin a la fabricación y al uso de las bombillas incandescentes en el año 2011, aunque posteriormente se amplió un año más este periodo. Ese mismo año una norma similar entró en vigor en la Unión Europea. De esta forma, las bombillas incandescentes pasaban a ser parte de nuestra historia tras más de un siglo de iluminar nuestras vidas, que a partir de ahora serán iluminadas por la nanotecnología.

5.5. ¿El fin de la nanoelectrónica del silicio?

Con los argumentos y ejemplos expuestos hasta ahora debe quedar claro que la posibilidad de hacer las cosas más pequeñas y con una gran precisión, esencia última de la nanotecnología, ha sido un elemento consustancial de la microelectrónica durante medio siglo, hasta llegar a convertirse en la nanoelectrónica. En este viaje, la irrupción de la nanoelectrónica basada en semiconductores, fundamentalmente silicio, ha permitido mejorar los dispositivos electrónicos a la vez que se mantenían los costes de los productos o servicios finales. Por ejemplo, la resolución de una cámara digital (en cuanto a número de píxeles) se duplica cada dieciocho meses aunque su precio se mantiene constante (esto se conoce como Ley de Hendys). La rápida evolución de la electrónica también es responsable de que cada nueve meses la capacidad de las fibras ópticas se duplique (a lo que se denomina Ley de Butters) o de que la velocidad de acceso a Internet se duplique cada veintiún meses (a lo que se denomina Ley de Nielsen). Este fulgurante avance ha permitido que toda nuestra sociedad actual, la de la información, pivote en torno al uso intensivo de multitud de dispositivos electrónicos que nos permiten acceder rápidamente a todo tipo de datos, realizar complejos cálculos o sofisticadas presentaciones gráficas, jugar con nuestros amigos online, y todo ello con menos consumo y una mayor portabilidad, abriendo nuevas formas de trabajo, de aprendizaje, de ocio y de relación personal. También sabemos que no todo es positivo, ya que estas tecnologías generan adicciones y han dado lugar a nuevas formas de crimen (ciberacoso, estafas, ciberataques, espionaje), pero de esto no tienen la culpa ni los semiconductores, ni los electrones, ni la litografía electrónica. Como ocurre con cualquier tecnología, su uso siempre manifiesta dos caras y ya veremos más adelante que la propia nanotecnología no escapa a esta dualidad.

La fabricación de componentes electrónicos basados en el uso del silicio ha alcanzado un refinamiento sin precedentes en la historia de la humanidad. En realidad se habla de la tecnología del silicio, pero hay que mencionar que al menos un par de decenas de elementos químicos (aluminio, oxígeno, nitrógeno, fósforo, cobre, hafnio, etc.) forman parte, en menor medida, de los dispositivos electrónicos. Como se ha mencionado antes, para llegar a este grado de sofisticación en el diseño y fabricación de los chips, se han ido superando barreras tecnológicas que han permitido mantener el ritmo de miniaturización. A finales de los años noventa se pronosticaba que no se podría bajar de los 180 nm (referidos al tamaño del canal de un transistor). Sin embargo, la incorporación de nuevos materiales como cobre o hafnio, el desarrollo de nuevas estrategias litográficas o la llegada de las arquitecturas 3D han permitido que la tecnología del silicio se mantenga viva, como demuestra el cumplimiento de la Ley de Moore. Sin embargo, sabemos a ciencia cierta que estas tecnologías tarde o temprano tendrán un estancamiento y posterior declive.

En la Figura 5.5 se muestran tres típicas curvas en «S» que describen las fases que tienen lugar en cualquier innovación. En este caso se aplican a la evolución de la electrónica de vacío, la electrónica de estado sólido basada en silicio y la electrónica «postsilicio». En cada uno de los casos siempre tiene lugar una fase inicial exploratoria, concentrada en los laboratorios y la creación de demostradores, en la que se produce una lenta irrupción de una nueva tecnología. Posteriormente sigue una fase de ascenso explosivo en la que la nueva tecnología desplaza a las otras tecnologías más obsoletas. Cuando la tecnología es ampliamente validada y se ha mejorado tras su interacción con el mercado, entonces es adoptada rápidamente por una gran cantidad de empresas que realizan mejoras sustanciales para proporcionar el mayor valor añadido posible en su sector de aplicación. En un momento dado la tecnología alcanza su madurez, las mejoras son meramente incrementales y el ritmo con el que se introducen se va ralentizando, comenzando una etapa de saturación. Se puede decir que el conjunto de técnicas y métodos que están detrás de las tecnologías del silicio están en su fase de madurez, pero las propias empresas fabricantes de semiconductores y dispositivos derivados ya vislumbran la entrada en la fase de saturación, en la que parece que los conocimientos y técnicas acumulados no podrán resolver ciertos problemas.

FIGURA 5.5. Curvas «S» de la innovación para la electrónica de vacío, la actual electrónica basada en el silicio y la electrónica basada en las nanotecnologías que no emplearán el silicio.

¿Qué problemas aquejan a la potente industria de la nanoelectrónica en estos inicios del siglo XXI? Hay varios puntos problemáticos que vamos a repasar brevemente. En primer lugar podemos mencionar el problema de la gran disipación de calor que un procesador produce. Si lo pensamos detenidamente, un procesador con unos pocos centímetros cuadrados de superficie y que requiere 150 W de potencia (que se manifiesta finalmente en el calor que hay que disipar) es bastante similar, desde el punto de vista del calentamiento, a una placa vitrocerámica de igual superficie. Otro problema que se presentará con más frecuencia a medida que se diseñen componentes más pequeños y que estén más próximos entre sí, es el de las pérdidas de corriente debidas a los saltos de los electrones de un componente a otro. Los electrones de un dispositivo pueden adquirir energía suficiente para poder traspasar barreras mediante efecto túnel (efecto propio de la mecánica cuántica y en el que se basan los microscopios descritos en el Capítulo 3). Por culpa de estas pérdidas los componentes dejarían de funcionar de la forma para la que fueron diseñados. Otro problema que se hace patente a medida que los sistemas se hacen más pequeños y están más cercanos los unos a los otros es que las acumulaciones de carga que aparecen en un componente pueden influenciar el comportamiento de los componentes vecinos haciendo que su funcionamiento no sea el planificado (a esto se le llama «acoplamiento capacitivo»). Por otro lado, la necesidad de trazar mediante técnicas fotolitográficas motivos nanométricos usando luz de longitud de onda más y más pequeña presenta cada vez más y más dificultades que no sólo tienen que ver con las limitaciones ópticas del haz de luz, sino con las fotorresinas empleadas o la complejidad de combinar muchas técnicas sobre intrincados diseños 3D.

Otro aspecto que hay que mencionar tiene que ver con el dopado del silicio. Para mejorar las propiedades conductoras del silicio es necesario dopar o contaminar el silicio puro con otros elementos químicos (llamados dopantes) que proporcionan electrones o «huecos» adicionales. Un hueco es un tipo especial de portador de carga positiva que en realidad representa la ausencia de una carga negativa. De esta forma se logran semiconductores de «tipo n» (con elementos dopantes como el fósforo o el arsénico que proporcionan electrones) y de «tipo p» (con dopantes como el galio o el boro que proporcionan huecos). La densidad típica de los elementos dopantes es de 1013-1018 átomos por cada cm3 del material anfitrión. Es fácil intuir que a medida que los transistores de silicio tengan partes más y más pequeñas van a ocurrir dos cosas. Cuando el tamaño típico de un bloque de silicio dopado es inferior a los 50 nm es muy difícil controlar que su dopado sea homogéneo (es decir, que los átomos dopantes se repartan por igual en el silicio). Por otro lado, cuando un componente posea regiones de silicio dopado con tamaños inferiores a los 10 nm nos encontraremos con serias dificultades para encontrar átomos dopantes y portadores de carga disponibles. En este último caso, si no hay electrones ni huecos es evidente que ya no tiene sentido hablar de dispositivos electrónicos puesto que ¡no hay electrones que transportar!

La falta de portadores de carga no es el único motivo que puede conducir a la etapa de saturación de la industria nanoelectrónica basada en el silicio. Hay otros, como los relacionados con los costes de producción. Cada vez que se quiere incluir en la cadena de producción una serie de mejoras tecnológicas con la que lograr una nueva línea de productos basados en transistores de menor tamaño, se requiere una gigantesca inversión tanto en investigación básica como en la puesta a punto de las técnicas y herramientas de fabricación en masa. Por ejemplo, Intel invirtió 10 000 millones de dólares durante 2012-2013 para la puesta en marcha de un gran complejo de producción, llamado FAB 42 y situado en Arizona (EE.UU.), con el que inundará el mercado de sus nuevos chips basados en la nanotecnología de 22 nm. Por supuesto, recuperar la inversión y tener ganancias implica que hay que producir y vender muchos cientos de millones de procesadores y memorias. Mientras no se obtenga un claro rendimiento de las inversiones efectuadas para construir las fábricas que permiten poner en mercado una cierta tecnología, difícilmente se pondrán en marcha las nuevas plantas que fabriquen componentes de los procesadores de menor tamaño. Por tanto existen unas limitaciones económicas a la Ley de Moore.

También debe mencionarse otro aspecto que incide en los costes de fabricación de los dispositivos electrónicos: la necesidad de usar materiales de altas prestaciones pero que en ocasiones son muy escasos. Un ejemplo lo encontramos en el tantalio, elemento estratégico que tiene muchas aplicaciones entre las que destaca su uso en la fabricación de condensadores en dispositivos electrónicos. El tantalio se extrae fundamentalmente del coltán que es una combinación de dos minerales, la columbita (óxido de niobio con hierro y manganeso) y la tantalita (óxido de tantalio con hierro y manganeso). Sin embargo las reservas de coltán se encuentran principalmente concentradas en la República Democrática del Congo, país que sufre un grave conflicto bélico avivado por el control de la explotación de este mineral. Por esta razón la industria electrónica intenta buscar alternativas para el uso de materiales escasos y costosos.

Varios estudios recientemente elaborados por las asociaciones que reúnen a las principales empresas de electrónica, prevén que la tecnología del silicio podrá seguir siendo utilizada hasta el año 2020, lográndose entonces unas densidades de empaquetamiento cercanas a los 250 000 millones de transistores por chip, ¡125 veces mayores que las que encontramos en los procesadores actuales! ¿Qué ocurrirá después del año 2020? Aunque no disponemos de una bola de cristal con la que realizar esta predicción, la industria de la electrónica propone tres rutas alternativas que permitan mantener su negocio más allá de esa fecha.

La primera estrategia consiste en profundizar aún más en las tecnologías basadas en el silicio, exprimiéndolas al máximo, llevando a sus límites las metodologías de tipo CMOS (del inglés, Complementary Metal Oxide Semiconductor), llamadas así porque combinan materiales semiconductores y óxidos metálicos. Esto se lograría gracias a la incorporación de nuevos materiales de alta constante dieléctrica, arriesgados diseños 3D en los transistores, procesadores con cientos o miles de núcleos de computación, o revolucionando los métodos litográficos mediante propuestas como la litografía por nanoimpresión (nanoimprinting) en las que se utilizan moldes con motivos nanométricos para «estampar» los circuitos. Esta estrategia se denomina usualmente «More Moore» («más Moore»). La tecnología de 22 nm que va a llegar a nuestros equipos electrónicos y computadores personales en los próximos años es resultado de esta estrategia, donde los avances son incrementales, es decir dando pequeños pasos en la misma dirección.

Otra alternativa consiste en aprovechar todos los conocimientos técnicos adquiridos para el desarrollo de la nanoelectrónica basada en el silicio con el fin de fabricar otro tipo de dispositivos con incidencia en otros sectores. Esta estrategia se denomina «More than Moore» («más que Moore») y se dirige a la fabricación de transductores (sistemas que convierten una señal luminosa o mecánica en otra eléctrica) para ser utilizados en pantallas táctiles, nanodispositivos electromecánicos (denominados NEMS) que permitan fabricar nanosistemas móviles, biosensores, micro y nanoarrays o dispositivos lab-on-a-chip que son auténticos laboratorios en miniatura donde se realizan experimentos biológicos. Estos nuevos sistemas ya se mencionan en otros capítulos y tienen gran interés en automoción, seguridad, biotecnología, medicina, telefonía móvil, energía fotovoltaica, etc.

Finalmente, la tercera vía es la más disruptiva, pues propone el abandono del silicio como «alma máter» de la electrónica y la búsqueda de otros materiales con los que desarrollar una electrónica radicalmente nueva. Esta aproximación se conoce como «Beyond Moore» («Más allá de Moore») y su curva «S» de la innovación también se muestra en la Figura 5.5. Más adelante hablaremos de los materiales que serán la base de la electrónica sin silicio, pero antes, en la próxima sección, vamos a describir algunas de las características que presenta el transporte electrónico en estos materiales, para entender las ventajas y dificultades que tendrá este salto tecnológico.

5.6. El movimiento de los electrones en la nanoescala

La posible revolución en la nanoelectrónica tendrá como protagonistas a algunos de los «nanobjetos» que hemos descrito en capítulos anteriores. Sin embargo, el transporte electrónico en estos nanobjetos presenta unas propiedades que debemos conocer y dominar antes de pensar en su aplicación en dispositivos. Como hemos visto anteriormente, los efectos de tamaño son responsables del cambio de muchas propiedades físicas y químicas a medida que el tamaño de los objetos disminuye. La manera en la que se mueven los electrones en un material tampoco es una excepción y los nanobjetos muestran interesantes efectos de tamaño en sus propiedades eléctricas.

Ir a la siguiente página

Report Page