El nanomundo en tus manos

El nanomundo en tus manos


5. Nanotecnologías para la sociedad de la información

Página 13 de 22

En un cable metálico convencional, como el hilo de cobre que se usa en una instalación eléctrica, los electrones se mueven cuando aplicamos una diferencia de potencial, o voltaje, V, entre sus extremos usando una batería. La presencia de una fuerza, de origen eléctrico en este caso, provoca la aceleración de los electrones con el consiguiente aumento de velocidad. Sin embargo, este incremento de velocidad se ve truncado porque los electrones experimentan colisiones en las que pierden energía que se cede al material. Se dice que estas colisiones son de tipo inelástico. La energía cedida al material causa su calentamiento que es lo suficientemente intenso como para provocar su incandescencia, que es lo que le ocurre precisamente al filamento de las bombillas que se van a dejar de fabricar. Tras la colisión, el electrón que ha perdido su energía vuelve a acelerarse por acción del campo eléctrico hasta que sufre una nueva colisión, cediendo otra vez la energía al material. A nuestra escala, un cable transporta la corriente eléctrica de una manera continua, como fluye el agua en un río, pero si observásemos el transporte electrónico en la nanoescala comprobaríamos que los electrones tienen una vida bastante agitada, con continuas aceleraciones y colisiones.

Aunque parezca sorprendente los electrones no colisionan directamente con los átomos que forman el material en el que se mueven sino con los defectos e impurezas presentes en el mismo y, fundamentalmente, con los átomos que se han desplazado ligeramente de sus posiciones de equilibrio. Expliquemos esto último con un poco más de detalle.

En realidad un electrón puede propagarse fácilmente por una red de átomos si éstos muestran una estructura perfectamente periódica y ordenada, lo que se llama una red cristalina. En este caso, la periodicidad da lugar a un conjunto de niveles de energía que forman regiones o bandas permitidas de energía. Dichas bandas de energía permitidas son las que el electrón usa para desplazarse sin coste alguno. Por otro lado, al electrón le es imposible desplazarse con ciertas energías (las llamadas bandas prohibidas de energía). La existencia de bandas permitidas y prohibidas es un hecho que no debe sorprendernos ya que, por ejemplo, en un átomo sabemos que hay ciertos valores de energía que están permitidos (los llamados niveles de energía) y hay conjuntos de valores de la energía que no son accesibles. La aparición de bandas o niveles permitidos y prohibidos corresponde a situaciones de interferencia constructiva y destructiva, respectivamente, pues no olvidemos que el electrón tiene carácter ondulatorio y sigue las reglas de la mecánica cuántica. Sin embargo la red cristalina por la que se mueven los electrones no es perfectamente periódica y ordenada, ya que los átomos del metal se mueven, por lo general, siguiendo unas oscilaciones colectivas parecidas a las que podríamos observar en un conjunto de esferas enganchadas unas a otras mediante muelles. Dichas vibraciones, que son las responsables de la propagación del sonido en los materiales, se llaman fonones, palabra que deriva del término griego «fonós» que significa sonido o voz. En presencia de estas oscilaciones, la estructura cristalina deja de serlo y se distorsiona un poco, haciendo que los niveles electrónicos se modifiquen continuamente provocando cambios en la energía y en la dirección de propagación de los electrones. Es decir, causando colisiones que impiden la propagación libre de los electrones a través de la estructura cristalina, dando lugar a una ralentización del movimiento del conjunto de los electrones.

Esta oposición al movimiento electrónico es lo que en la práctica se denomina resistencia eléctrica, R, y es una propiedad característica de cada material. La relación entre la intensidad de corriente I que circula por el cable y el voltaje aplicado V se denomina Ley de Ohm y se expresa con la familiar fórmula V= I × R que muchos recuerdan de su educación secundaria. Cuando la temperatura del material aumenta, la energía cinética de los átomos también lo hace, provocando que éstos oscilen con una mayor amplitud, causando distorsiones mayores en la red cristalina y, por lo tanto, un aumento en el número de colisiones electrónicas. Como resultado del aumento de temperatura la resistencia crece, siendo éste un comportamiento característico de los materiales metálicos.

En un cable como los que se usan en aparatos eléctricos convencionales hay trillones de electrones moviéndose en una alocada secuencia de colisiones y posteriores aceleraciones. Para caracterizar el movimiento de los electrones se suele utilizar una magnitud estadística denominada «recorrido libre medio inelástico», que se define como la distancia promedio que una partícula recorre entre dos colisiones consecutivas. Por ejemplo, en un hilo de cobre a temperatura ambiente (T=300K), el recorrido libre medio inelástico es de unos 39 nm. Es decir, típicamente el electrón sufre decenas de miles de colisiones para recorrer tan sólo un milímetro. Cuando la temperatura baja, las oscilaciones de los átomos son menores y la probabilidad de colisión decrece, por lo que el recorrido libre medio aumenta. Por ejemplo, si la temperatura del anterior hilo de cobre fuese 10 K (aproximadamente −263 °C) el recorrido libre medio aumentaría hasta casi 4 μm. Es decir, a muy bajas temperaturas, el electrón viaja grandes distancias sin impedimentos. Ésta es una de las razones por las que hay muchos físicos realizando experimentos en sistemas a bajas temperaturas, evitando las molestas perturbaciones ocasionadas por las vibraciones atómicas.

Bien, ya sabemos lo que ocurre en un cable macroscópico, pero ¿qué ocurriría si nuestro cable tuviese unas dimensiones nanométricas? Supongamos, por ejemplo, que tenemos un equipo capaz de fabricar un nanocable de 20 nm de diámetro y 30 nm de longitud a temperatura ambiente, y luego otro equipo capaz de medir la resistencia de este diminuto cable a temperatura ambiente. Como su tamaño es inferior al recorrido libre medio de los electrones, es muy probable que los electrones lo atraviesen sin experimentar colisiones. Pero, si los electrones no sufren colisiones ¿tiene sentido hablar de resistencia tal como se recoge en la Ley de Ohm? Evidentemente no, lo que quiere decir que esta ley que usamos habitualmente para entender cómo funcionan los circuitos eléctricos no es adecuada para explicar el transporte de electrones en la nanoescala. Dado que no hay resistencia óhmica, el transporte deja de ser óhmico y ahora se denomina balístico. En este caso sigue existiendo cierta oposición al movimiento de los electrones pero ahora está causada por las colisiones con los defectos que hay presentes en el sistema en lugar de con los átomos que se desplazan ligeramente de su posición. Ejemplos de defectos son las denominadas «vacantes» (falta de un átomo del lugar en el que tendría que estar) o las impurezas de otro elemento químico. Otra fuente de resistencia al paso de los electrones es la presencia de las superficies que limitan el nanocable ya que pueden entenderse como un gran «defecto» o un defecto extendido. En conjunto, las colisiones de los electrones con todos estos defectos del material dan lugar a una «resistencia balística». Un aspecto importante del transporte balístico es que durante el movimiento electrónico se reduce considerablemente la disipación de calor en comparación con el transporte óhmico, por lo que se abre una puerta para diseñar y fabricar dispositivos electrónicos más eficientes. El esquema mostrado en la Figura 5.6 ilustra la diferencia entre el comportamiento óhmico y balístico.

Hasta ahora hemos visto que cuando se trabaja en el nanomundo necesitamos cambiar de modelo teórico para explicar el transporte eléctrico. Lo «nano» vuelve a ser diferente. El transporte electrónico a través de estos pequeños hilos o cables no sólo presenta interesantes efectos balísticos sino que también está sometido a efectos cuánticos. La forma en que un nanohilo transporta la corriente se hace más complicada a medida que su diámetro decrece pues el movimiento de los electrones se ve afectado por su confinamiento en la dirección perpendicular al eje del hilo. La mecánica cuántica predice que cuando tenemos una partícula confinada en lo que llamamos un pozo de potencial (en nuestro caso el nanohilo), la energía de esta partícula sólo puede tomar un conjunto de valores discretos denominados niveles de energía permitidos. Estos niveles de energía se dan, por ejemplo, en los átomos, como ya hemos mencionado anteriormente. En el caso de hilos muy estrechos, el confinamiento hace que únicamente unos cuantos niveles estén disponibles para el transporte electrónico. A dichos niveles también se les llama «canales» de transporte electrónico. El físico R. Landauer formuló la teoría del transporte electrónico en estos sistemas y proporcionó la fórmula alternativa a la Ley de Ohm para el transporte electrónico. En este modelo, la resistencia de un nanohilo cuántico depende de forma directa de las probabilidades de transmisión asociadas a los canales disponibles para el transporte electrónico. Si los canales tienen probabilidades de transmisión pequeñas, entonces la resistencia será grande. Si los canales poseen probabilidades de transmisión grandes entonces el nanocable tendrá una resistencia pequeña.

FIGURA 5.6. Esquema que ilustra la diferencia entre transporte balístico y óhmico. Las trayectorias de los electrones se representan con trazos negros y las colisiones inelásticas con figuras con forma de estrella. A medida que el nanocable (zona representada por un estrechamiento de color gris claro) se hace más corto y estrecho las colisiones inelásticas se hacen menos frecuentes en su interior, y el transporte electrónico pasa de ser óhmico (muchas colisiones inelásticas) a balístico (escasas colisiones inelásticas).

Por lo tanto, cuando un nanobjeto, como los que vamos a describir en la sección siguiente, transporta la corriente eléctrica puede manifestar efectos balísticos y cuánticos, obligándonos a abandonar la Ley de Ohm para describir sus propiedades eléctricas y siendo necesario emplear una nueva formulación, la propuesta por R. Landauer. Esto tiene como consecuencia un cambio radical a la hora de diseñar y construir los circuitos electrónicos en los que se inserten nanocomponentes. Parte del software que hoy en día se utiliza para definir la arquitectura de complejísimos circuitos electrónicos dejará de ser válido dentro de unos pocos años y habrá que programar sofisticados códigos que tengan en cuenta la naturaleza cuántica del transporte electrónico. Los futuros ingenieros de nanocircuitos serán «ingenieros cuánticos», no van a tener otra opción.

5.7. La nanoelectrónica sin silicio

La nanoelectrónica basada en el silicio tiene todavía por delante unos cuantos años de éxito y seguirá ofreciéndonos dispositivos cada vez más sofisticados. Pero, mientras esto ocurre, los laboratorios de investigación de todo el mundo están buscando nanobjetos que se conviertan en candidatos fiables para reemplazar al silicio. Todos tendrán en común su tamaño nanométrico y su sorprendente forma de transportar electrones combinando efectos balísticos y cuánticos. Vamos a describir con brevedad algunas de las líneas de investigación más importantes dedicadas a la búsqueda de estos candidatos.

La electrónica molecular. Desde el descubrimiento de los polímeros conductores a finales del siglo XX, se han desarrollado una gran cantidad de dispositivos inspirados en estos materiales debido a su carácter multifuncional por ser conductores, flexibles y transparentes. Este tipo de materiales se describirán con más detalle en el capítulo siguiente. Entre estos dispositivos tenemos los diodos orgánicos emisores de luz (OLED, siglas de Organic Light-Emitting Diode), los transistores orgánicos de efecto campo (OFET, siglas de Organic Field-Effect Transistor) o los paneles fotovoltaicos orgánicos. Por ejemplo, un grupo de la Universidad Autónoma de Madrid ha propuesto el uso de paneles solares basados en diferentes moléculas derivadas de la ftalocianina, una molécula que tiene carácter semiconductor. Dichos paneles tendrían rendimientos inferiores a los que actualmente proporcionan los basados en el silicio, pero tendrían como gran ventaja su menor coste: menos de 20 céntimos de euro el metro cuadrado. Los polímeros conductores también se están considerando para la fabricación de baterías, músculos artificiales o diversos tipos de sensores.

Los polímeros conductores están basados en diferentes tipos de moléculas «electroactivas», denominadas así por ser capaces de reaccionar frente a estímulos eléctricos. Existen multitud de familias de moléculas electroactivas, como las derivadas de polipirrol, naftaleno, fullereno, tetra​ciano​quino​dimetano (TCNQ), tetratiofulvaleno (TTF), etc. Estas moléculas de dificultosos nombres tienen en común su capacidad para transportar carga eléctrica. Pensemos ahora, por un momento, que somos capaces de construir dispositivos que contengan unas cuantas moléculas electroactivas o vayamos más allá, e imaginemos que una sola de estas moléculas se diseña para comportarse como un dispositivo completo. Por ejemplo, un grupo de la Universidad de Delft (Holanda) está trabajando en el diseño de un nanomotor molecular basado en una molécula que es capaz de rotar en presencia de un campo eléctrico alterno a diferentes velocidades de rotación. En este caso estaríamos hablando de una nueva electrónica, la electrónica molecular.

En un futuro construiremos nanotransistores moleculares a partir de diferentes tipos de moléculas electroactivas que tengan bien carácter metálico o bien carácter rectificador (es decir, un sistema que deje pasar la corriente en un sentido pero no en el contrario). En otras ocasiones las moléculas reaccionarán frente a la luz o a campos magnéticos por lo que podrán ser usados como transductores electro-ópticos o como memorias. Investigadores de diferentes universidades o de empresas como IBM o Hewlett-Packard ya han diseñado circuitos en los que las moléculas realizan las funciones de transistores o de conmutadores (switches) moleculares. Una de las moléculas que puede ser candidata para la fabricación de interruptores moleculares es el rotaxano, molécula con la que en 2007 se construyeron prototipos de laboratorio para su uso como dispositivos de almacenamiento de datos. Las propiedades de esta molécula se describen con más detalle en el Capítulo 6. Desde el punto de vista de la fabricación masiva de dispositivos, el uso de moléculas es muy sugerente pues podrían utilizarse los métodos de autoensamblado molecular de los que también se hablará en el capítulo siguiente. Este tipo de procesos permitiría cubrir de manera relativamente sencilla toda una superficie con un gran número de moléculas activas, aumentando la capacidad de los dispositivos fabricados. Una de las desventajas de este tipo de materiales es su relativa fragilidad y la pérdida de sus propiedades con el paso del tiempo. En cuanto estos problemas se resuelvan, las moléculas orgánicas podrán ser serias candidatas para sustituir al silicio tanto en electrónica como en generación fotovoltaica.

La nanolectrónica del carbono: nanotubos. Ya hemos visto anteriormente que los nanomateriales basados en carbono son grandes protagonistas de la nanotecnología. Los nanotubos de carbono pueden transportar balísticamente corriente eléctrica sin apenas resistencia. La densidad de corriente máxima que un nanotubo de carbono puede transportar es centenares de veces superior a la de un cable metálico de igual sección. Además sus excelentes propiedades mecánicas permiten su uso en sistemas que trabajen en condiciones extremas. A todo esto hay que sumar el hecho clave de que los nanotubos de carbono pueden tener carácter metálico o semiconductor en función de su geometría, lo que facilitará su introducción en distintas partes de los chips, simplificando el número de pasos requerido en la fabricación de circuitos integrados. La expectación sobre el uso de los nanotubos ha crecido y su precio ha ido bajando a medida que grandes fábricas de nanotubos se han ido poniendo en marcha en Japón, Francia, EE.UU., etc. En la Figura 5.7 se muestra el esquema de un transistor basado en un nanotubo de carbono. A principios de 2012, IBM anunció que había conseguido fabricar un transistor de este tipo con un canal de 9 nm de tamaño, muy inferior a los 22 nm de canal de los transistores que representan ahora mismo la vanguardia de la tecnología del silicio. A finales de 2013, un grupo de investigación de la Universidad de Stanford (EE.UU.) anunció la fabricación, aún un tanto artesanal, de un procesador que contenía 142 transistores ensamblados a partir de nanotubos de carbono. Aunque este procesador tiene una potencia de cálculo similar al de los procesadores basados en silicio fabricados a principios de los años setenta, es una demostración palpable de que ya es posible comenzar a pensar en computadoras de carbono.

FIGURA 5.7. Esquema de un transistor de efecto campo basado en un nanotubo de carbono que se convierte en el canal por el que circulan los electrones en función del voltaje aplicado a la puerta.

La nanolectrónica del carbono: grafeno. Por su parte el grafeno ha entrado recientemente en la escena de la electrónica de la mano de sus impresionantes propiedades, entre las que podemos destacar una gran movilidad de los electrones y una bajísima resistividad. Los descubrimientos sobre el grafeno aparecen a un ritmo sin precedentes. En febrero de 2010, IBM presentó un prototipo de transistor de grafeno capaz de funcionar a 100 GHz (treinta veces más rápido que los procesadores comerciales de silicio que usamos en nuestros computadores personales). Ese mismo año un grupo de Corea del Sur sintetizó, como ya se ha descrito, una lámina rectangular de grafeno de 74 cm de diagonal diseñada para su posible utilización en una pantalla táctil de grandes dimensiones. En los laboratorios de todo el mundo se estudian diferentes maneras de manipular una lámina de grafeno, cómo doparla usando diversos tipos de átomos, o cómo oxidarla de forma controlada en lugares concretos o cortarla formando los patrones deseados. Todas estas operaciones permitirán definir circuitos bidimensionales ultradelgados con los que fabricar transistores u otros componentes sobre superficies flexibles y casi transparentes. El grafeno, junto con los polímeros conductores, abren una nueva vía para fabricar dispositivos: la electrónica flexible. Esta estrategia permitirá la fabricación de procesadores, pantallas planas y células solares, casi transparentes, que serán capaces de doblarse o enrollarse, adaptándose mejor a diferentes superficies. Imaginemos por un momento que la superficie de una ventana o la cubierta de un invernadero se convierten en un generador de energía fotovoltaica, que la cúpula, las bóvedas o las columnas de los edificios se convierten en pantallas donde mostrar información, o que una lentilla es capaz de albergar un procesador y una diminuta pantalla en la que mostrar todo tipo de datos. Con todos los ejemplos que hemos expuesto es evidente que la posibilidad de elaborar circuitos basados en nanotubos de carbono y grafeno es una de las grandes apuestas para dar el salto desde la tecnología del silicio hasta la del carbono.

Nanohilos inorgánicos. Otras nanoestructuras que tendrán su nicho de aplicación en el campo de la nanoelectrónica son los nanohilos o nanocables metálicos que servirán para establecer conexiones entre los elementos que se encuentran en un dispositivo. Desde hace casi dos décadas se sabe formar y manipular cadenas de átomos ordenados en fila india. Éstos son los nanocables más pequeños del mundo. Además de ser excelentes conductores de la electricidad tienen otras interesantes propiedades. Por ejemplo, si el material del que está hecho el nanocable es magnético (cobalto, hierro o níquel) puede presentar efectos de magnetorresistencia gigante, por lo que podrían usarse en la fabricación de sensores magnéticos. Además pueden ser utilizados como nanoantenas que se integrarían en los procesadores, permitiendo comunicaciones inalámbricas entre diferentes dispositivos o entre diferentes componentes de un mismo procesador, proporcionando más funcionalidad a los equipos electrónicos.

Puntos cuánticos. Un punto cuántico es una estructura cristalina formada usualmente por materiales semiconductores y que presenta dimensiones nanométricas y formas diversas. En un punto cuántico, los electrones están confinados en las tres dimensiones del espacio, dando lugar a una estructura bien definida de niveles de energía que depende mucho de la forma y del tamaño del punto cuántico. Esta estructura recuerda a la que tienen los átomos, por lo que los puntos cuánticos también reciben el nombre de «átomos artificiales». Al igual que los fullerenos, los puntos cuánticos se pueden clasificar como pertenecientes a la familia de estructuras 0D. Lo más interesante de un punto cuántico es que mediante el control de su composición, forma y tamaño podemos predeterminar su estructura electrónica y por lo tanto el espectro de la luz que emiten. El control de la luz que pueden emitir o absorber hace de los puntos cuánticos sistemas clave en la fabricación de diodos láser (usados como lectores de CD y DVD), células fotovoltaicas, marcadores ópticos para realizar el seguimiento de procesos en biomedicina, etc. Otro aspecto interesante de los puntos cuánticos está relacionado con los cambios en su estructura electrónica cuando un electrón es atrapado en su interior. Cuando esto ocurre, la incorporación de un segundo electrón se ve impedida por las enormes fuerzas de repulsión causadas por el confinamiento. Además, dicha repulsión modifica la estructura de niveles energéticos. Este hecho se aprovecha para construir transistores de un único electrón (SET, del inglés Single Electron Transistor), en los que la corriente sólo puede circular electrón a electrón ya que un nuevo electrón no puede entrar al transistor hasta que el anterior no salga del mismo. De esta manera se obtiene un dispositivo por el que la corriente eléctrica circula de una manera cuantizada. Es imposible encontrar transistores que consuman menos.

Ha quedado claro que en estos momentos hay un gran número de candidatos que pueden ser prometedores competidores del silicio. Sin embargo el tipo de material que se utilice en los futuros dispositivos electrónicos no dependerá sólo de sus excelentes propiedades para transportar electrones sino de los costes de su fabricación en masa y su integración en sistemas de mayor y mayor complejidad. Pensemos que cualquier nueva tecnología que desee competir con el silicio debe ser capaz de producir e integrar miles de millones de componentes de una forma más barata que la utilizada en las actuales factorías. Mientras esto no ocurra, el cambio de paradigma, el salto de una curva «S» de la innovación a otra, no se producirá, por bellas que sean las propuestas que surjan de los laboratorios.

5.8. La caída del reinado de la electrónica

Podemos intuir cómo serán los computadores dentro de diez años, pero es mucho más complejo realizar predicciones para dentro de veinte o treinta años. Si miramos hacia atrás y nos situamos a principios de los años ochenta hubiese sido bastante difícil pensar en el actual desarrollo de Internet, en nuestros teléfonos móviles multifuncionales o en las redes sociales. No sin riesgo a equivocarnos, podemos intuir que a mediados del siglo XXI los procesadores y memorias que forman el corazón de los equipos informáticos utilizarán combinaciones adecuadas de silicio, grafeno, nanotubos de carbono y moléculas, formando complejas arquitecturas tridimensionales. Estos sistemas nanotecnológicos seguirán realizando operaciones lógico-matemáticas gracias a paquetes o pulsos de electrones que circularán por nanocircuitos obedeciendo las leyes de Landauer, que entonces seguramente se explicarán en libros de texto de bachillerato. Uno de los más reputados futuristas, el estadounidense R. Kurzweil, ha estimado que a mediados del siglo XXI un equipo de sobremesa, con un coste de 1000 dólares, tendrá la misma potencia de cálculo que la que se obtendría con el conjunto de todas las conexiones neuronales de todos los seres humanos que entonces pueblen la Tierra. Con dicha potencia estos equipos podrán gestionar complejísimas aplicaciones informáticas que ahora sencillamente desbordan nuestra imaginación. Este tipo de máquinas se comunicarán con nosotros a través de sofisticadas interfaces entre las que seguramente se encontrarán diversos tipos de bioimplantes. Estas interfaces serán la base de sofisticados sistemas de «realidad aumentada» que permitirán superponer elementos virtuales con diferente información sobre la visión del entorno físico real, creando una realidad mixta. Mediante estas máquinas podremos mantener el crecimiento exponencial de nuestras capacidades de cálculo y de interconectividad.

El discurso mantenido hasta ahora se ha centrado exclusivamente en la electrónica como base de las TIC, seguramente porque estamos viviendo en su pleno apogeo y resulta difícil salirse de esta corriente y sondear otras opciones. Es realmente asombroso pensar que detrás de cada golpe a una tecla de ordenador hay cientos de corrientes eléctricas y voltajes que hacen que una determinada operación se realice siguiendo unas precisas reglas matemáticas. Es conveniente señalar que lo importante de las TIC es su capacidad para generar, procesar, transmitir y almacenar información, pero estos pasos no tienen que ser dependientes ni del uso del silicio, ni del carbono, ni de los mismísimos electrones. De los laboratorios continuamente surgen interesantes propuestas en las que los electrones dejan de ser los protagonistas del transporte y almacenamiento de información. A continuación describimos algunas de ellas.

Computadores fotónicos. Un claro ejemplo que se lleva desarrollando durante las últimas tres décadas es el uso de sistemas en los que la información se transmite usando pulsos de luz. Mediante una serie de materiales nanoestructurados es posible realizar diversas operaciones con haces luminosos, construyendo las mismas reglas lógicas y aritméticas que ahora se emplean con los pulsos electrónicos, así estos dispositivos operarían con «rayos» de luz en lugar de hacerlo con corrientes eléctricas. La ventaja de estas tecnologías es evidente: la gran velocidad a la que se procesaría la información, la de la luz. La desventaja está relacionada con la dificultad de disminuir el tamaño de los circuitos fotónicos y encontrar los materiales adecuados que ayuden a procesar la información óptica.

Espintrónica. Otra propuesta de la que se habla mucho en revistas especializadas se fundamenta en la utilización del «espín» de los electrones, una propiedad puramente cuántica de las partículas y que se puede equiparar con una rotación interna de las mismas. En el caso del electrón esta rotación interna tiene dos posibles estados, que denominamos «arriba» y «abajo», de forma que la información binaria ahora se puede asociar al espín de un electrón o grupo de electrones. La «espintrónica» es la tecnología que nos va a permitir construir válvulas y otros elementos con los que poder manipular los espines de los electrones para poder realizar operaciones lógicas. La ventaja de la espintrónica es que se basa en el uso de electrones y, hoy en día, sabemos mucho sobre cómo manipularlos mediante campos eléctricos y magnéticos. Hace unos pocos años, investigadores de la Universidad de Twente, en Holanda, lograron manipular corrientes de electrones que poseían el mismo espín usando circuitos de silicio y a temperatura ambiente, lo que es indispensable para que los dispositivos espintrónicos sean una alternativa a los electrónicos. Recientemente un grupo de ingenieros de la Universidad de la Columbia Británica en Canadá ha controlado el espín de los electrones sin necesidad de utilizar campos eléctricos magnéticos o eléctricos, sino gracias al propio diseño del circuito y a las propiedades del transporte balístico de los electrones.

Esto significaría un considerable ahorro en el diseño de los futuros circuitos espintrónicos ya que no se requeriría la aplicación de campos externos en millones de regiones de un circuito para dirigir las corrientes de espín. Aunque son pequeños avances, aún queda mucho camino por delante para encontrar los materiales más adecuados, que junto con las adecuadas técnicas de fabricación, permitan producir en masa circuitos espintrónicos. Sin embargo, se debe destacar que el fenómeno de la magnetorresistencia gigante, que se ha mencionado anteriormente en este capítulo y que ha revolucionado el almacenamiento de datos, también se puede considerar un ejemplo del uso del espín electrónico. En cualquier caso se debe señalar que las herramientas que se están empleando para el desarrollo de la espintrónica pertenecen al ámbito de la nanotecnología.

Biocomputadoras. Hay otras propuestas que están mucho más alejadas del uso de cargas eléctricas, espines o luz, y son realmente revolucionarias. En una biocomputadora se emplean una serie de materiales biológicos y de secuencias metabólicas con un fin diferente al habitual: realizar «biooperaciones» aritméticas o lógicas. Se han propuesto diferentes tipos de biocomputadoras, pero quizás sean las computadoras bioquímicas las que más rápidamente se están desarrollando. Aunque el funcionamiento de estos sistemas es bastante complejo, su desarrollo se debe al profundo conocimiento actual del material genético y de las reacciones metabólicas. La idea de partida es fascinante: utilizar la codificación del ADN. De esta manera, las cuatro bases con las que se construyen las cadenas de ADN (adenina —A—, citosina —C—, guanina —G— y timina —T—) se emplearían como sistema «cuaternario» sobre el que codificar tanto las instrucciones como los datos de entrada de la misma forma que hoy en día se codifican procesos sobre sistemas binarios, de ceros y unos. Por ejemplo, una cadena de ADN podría codificar dos números y la operación suma que deseamos aplicar. Esto sería el input del proceso. Mediante una serie de reacciones bioquímicas con el resto de materiales biológicos presentes se obtendría, por ejemplo, una proteína concreta que una vez descodificada contendría el resultado equivalente a la suma. Si en la cadena de ADN codificamos dos números y la operación multiplicación, la proteína resultante sería diferente y contendría, codificado, el valor de la multiplicación de ambos números. El «procesador» de este biocomputador estaría formado por tubos de ensayo conectados a rápidos secuenciadores de proteínas que determinarían el resultado. En estos sistemas, la lógica y la programación matemática de secuencias serían idénticas a las que se emplean en circuitos electrónicos, pero usando señales de tipo bioquímico en lugar de señales eléctricas. Aunque se trata de una propuesta muy elegante, su implementación comercial presenta muchas dificultades, y aún está lejos de ser conseguida. Estos sistemas serían relativamente lentos y de una compleja programación, pero la cantidad de operaciones que se podrían realizar en unos cuantos centímetros cúbicos de disolución sería gigantesca, y así se están realizando avances continuos en este terreno. Aunque la computación bioquímica parezca una apuesta demasiado radical y extraña, no debemos dejar de mencionarla ya que toda una rama de la nanotecnología se basa en el posible uso de cadenas programadas de ADN como elemento estructural para fabricar sistemas de mayor complejidad, como veremos más adelante.

Computación cuántica. Esta propuesta se ha desarrollado en los últimos veinte años y parte de la idea de abandonar las reglas que hasta ahora han cimentado la arquitectura de los computadores. En los microchips, la información fluye codificada mediante una secuencia binaria (de ceros y unos) y es procesada mediante «puertas lógico-aritméticas» que combinan resistencias, conectores, transistores, condensadores, etc. Estas puertas realizan operaciones con los bits siguiendo las leyes del álgebra establecidas por G. Boole en el siglo XIX. ¿Qué alternativa hay al uso de estas estrategias? Pues utilizar otras ideas basadas en la mecánica cuántica, lo que se conoce como «computación cuántica». Esta idea, que ya fue esbozada por R. Feynman, ha comenzado a tomar cuerpo en los últimos años. Los computadores cuánticos se basarían en un nuevo tipo de bit donde se almacena información: el bit cuántico, también conocido como «cubit» o qubit. Estos bits cuánticos presentan niveles de energía bien definidos (como los niveles en los átomos o los de los puntos cuánticos) en los que se puede almacenar información de manera simultánea usando el principio de superposición de la mecánica cuántica. Por ejemplo un bit clásico toma un valor 0 o 1, pero en mecánica cuántica podemos preparar un cubit consistente en una combinación en la que medir «0» tenga un 25% de probabilidad y la de medir «1» el 75% restante, por poner un ejemplo. De esa forma un cubit simultáneamente incluye información de las dos posibilidades. Un cubit, por tanto debe basarse en un sistema en el que existan niveles de energía bien definidos y desde el exterior podamos preparar estos niveles de una manera adecuada. Se han propuesto diversos sistemas como candidatos a cubits, algunos basados en sistemas de puntos cuánticos convenientemente litografiados sobre un circuito y otros en trampas de iones o de átomos. En cualquier caso la fabricación de estos cubits seguramente requerirá la intervención de herramientas propias de la nanotecnología.

Los cubits se pueden agrupar para aumentar la cantidad de información cuántica acumulada. Por ejemplo, en un registro formado por 5 bits clásicos podemos almacenar sólo una de las 2 × 2 × 2 × 2 × 2 = 32 combinaciones posibles. Sin embargo, los mismos bits en su versión cuántica (cubits) podrían almacenar simultáneamente las 32 combinaciones. Las posibilidades crecen y crecen a medida que se usan más y más cubits. Por ejemplo con 50 cubits, que podrían ocupar una cantidad irrisoria de espacio gracias a las técnicas de la nanotecnología, se podrían preparar un número de estados equivalente a unos 100 TBytes de información, lo que es similar a decenas de veces la capacidad de los discos duros más potentes que hoy podemos adquirir. Otra característica que tienen los cubits, en comparación con los bits convencionales, es su capacidad para entrelazarse cuánticamente. Dar detalles sobre este tema complejo requeriría una larga explicación, que queda fuera del contexto de este libro, pero hay que mencionar que esta capacidad está detrás del fascinante fenómeno de la teleportación cuántica.

La computación cuántica busca la construcción de un procesador capaz de trabajar en paralelo con todos los datos que simultáneamente están almacenados en los cubits. Dicho procesador cuántico utilizaría para su funcionamiento las reglas de la mecánica cuántica en cada una de las operaciones típicas que realiza un procesador: introducir y procesar la información, realizar correcciones de errores, leer y almacenar los resultados. El día que tengamos acceso a estas máquinas podremos realizar en pocos segundos operaciones que ahora requerirían miles de años en un procesador convencional. Uno de los científicos más importantes en este campo es el español J. I. Cirac, premio Príncipe de Asturias del año 2006, y galardonado a principios de 2013 con el prestigioso Premio Wolf, que algunos consideran la antesala del premio Nobel de Física.

Las revolucionarias propuestas que transformarán las TIC no sólo se limitarán a procesadores o memorias, sino que provocarán cambios igual de profundos en los sistemas del almacenamiento de datos, en los sistemas de interface entre el usuario y la máquina, y en los demás sistemas periféricos. En cuanto a los nuevos sistemas de almacenamiento de datos, se están haciendo propuestas que van desde seguir disminuyendo el tamaño de los bits magnéticos hasta utilizar sistemas inspirados en los microscopios de fuerzas atómicas, sin olvidar la creciente importancia de los dispositivos de estado sólido. Estas estrategias nos permitirán tener pendrives o diminutos CDs con cientos y miles de veces más capacidad que los sistemas actuales. Pero tampoco se puede descartar llegar al «almacenamiento extremo» basado en la utilización de átomos individuales como bits, tal como han demostrado recientemente investigadores de IBM, que han conseguido grabar y leer información en átomos aislados de hierro. La revolución será similar en cuanto al resto de dispositivos: la superficie de las pantallas planas seguirá creciendo tanto en tamaño como en densidad de píxeles a la vez que su espesor continuará disminuyendo, y todas serán táctiles, flexibles, e incluso plegables. Los ratones y teclados seguramente irán desapareciendo y mejorarán increíblemente los sistemas de reconocimiento de voz y de traducción automática en tiempo real. Finalmente, los procesadores y memorias tendrán tamaños tan diminutos y arquitecturas tan distribuidas que formarán parte de la propia pantalla o de la carcasa del dispositivo. Todos estos desarrollos se harán realidad si simultáneamente van acompañados de una mejora tanto en su eficiencia energética como en los dispositivos de almacenamiento energético, temas en los que la nanotecnología también está proponiendo innumerables soluciones.

La espintrónica, los computadores fotónicos, la biocomputación, la computación cuántica, los nuevos materiales para fabricar pantallas ultradelgadas y flexibles o la utilización de átomos para el almacenamiento de datos son apuestas que se hacen desde la ciencia. Muchas de éstas se quedarán como propuestas arriesgadas que no tuvieron aplicación mientras que otras darán lugar a nuevas tecnologías que proporcionarán avances incrementales o rupturistas. Hay tanta variedad de propuestas que es extremadamente difícil imaginarse cuál de ellas será la que se convierta en la tecnología dominante y que decidirá, por ejemplo, qué tipo de dispositivo llevaremos dentro de una decena de años en nuestro bolsillo para comunicarnos (puede que el propio traje sea el dispositivo). Este ejercicio de predicción es tan complejo como hace treinta años lo fue predecir Internet, la telefonía móvil, el GPS, o que en un disco duro podríamos almacenar todas las canciones que escucharíamos a lo largo de nuestra vida. Además, es importante resaltar que la elección de las tecnologías predominantes no es un tema sencillo pues se entremezclan temas económicos y de percepción social. Por un lado, las soluciones que son extremadamente bellas para un científico no tienen por qué llegar a los escaparates si los costes de producción son muy grandes en comparación con otras tecnologías no tan avanzadas o sofisticadas. Por otro lado, los avances tecnológicos se incorporan con dificultad a nuestras vidas si intuimos o conocemos la existencia de ciertos riesgos tanto para nuestra salud como para el medioambiente.

Como curiosidad hay que mencionar que en el ámbito de las TIC su evolución puede quedar fuertemente condicionada por un fenómeno que todos hemos observado: a medida que aumentan las prestaciones de nuestro computador personal el sistema operativo y los programas que se usan también crecen en complejidad, de forma que el avance percibido es menor del esperable. Esta percepción se conoce como la Ley de N. Wirth, que afirma que el software se ralentiza más deprisa de lo que se acelera el hardware, por lo que cada día se necesita un ordenador más potente para hacer lo mismo. Este ejemplo pone de manifiesto que otro factor clave para el desarrollo de las TIC es disponer de un sofisticado software que permitirá sacar provecho de la potencia de todos nuestros dispositivos.

5.9. Supercomputación y el ser humano «hiperrelacionado»

La ciencia y la tecnología tampoco han escapado de la influencia de las TIC y han entrado en una dinámica que podríamos describir como de «círculo virtuoso». La ciencia y la tecnología facilitan nuevos materiales y dispositivos que permiten la fabricación de equipos electrónicos y de cálculo más sofisticados con los que, por un lado, se diseñan componentes y circuitos integrados cada vez más complejos y, por otro, podemos profundizar en nuestra comprensión de la materia a escala nanométrica, lo que permite proponer nuevos materiales y dispositivos mucho más avanzados. Este círculo virtuoso es un acelerador del progreso en general y del conocimiento científico-técnico en particular.

Por tanto, el desarrollo de las TIC ha permitido poner a disposición de los científicos nuevas herramientas de computación que permiten abordar el estudio de la naturaleza desde una perspectiva completamente nueva. Las leyes de la mecánica cuántica son, por el momento, las que nos sirven para explicar el comportamiento de la materia, pero por lo general se plasman en ecuaciones, como la de Schrödinger, que son muy difíciles de resolver. En mecánica cuántica muy pocos problemas tienen una solución de tipo analítico (es decir basados en desarrollos matemáticos que se expresan mediante «lápiz y papel»). Por lo general, cuando el sistema que se pretende estudiar está formado por unos cuantos átomos o electrones la situación se hace inmanejable, por lo que se requieren ciertas simplificaciones y la entrada en escena de un aliado: el computador.

Las herramientas más potentes a las que tenemos acceso son los supercomputadores. Los países más desarrollados están continuamente instalando nuevos supercomputadores que utilizan decenas de miles de procesadores y permiten simular multitud de fenómenos de interés en todos los campos del saber. La página web www.top500.org presenta la clasificación de estas máquinas ordenadas por su capacidad de cálculo. A finales de 2013 el supercomputador más poderoso se encontraba en el Centro Nacional de Supercomputación de Guangzhou (China) y tiene como nombre «Tianhe-2». Este monstruo de la supercomputación tiene 3 120 000 núcleos de cálculo en procesadores Intel Xeon que le permiten alcanzar una velocidad de procesamiento de 33,8 Petaflops/s (PFlops/s), consumiendo 17 800 kW. Hay que resaltar que un «Petaflop/s» equivale a mil billones (europeos) de operaciones de coma flotante por segundo. El segundo supercomputador más poderoso se encuentra en EE.UU., en el Laboratorio Nacional Oak Ridge perteneciente al Departamento de Energía, tiene como nombre «Titan» y ha sido desarrollado por la empresa Cray Computers. Este supercomputador posee más de medio millón de procesadores que le permiten alcanzar una velocidad de procesamiento de 17,6 PFlop/s, consumiendo 8200 kW. El tercer supercomputador más potente del mundo se denomina «Sequoia», ha sido fabricado por IBM y está instalado en el Laboratorio Nacional Lawrence Livermore del Departamento de Energía de los EE.UU. Este otro coloso de la computación posee más de 1,5 millones de núcleos de computación proporcionando una capacidad de cálculo de 16,3 PFlop/s. Para funcionar, este sistema consume 8000 kW. Un aspecto que hay que destacar es que en la carrera de los computadores se busca el mayor rendimiento con el menor consumo energético posible. Otro punto interesante es que dos de los tres supercomputadores más potentes del mundo están instalados en el Departamento de Energía de los EE.UU., lo que pone de manifiesto la importancia que los temas relacionados con la energía tienen en la investigación actual. Entre los veinte computadores más potentes, nueve están en EE.UU., siete están en Europa, dos en Japón y dos en China. Sin embargo, esta clasificación es extremadamente cambiante y lo más probable es que sea distinta cuando el lector lea estas líneas.

Lo que resulta sobrecogedor es la frenética carrera que se ha iniciado para tener acceso a estas máquinas. Lo cierto es que los cálculos que son capaces de abordar estos supercomputadores ayudan a gestionar muchas tareas administrativas (impuestos, censos, fichas sanitarias, etc.), optimizar el flujo de las comunicaciones, realizar predicciones meteorológicas, diseñar nuevos fármacos, automóviles, aviones o nuevos procesadores. Desde el punto de vista científico, estas máquinas son extremadamente útiles para simular el comportamiento de sistemas de gran complejidad, como por ejemplo, galaxias, huracanes, tsunamis, proteínas o para descifrar códigos genéticos. En el ámbito de la nanotecnología, estos supercomputadores, alimentados de sofisticados programas que se llevan desarrollando desde hace varias décadas, permiten estudiar las propiedades de los nanomateriales y de los procesos que tienen lugar en la nanoescala. Pensemos que un cubito de materia de unos 10 nm de lado puede contener cientos de miles de átomos y que determinar cómo se mueven todos estos átomos o calcular todos los niveles de energía en los que colocar a los electrones de este diminuto sistema son unas tareas realmente épicas. Cuanto más potentes sean los computadores, más complicados sistemas podremos abordar y de esta forma entender qué propiedades eléctricas, magnéticas, mecánicas u ópticas tienen los diferentes nanobjetos que hemos ido presentando en este libro, para saber cómo utilizarlas en nuestro provecho.

Supercomputadores y códigos de computación nos permiten entender cómo se enlazan los átomos y qué estructuras son más estables, cómo se transportan electrones en dispositivos realizados de nanotubos, moléculas o grafeno, la manera en la que los materiales se deforman o fracturan en presencia de tensiones, cómo se forma un nanotubo de carbono, cómo se emite luz desde un punto cuántico, cómo se deforma una proteína ante cambios en las condiciones ambientales, la forma en que se propaga la luz en un dispositivo fotónico, etc. Todas esas simulaciones arrojan datos que permiten completar o mejorar la visión que se obtiene del nanomundo a partir de los resultados experimentales. La información adquirida permite también predecir las hipotéticas propiedades de materiales avanzados que aún no existen y la forma en la que deben ser sintetizados. En algunos casos las ecuaciones de partida y las simulaciones son tan precisas que pueden sustituir parte de la actividad experimental, ahorrando muchos recursos y tiempo, y se dice que se realizan experimentos «in silico» (aludiendo al material de referencia de los procesadores). Sin embargo, por lo general, las simulaciones y los experimentos se complementan para proporcionar una visión global del sistema estudiado. Un ejemplo lo encontramos en un estudio publicado en 2012 que mostraba por primera vez los enlaces químicos dentro de una molécula utilizando microscopía AFM. La molécula estudiada era el hexabenzocoroneno (C42H18), una molécula plana que tiene parecido con un fragmento hexagonal de grafeno. El resultado experimental se acompañaba de una serie de cálculos de la estructura electrónica del sistema formado por la molécula y la punta del microscopio AFM que permitían corroborar que la imagen obtenida correspondía a la de dichos enlaces. Esta investigación se realizó gracias a la colaboración de tres grupos de investigación de Francia, Suiza y de la Universidad de Santiago de Compostela (España), lo que también pone de relieve el alto grado de colaboración que se da en el ámbito científico.

Sin duda, uno de los aspectos más apasionantes de este círculo virtuoso es que la simulación en la nanoescala nos permite entender y mejorar el funcionamiento de los componentes con los que posteriormente fabricaremos las futuras generaciones de computadores que, a su vez, nos permitirán hacer cálculos para llegar a tener otra generación de ordenadores más y más potentes. Aunque es cierto que muchos problemas aún son inabordables para los supercomputadores actuales, sabemos que tan sólo debemos esperar unos pocos años más para tener a mano procesadores con prestaciones mejoradas con los que poder digerir estos problemas. En la actualidad ya existen varios programas internacionales para poner en marcha, a lo largo de la próxima década, supercomputadores que alcancen el «Exaflop/s» de potencia de cálculo (un factor 1000 por encima del Petaflop/s). Parece que este círculo virtuoso va a seguir dando vueltas a gran velocidad durante varias décadas.

Ir a la siguiente página

Report Page