Inteligencia artificial: perspectivas de futuro

Estamos entrando en la era de la inteligencia artificial, gracias a la creciente capacidad de los ordenadores de procesar información. Cuanto más avanzada es, más capacidad de computación precisa. Y más energía consume. Ambas cosas imponen límites físicos a su desarrollo. Para superarlos se necesitan nuevos avances tecnológicos, que ya se están investigando. Lo explica Jesús del Álamo, catedrático de Ingeniería eléctrica en el MIT.

El hardware de la inteligencia artificial

Al hablar de ordenadores se cita con frecuencia la Ley de Moore, que es fundamental para la inteligencia artificial. La Ley de Moore dice que la capacidad de procesamiento de los ordenadores se duplica cada año. Hasta 2012, en efecto, esto ha sido así. Pero entonces se introdujo la GPU, o unidad de procesamiento gráfico, y la tendencia cambió. Ahora, la capacidad de procesamiento se duplica cada dos meses. Es una velocidad de vértigo sin la cual la inteligencia artificial no se podría desarrollar al ritmo al que lo viene haciendo. Este hecho demuestra la importancia de utilizar hardware diseñado específicamente para la inteligencia artificial.

Ahora bien, junto a la capacidad de procesamiento también está creciendo el coste de programar estos ordenadores. Ese coste no es otro que la energía que consumen. Ya está llegando a los diez millones de dólares y también crece de forma exponencial. Por ejemplo, programar el GPT-3, que es un modelo para procesar lenguas, costó esa cantidad. La programación de Alphago supuso un millón de dólares a causa de un consumo de electricidad de cuarenta días. Ese gasto equivale a la emisión a la atmósfera de noventa y siete toneladas de CO2. O al consumo de veintitrés hogares estadounidenses durante un año. O a mil horas de viaje en avión.

Energía, superordenadores e inteligencia artificial

¿Por qué crece de esa forma el consumo de energía? Pues porque para poder programar modelos tan complejos se necesita un procesador con gran capacidad de computación. Y cuanto mayor es la potencia de computación, más energía se consume. Es el caso del Cerebras WSE-2, el procesador más grande del mundo. Tiene un tamaño enorme, con 2,6 billones de transistores y 40Gb de memoria. Se trata de un chip extraordinario que se utiliza en superordenadores dedicados al entrenamiento de modelos de inteligencia artificial.

Esta tendencia en capacidad de procesamiento y consumo de energía conduce, de forma inexorable, hacia la saturación. En consecuencia, para conseguir modelos con más capacidad de procesamiento habrá que estar dispuestos a consumir mucha más energía. De hecho, ese consumo crece de manera super lineal. Esto representa un gran problema. Todos estos sistemas se construyen a partir de la misma tecnología convencional CMOS. Esta tecnología se basa en el silicio, lo que limita su eficiencia a la hora de computar a diez elevado a doce operaciones por vatio. Lo que deseamos es aumentar esa potencia, pero reduciendo la cantidad de energía consumida. Esto requiere una verdadera revolución tecnológica.

El cuello de botella de la memoria

En la actualidad, las investigaciones discurren por dos caminos. El primero es tratar de resolver el problema del “cuello de botella de la memoria”. El segundo consiste en idear nuevos modelos de computación.

¿En qué consiste el problema del “cuello de botella”? Pues en que los chips responsables de la computación difieren de los de la memoria porque se producen con tecnologías distintas. Esos chips van ensamblados en un mismo tablero, a cierta distancia los unos de los otros. Los datos se transfieren de la memoria al procesador y de vuelta a la memoria. Con la inteligencia artificial hay un gran trasiego de datos, lleva más tiempo hacerlo y se consume mucha energía. Esto es el “cuello de botella”. Superarlo pasaría por integrar memoria y computación íntimamente, con conexiones muy cortas y finas. Así se podrían transferir los datos con gran rapidez y poco gasto de energía. El problema es que las tecnológicas básicas de computación son muy diferentes de las de memoria.

Nuevas posibilidades

Una posibilidad para resolver el problema es lo que se conoce como “embedded non-volatile memory”. Esto permitiría crear una gran densidad de bases de datos que se puedan comunicar rápidamente con la parte de computación. Una segunda línea, que está emergiendo estos días, son los denominados “heterogeneus integration of chiplets”. Consisten en la integración en un solo chip de pequeños chips, o chiplets. Cada uno de ellos realiza una función específica de manera muy optimizada. Algunos de ellos ya se han producido y se pueden escoger de un catálogo. Si se ensambla un sistema así de manera modular, el resultado es un diseño que llega al mercado mucho más rápidamente. Es más económico y su rendimiento energético es mejor. El reto es encontrar la tecnología que permita unir estos chips con conexiones muy densas que requieran muy poca energía.

Este tipo de chiplets ya existe en el mercado. Por ejemplo, el Apple M1 Ultra, que consiste en la unión de dos microcomputadores M1 Max. Al juntarlos, se obtiene el doble de capacidad de computación. Otro ejemplo es Ponte Vecchio, que es un acelerador de inteligencia artificial de Intel. Consiste en un ensamblado de cuarenta y siete chips, que en total suman 110 billones de transistores.

Nuevos paradigmas de computación

La otra gran línea de investigación es la de los nuevos paradigmas de computación. Uno de ellos es la implementación de redes neuronales artificiales, pero en forma analógica, no digital. La ventaja es que las operaciones básicas detrás de la multiplicación de matrices, operación clave de las redes neuronales, consisten en una multiplicación y suma. Ambas operaciones pueden realizarse explotando la Ley de Kirchoff y la Ley de Ohm. Así se pueden hacer muy eficazmente, con dispositivos pequeñísimos y con un consumo de energía mucho más bajo. El problema es que, hoy por hoy, ese dispositivo no existe.

Para tratar de resolver este problema, vienen siguiéndose varias líneas de investigación. Una de ellas consiste en intercalar iones de manera controlada en un canal de óxido metálico para controlar la conductividad. Otra es una aplicación consistente en crear filamentos conductores dentro de una matriz de óxido metálico. Otras líneas son tratar de explotar el concepto de efecto ferroeléctrico, los materiales bidimensionales para implementar redes neuronales o la óptica lineal pasiva.

Acceda a la conferencia completa

“La Fundación Rafael del Pino no se hace responsable de los comentarios, opiniones o manifestaciones realizados por las personas que participan en sus actividades y que son expresadas como resultado de su derecho inalienable a la libertad de expresión y bajo su entera responsabilidad. Los contenidos incluidos en el presente resumen, realizado para la Fundación Rafael del Pino por Emilio J. González, son resultado de los debates mantenidos en el encuentro realizado al efecto en la Fundación y son responsabilidad de sus autores.”
Artículo anteriorUcrania y la Tercera Guerra Mundial
Artículo siguienteDiez tecnologías para impulsar a España

No hay publicaciones para mostrar