...
...
Entrenamiento mas eficiente para la inteligencia artificial

Entrenamiento mas eficiente para la inteligencia artificial

Nuevas máquinas de autoaprendizaje basadas en la física podrían sustituir las actuales redes neuronales artificiales y ahorrar energía

3 1 0 9

J
@JCampo

A la par de lo que es el espectacular rendimiento de las inteligencia artificales son su demanda de energia. Cuantos más les exigentes  más altos son sus demandas de energía. Víctor López-Pastor y Florian Marquardt, dos científicos del Instituto Max Planck para la Ciencia de la Luz en Erlangen, Alemania, presentan un método mediante el cual se podría entrenar la inteligencia artificial de manera mucho más eficiente. Su enfoque se basa en procesos físicos en lugar de las redes neuronales artificiales digitales que se utilizan actualmente.

Open AI, la empresa detrás de esa inteligencia artificial (IA), no ha revelado la cantidad de energía necesaria para entrenar a GPT-3, lo que convierte a ChatGPT en un Chatbot elocuente y aparentemente bien informado. Según la empresa estadística alemana Statista, esto requeriría 1.000 megavatios hora, aproximadamente lo que consumen anualmente 200 hogares alemanes con tres o más personas. Si bien este gasto de energía ha permitido a GPT-3 saber si es más probable que la palabra "profundo" sea seguida por la palabra "mar" o "aprendizaje" en sus conjuntos de datos, al 

parecer no ha entendido el significado subyacente de tal frases.

Redes neuronales en computadoras neuromórficas

Para reducir el consumo de energía de los ordenadores, y en particular de las aplicaciones de IA, en los últimos años varias instituciones de investigación han estado investigando un concepto completamente nuevo de cómo los ordenadores podrían procesar datos en el futuro. El concepto se conoce como computación neuromórfica. Aunque esto suena similar a las redes neuronales artificiales, en realidad tiene poco que ver con ellas, ya que las redes neuronales artificiales se ejecutan en computadoras digitales convencionales. Esto significa que el software, o más precisamente el algoritmo, se basa en la forma de trabajar del cerebro, pero los ordenadores digitales sirven como hardware. Realizan secuencialmente, uno tras otro, los pasos de cálculo de la red neuronal, diferenciando entre procesador y memoria.

"La transferencia de datos entre estos dos componentes por sí sola consume grandes cantidades de energía, cuando una red neuronal entrena cientos de miles de millones de parámetros, es decir, sinapsis, con hasta un terabyte de datos", afirma Florian Marquardt, director del Instituto Max Planck para la Ciencia de la Light y profesor de la Universidad de Erlangen. El cerebro humano es completamente diferente y probablemente nunca habría sido evolutivamente competitivo si hubiera funcionado con una eficiencia energética similar a la de las computadoras con transistores de silicio. Lo más probable es que hubiera fallado por sobrecalentamiento.

El cerebro se caracteriza por emprender los numerosos pasos de un proceso de pensamiento de forma paralela y no secuencial. Las células nerviosas, o más precisamente las sinapsis, son a la vez procesador y memoria. Varios sistemas en todo el mundo están siendo tratados como posibles candidatos para las contrapartes neuromórficas de nuestras células nerviosas, incluidos los circuitos fotónicos que utilizan luz en lugar de electrones para realizar cálculos. Sus componentes sirven simultáneamente como interruptores y células de memoria. 

¿Qué es la computación neuromórfica?

Para conocer el origen de esta disciplina tenemos que remontarnos a los años 60. A Carver Mead, un ingeniero eléctrico estadounidense formado en el Instituto de Tecnología de California (Caltech), se le ocurrió diseñar algoritmos y circuitos integrados concebidos expresamente para imitar el comportamiento del sistema nervioso de los animales.

Mead se percató de que nuestro cerebro procesa la información de una forma muy eficiente, por lo que imaginó un mundo en el que los ordenadores imitaban su comportamiento. Aquella intuición inicial tardó dos décadas en concretarse, de manera que a finales de los años 80 varios grupos de investigación empezaron a trabajar con ella.

Lo que propone la computación neuromórfica es emular el comportamiento del sistema nervioso animal en general, y el del cerebro en particular. El punto de partida que en su momento describió Carver Mead consistía en aproximarse a los transistores como dispositivos de naturaleza analógica, y no como conmutadores digitales. Este enfoque parecía el apropiado porque el comportamiento de los transistores se parece a la manera en que las neuronas se comunican entre ellas mediante impulsos eléctricos (este mecanismo se conoce como sinapsis neuronal).

La idea de Mead es original, y, sobre todo, resulta muy atractiva; así nace esta disciplina siendo su fin último el desarrollar sistemas electrónicos que sean capaces de procesar la información de una forma más eficiente. De hecho, aspiran a ser tan eficientes como un cerebro orgánico, meta tan ambiciosa que para llevarla a la práctica se requiere de un abordaje  desde una perspectiva multidisciplinaria en la que la física, la biología, las matemáticas, la informática y la microelectrónica colaboraren estrechamente. De lo contrario el objetivo que persigue la computación neuromórfica se tornaría inalcanzable.

Lo que propone la computación neuromórfica es emular el comportamiento del sistema nervioso animal en general, y el de nuestro cerebro en particular

Intel es una de las empresas que están invirtiendo en el desarrollo de la computación neuromórfica. Su sistema neuromórfico Pohoiki Springs incorpora 100 millones de neuronas artificiales.

 

Una máquina física con autoaprendizaje optimiza sus sinapsis de forma independiente

Junto con Víctor López-Pastor, estudiante de doctorado en el Instituto Max Planck para la Ciencia de la Luz, Florian Marquardt ha ideado un método de entrenamiento eficaz para ordenadores neuromórficos. "Hemos desarrollado el concepto de una máquina física con autoaprendizaje", explica Florian Marquardt. "La idea central es realizar el entrenamiento en forma de un proceso físico, en el que los parámetros de la máquina sean optimizados por el propio proceso".

Al entrenar redes neuronales artificiales convencionales, se necesita retroalimentación externa para ajustar las fortalezas de los muchos miles de millones de conexiones sinápticas. "El hecho de no necesitar esta información hace que la formación sea mucho más eficiente", afirma Florian Marquardt. Implementar y entrenar una inteligencia artificial en una máquina física de autoaprendizaje no sólo ahorraría energía, sino también tiempo de computación. "Nuestro método funciona independientemente del proceso físico que tenga lugar en la máquina de autoaprendizaje y ni siquiera necesitamos saber el proceso exacto", explica Florian Marquardt. "Sin embargo, el proceso debe cumplir algunas condiciones". Lo más importante es que debe ser reversible, es decir, debe poder avanzar o retroceder con una mínima pérdida de energía". "Además, el proceso físico debe ser no lineal.

Prueba práctica en un ordenador neuromórfico óptico.

En la óptica se pueden encontrar ejemplos de procesos reversibles y no lineales. De hecho, Víctor López-Pastor y Florian Marquardt ya están colaborando con un equipo experimental que desarrolla una computadora neuromórfica óptica. Esta máquina procesa información en forma de ondas de luz superpuestas, mientras que los componentes adecuados regulan el tipo y la intensidad de la interacción. El objetivo de los investigadores es poner en práctica el concepto de máquina física con autoaprendizaje. "Esperamos poder presentar en tres años la primera máquina física con autoaprendizaje", afirma Florian Marquardt. Para entonces, deberían existir redes neuronales que piensen con muchas más sinapsis y estén entrenadas con cantidades de datos significativamente mayores que las actuales.

Como consecuencia, probablemente habrá un deseo aún mayor de implementar redes neuronales fuera de las computadoras digitales convencionales y reemplazarlas con computadoras neuromórficas capacitadas de manera eficiente. "Por lo tanto, confiamos en que las máquinas físicas con autoaprendizaje tienen muchas posibilidades de utilizarse en el futuro desarrollo de la inteligencia artificial", afirma el físico.

 

Conversación

...
...