Diseñan transistor similar al cerebro que trata de imitar la inteligencia humana
Ciudad de Guatemala, 21 dic (AGN).- Inspirándose en el cerebro humano, un equipo científico ha desarrollado un nuevo transistor sináptico capaz de pensar a un nivel superior. El dispositivo puede procesar y almacenar información simultáneamente, igual que nuestro cerebro.
La descripción del transistor, que trata de imitar la inteligencia humana y que funciona a temperatura ambiente, se publica en la revista Nature. En el artículo, los investigadores demuestran que el dispositivo va más allá de las simples tareas de aprendizaje automático para categorizar datos, y es capaz de realizar un aprendizaje asociativo.
Aunque estudios anteriores han aprovechado estrategias similares para desarrollar dispositivos informáticos parecidos al cerebro, esos transistores no pueden funcionar fuera de temperaturas criogénicas.
Más de 850 mil estudiantes se han beneficiado con tecnología en el aula
Grandes cualidades
El nuevo modelo, en cambio, es estable a temperatura ambiente, funciona a gran velocidad y consume muy poca energía. Además, conserva la información almacenada incluso cuando se le retira la alimentación, lo que lo hace ideal para aplicaciones del mundo real.
La investigación está codirigida por Mark C. Hersam, de la Universidad de Northwestern, y por el español Pablo Jarillo-Herrero, del Instituto Tecnológico de Massachusetts (MIT).
Los recientes avances en inteligencia artificial (IA) han motivado a los investigadores a desarrollar ordenadores que funcionen de forma más parecida al cerebro humano, recuerda un comunicado de Northwestern.
Durante varias décadas, apunta Hersam, el paradigma de la electrónica ha sido construirlo todo con transistores (semiconductores que rectifican y amplifican impulsos eléctricos) y utilizando la misma arquitectura de silicio.
Se ha avanzado mucho simplemente introduciendo más y más transistores en los circuitos integrados. No se puede negar el éxito de esa estrategia, pero tiene el coste de un elevado consumo de energía, especialmente en la actual era de los grandes datos en la que la informática digital va camino de desbordar la red.
Por eso, hay que replantearse el hardware informático, especialmente para tareas de IA y aprendizaje automático.
Unidades separadas
Los sistemas informáticos digitales convencionales tienen unidades de procesamiento y almacenamiento separadas. Precisamente es esto lo que hace que las tareas intensivas en datos devoren grandes cantidades de energía.
En cambio, en el cerebro, explica Hersam, la memoria y el procesamiento de la información están ubicados en el mismo lugar y totalmente integrados. Esto se traduce en una eficiencia energética de órdenes de magnitud superiores. Nuestro transistor sináptico logra de forma similar la funcionalidad concurrente de memoria y procesamiento de la información para imitar más fielmente al cerebro.
Diseño geométrico
Para lograrlo, el equipo exploró la física de los patrones de moiré, un tipo de diseño geométrico que surge cuando dos patrones se superponen en capas. También combinó dos tipos diferentes de materiales atómicamente finos: el grafeno bicapa y el nitruro de boro hexagonal.
Cuando se apilan materiales bidimensionales (como el grafeno), surgen nuevas propiedades que no existen en una sola capa y cuando esas capas se retuercen para formar el efecto moiré es posible una sintonización sin precedentes de las propiedades electrónicas.
Así, al girar una capa con respecto a la otra, los investigadores lograron propiedades electrónicas diferentes en cada capa de grafeno, aunque solo estuvieran separadas por dimensiones a escala atómica.
Al respecto, Hersam señala:
Con la torsión como nuevo parámetro de diseño, el número de permutaciones es enorme. El grafeno y el nitruro de boro hexagonal son muy similares estructuralmente, pero lo suficientemente diferentes como para obtener efectos moiré excepcionalmente potentes.
Entrenamiento del transistor
Para probar el transistor, el equipo lo entrenó para reconocer patrones similares, pero no idénticos.
En primer lugar, mostró al dispositivo el patrón 000 y a continuación pidió a la IA que identificara patrones similares, como 111 o 101.
Si lo entrenamos para detectar 000 y luego le damos 111 y 101, sabe que 111 es más parecido a 000 que 101, subraya Hersam, para quien reconocer esa similitud es una forma superior de cognición conocida como aprendizaje asociativo. EFE
Lea también:
Minex invita a delegación de embajadores a presenciar transmisión de mando presidencial
rm