China avanza un paso más en su estrategia para reducir su dependencia tecnológica de NVIDIA y marcar su propio camino en la inteligencia artificial.
Investigadores del Instituto de Automatización de la Academia China de Ciencias presentaron SpikingBrain-1.0, una nueva arquitectura de modelos que se inspira directamente en el funcionamiento del cerebro humano y que promete mayor eficiencia en tareas que requieren manejar grandes volúmenes de datos.
Desde que Google introdujo en 2017 el paper “Attention Is All You Need”, los Transformers se convirtieron en la base de la IA generativa, permitiendo el desarrollo de sistemas como GPT o BERT.
Sin embargo, este enfoque ha enfrentado crecientes problemas de consumo energético y de memoria al trabajar con contextos largos. SpikingBrain-1.0 busca ofrecer una alternativa que rompa con esas limitaciones.
El sistema utiliza neuronas espigadas, que acumulan señales hasta superar un umbral y solo entonces generan un “pico” de actividad. Entre cada pico no realizan operaciones, lo que reduce la necesidad de cómputo y, en teoría, el gasto de energía.
Además, el orden y el momento exacto de los picos también transmiten información, imitando los procesos cerebrales.
El proyecto incluye dos versiones:
-
SpikingBrain-7B, de 7.000 millones de parámetros, enfocada en la eficiencia.
-
SpikingBrain-76B, que combina atención lineal con el sistema Mixture of Experts (MoE), donde solo se activan ciertos submodelos cuando son necesarios, una técnica ya presente en modelos avanzados como GPT-5.
Gran parte del desarrollo se realizó en GPU chinas MetaX C550, con librerías diseñadas específicamente para ese hardware, lo que refuerza la apuesta del país por consolidar su independencia tecnológica.
Los investigadores destacan aplicaciones en áreas donde los contextos extensos son clave, como análisis jurídicos, historias clínicas completas, secuenciación genética o investigación en física.
Si se confirma su eficiencia en escenarios reales, SpikingBrain-1.0 podría abaratar el acceso a modelos avanzados en sectores que hoy requieren infraestructuras muy costosas.
El equipo liberó el código de la versión 7B en GitHub, acompañado de un informe técnico y una interfaz web similar a ChatGPT, aunque solo disponible en chino.
El verdadero alcance de esta propuesta dependerá ahora de que la comunidad internacional logre validar sus resultados y compararlos en condiciones homogéneas de precisión, velocidad y consumo energético.