
China ya no consiste en alejarse de Nvidia. Su siguiente paso es el corazón de la IA con un sistema, la forma se rompe – La nación


2017 el periódico “La atención es todo lo que necesitasGoogle ha cambiado la base técnica de la generación de idiomas: el Transformadores Puede procesar secuencias largas en paralelo y modelos en tamaños que no eran factibles previamente. Esta ruta de escalada ha impulsado arquitecturas como GPT y Bert y se ha convertido para transformarlas La pieza central de IA generativa Contemporáneo.
Sin embargo, este nuevo enfoque fue acompañado por los crecientes costos en la memoria y la energía si el contexto se extiende, una restricción que ha motivado la investigación para desarrollar alternativas. Spikingbrain-1.0 tiene como objetivo romper las formas.
De “la atención es todo lo que necesitas” para el cerebro: la nueva obligación de romper los límites en el
Un equipo del Instituto Chino para la Automatización de la Academia de Ciencias Acaba de presentar spikingbrain-1.0. Hablamos de una familia de modelos espinosos que tienen como objetivo reducir los datos y los cálculos necesarios para tareas con contextos muy largos. Los expertos sugieren dos enfoques: SpikingBrain-7b, la arquitectura lineal que se centra en la eficiencia y SpikingBrain-76b, que combina atención lineal con la mezcla de expertos (MOE) con mayor capacidad.
Los autores describen que una gran parte del desarrollo y las pruebas se llevaron a cabo en grupos de GPU Metax C550, con bibliotecas y operadores especialmente diseñados para esta plataforma. Esto hace que el proyecto no solo sea un progreso prometedor a nivel de software, sino también una demostración de Propias funciones de hardware. Un aspecto particularmente relevante cuando se tienen en cuenta los esfuerzos de China para reducir su dependencia de Nvidia, una estrategia que ya hemos visto con Deepseek 3.1.
SpikingBrain-1.0 está inspirado en cómo funciona nuestro cerebro. En lugar de tener neuronas que siempre “queman” calculando los números, se usan picos: unidades que acumulan señales hasta que exceden un umbral y activan un pico (pico). No hacen nada entre el pico y el pico que ahorra operaciones y teóricamente energía. La clave es que no solo es importante cuántos picos hay, sino cuando ocurren: exactamente y el orden de estos picos usa información como en el cerebro.
Para que este diseño funcione con el ecosistema actual, el equipo desarrolló métodos que convierten los bloques de autoefecto tradicionales en versiones lineales, se integran más fácilmente en su sistema brillante y crearon una especie de “tiempo virtual” simula procesos de tiempo sin detener el rendimiento en la GPU. Además, la versión SpikingBrain 76B contiene la mezcla de expertos (MOE), un sistema que solo “despierta” ciertos submodelos que también hemos visto en GPT-4O y GPT-5.
Los autores proponen aplicaciones en las que la longitud del contexto es decisiva: análisis de grandes archivos legales, registros médicos completos, secuenciación de ADN y registros de datos experimentales masivos en física de alta energía. Esta parte superior aparece en el documento: si la arquitectura mantiene la eficiencia en contextos de millones de tokens, los costos y las posibilidades abiertas en los dominios, que ahora están limitadas por el acceso a una infraestructura informática muy costosa, reducirían. Sin embargo, la validación en entornos reales se debe al laboratorio.
El equipo El código de 7,000 millones de parámetros ha publicado en GitHub Además de un informe técnico detallado. También ofrece una interfaz web que es similar para interactuar con el modeloque, según los autores, se usan completamente en el hardware nacional. Sin embargo, acceso Se limita al chinoLo que complica su uso fuera de este ecosistema. La propuesta es ambiciosa, pero su verdadero extensión dependerá del hecho de que la comunidad reproduce los resultados y acepta comparaciones en entornos homogéneos que evalúan la precisión, las latencias y el consumo de energía en condiciones reales.
Fotos | Xataka con Géminis 2.5 | Abodi vesakaran
En Xataka | Operai cree que ha descubierto por qué el IAS alucinado: no sabes cómo decir “no sé” debería decir.