Hace un cuarto de siglo, un estudiante reunió 32 tarjetas gráficas GeForce para jugar Quake III. CUDA vino de allí – La nación




En 2000 Ian Buck Quería hacer algo que parecía imposible: jugar Quake III en resolución 8K. Young Buck estudió informática en Stanford y se especializó en infografía. Entonces tuvo una idea loca: montó 32 tarjetas gráficas GeForce y renderizó Quake III en ocho proyectores estratégicamente ubicados.
“Eso”, explicó años después, “fue hermoso”.
Buck contó esta historia en “The Thining Machine”, el ensayo de 2025 de Stephen Witt que rastrea la historia de NVIDIA. Y por supuesto, una de las partes fundamentales de esta historia es el origen de CUDA, la arquitectura que los desarrolladores de IA han convertido en una joya y que ha permitido a la compañía crecer y convertirse en la más importante del mundo en términos de capitalización bursátil.
Y todo empezó con Quake III.
La GPU como supercomputadora doméstica
Esto fue solo un experimento divertido, por supuesto, pero fue una revelación para Buck porque fue allí donde descubrió que los chips gráficos especiales (GPU) podrían hacer más que dibujar triángulos y renderizar cuadros de Quake.
Para descubrirlo, profundizó intensamente en los aspectos técnicos de los procesadores gráficos NVIDIA y comenzó a investigar sus posibilidades como parte de su tesis doctoral en Stanford. Reunió a un pequeño grupo de investigadores y, con una subvención de DARPA (Agencia de Proyectos de Investigación Avanzada de Defensa), comenzó a trabajar en un lenguaje de programación de código abierto al que llamó Brook.
Este lenguaje hizo posible algo sorprendente: la producción de tarjetas gráficas. supercomputadora casera. Buck demostró que las GPU, teóricamente diseñadas para funcionar con gráficos, pueden resolver problemas comunes aprovechando el paralelismo que ofrecen estos chips.
Entonces, mientras una parte del chip iluminaba el triángulo A, otra ya estaba trazando el triángulo B y otra estaba escribiendo el triángulo C en la memoria. No era exactamente igual al paralelismo de datos actual, pero aun así ofrecía una potencia informática asombrosa, muy superior a cualquier CPU de la época.
Esta jerga finalmente se convirtió en un artículo titulado “Brook para GPU: Stream Computing en hardware de gráficos‘. De repente, la computación paralela fue accesible para todos y, aunque este proyecto recibió poca atención pública, se convirtió en algo que una persona sabía que era importante.
Esa persona era Jensen Huang.
Poco después de la publicación de este estudio, el fundador de NVIDIA se reunió con Buck y lo fichó de inmediato. Se dio cuenta de que esta capacidad podía y debía ser explotada por los procesadores gráficos y comenzó a asignarle cada vez más recursos.
Nace CUDA
Cuando Silicon Graphics colapsó en 2005 debido a las intratables estaciones de trabajo de NVIDIA, muchos de sus empleados terminaron trabajando para la empresa. De hecho, 1.200 de ellas fueron directamente al departamento de investigación y desarrollo, y uno de los grandes proyectos de este departamento fue precisamente desarrollar aún más esta capacidad de estas tarjetas.
Nada más llegar a NVIDIA, Ian Buck empezó a colaborar John Nickolsquien, antes de incorporarse a la empresa, había intentado -sin éxito- estar un paso por delante del futuro con su apuesta por la computación paralela. Este intento falló, pero junto con Buck y algunos ingenieros más iniciaron un proyecto al que NVIDIA prefirió darle un nombre un tanto confuso. Lo llamó Compute Unified Domain Architecture.
Nació CUDA.
El trabajo en CUDA avanzó rápidamente y NVIDIA lanzó la primera versión de esta tecnología en noviembre de 2006. Este software era gratuito pero sólo compatible con el hardware NVIDIA. Y como suele ocurrir con muchas revoluciones, CUDA tardó un poco en gelificarse.
En 2007, la plataforma de software se descargó 13.000 veces: los cientos de millones de usuarios de gráficos NVIDIA sólo la querían para jugar, y así permaneció durante mucho tiempo. Programar para usar CUDA fue difícil y Estos primeros tiempos fueron muy difíciles para este proyecto.que en NVIDIA consumió mucho talento y finanzas sin ningún beneficio real.
De hecho, las primeras aplicaciones de CUDA no tuvieron nada que ver con la inteligencia artificial, ya que en aquel momento apenas se hablaba de ella. Quienes aprovecharon esta tecnología fueron los departamentos científicos, y sólo años después se concretaría la revolución que esta tecnología podría desencadenar.
Un éxito tardío (pero merecido)
De hecho, el propio Buck así lo señaló en una entrevista con Tom’s Hardware en 2012. Cuando el entrevistador le preguntó qué usos futuros ve para la tecnología GPGPU que ofrece CUDA en el futuro, puso algunos ejemplos.
Habló sobre empresas que utilizan CUDA para diseñar ropa o automóviles de próxima generación, pero agregó algo importante:
“Seguiremos viendo capacidades en los medios personales, como ordenar y buscar fotografías según el contenido de la imagen, como caras, ubicación, etc., lo cual es un proceso muy intensivo en términos de computación”.
Aquí Buck sabía de lo que estaba hablando, aunque no podía imaginar que este sería el comienzo de la verdadera revolución CUDA. En 2012 dos jóvenes estudiantes de doctorado fueron nombrados Alex Krizhevsky e Ilya Sutskever Bajo la dirección de su supervisor, desarrollaron un proyecto Geoffrey Hinton.
The Nvidia Way: Jensen Huang y la creación de un gigante tecnológico (edición en inglés)
El precio puede variar. Recibimos una comisión de estos enlaces.
Este proyecto no fue más que alexnetel software que permitía la clasificación automática de imágenes y que hasta entonces había representado un desafío inútil debido a los costos computacionales requeridos. En aquel entonces, estos académicos entrenaron una red neuronal utilizando tarjetas gráficas NVIDIA y software CUDA.
De repente, la IA y CUDA empezaron a tener sentido.
El resto, como dicen, es historia.
En Xataka | Podemos olvidarnos de la IA por ahora sin alucinaciones. El CEO de NVIDIA explica por qué