En este momento estás viendo 
<span class="bsf-rt-reading-time"><span class="bsf-rt-display-label" prefix="Tiempo de lectura"></span> <span class="bsf-rt-display-time" reading_time="4"></span> <span class="bsf-rt-display-postfix" postfix="mins"></span></span><!-- .bsf-rt-reading-time -->Dentro de la lucha de la India para la IA Independence

Dentro de la lucha de la India para la IA Independence

  • Autor de la entrada:
  • Categoría de la entrada:Noticias externas

En Bangalore, India, Adithya Kolavi sintió una mezcla de emoción y validación mientras veía a Deepseek desatar su modelo de lenguaje disruptivo en el mundo a principios de este año. La tecnología china rivalizó con lo mejor de Occidente en términos de puntos de referencia, pero se había construido con mucho menos capital en mucho menos tiempo. 

Históricamente conocida como la oficina brevemente global de la industria del software, India tiene un ecosistema tecnológico que evolucionó con una mentalidad de los servicios primero. Gigantes como Infosys y TCS construyeron su éxito

No obstante, un grupo pequeño pero decidido de constructores indios está comenzando a dar forma al futuro de IA del país.

Su lanzamiento permitió a los desarrolladores de todo el mundo ajustarlo en GPU de bajo costo, crear variantes más rápidas y extender sus capacidades a aplicaciones no inglesas.

“Lanzar un modelo de peso abierto con inferencia eficiente puede democratizar la IA”, dice Hancheng Cao, profesor asistente de sistemas de información y gestión de operaciones de la Universidad de Emory. “Lo hace utilizable por desarrolladores que no tienen infraestructura masiva”.

Indiai, sin embargo, ha adoptado una postura neutral sobre si los modelos financiados con fondos públicos deberían ser de código abierto. 

“No queríamos dictar modelos de negocio”, dice Singh. “India siempre ha apoyado los estándares abiertos y el código abierto, pero depende de los equipos. El objetivo son modelos indios fuertes, sean cuales sean la ruta”.

También hay otros desafíos. A fines de mayo, Sarvamai dio a conocer Sarvam-M, un LLM multilingüe de 24 billones de parámetros, ajustado para 10 idiomas indios y construido sobre Mistralsmall, un modelo eficiente desarrollado por la compañía francesa Mistral AI. El cofundador de Sarvam, Vivekraghavan, calificó el modelo “un importante trampolín en nuestro viaje para construir IA soberana para la India”. Pero sus números de descarga fueron decepcionantes, con solo 300 en los primeros dos días. El capitalista de riesgo Deedy Das llamó al lanzamiento “vergonzoso”.

Y los problemas van más allá de la tibia recepción temprana. Muchos desarrolladores en la India aún carecen de fácil acceso a las GPU y al ecosistema más amplio para aplicaciones de IA en idioma indio aún es naciente. 

La pregunta de cómputo

La escasez de cálculo está emergiendo como uno de los cuellos de botella más importantes en la IA generativa, no solo en la India sino en todo el mundo. Para los países que aún dependen en gran medida de las GPU importadas y la falta de capacidad de fabricación nacional, el costo de construir y ejecutar modelos grandes a menudo es prohibitivo. 

India todavía importa la mayoría de sus chips en lugar de producirlas en el país, y el entrenamiento de modelos grandes sigue siendo costoso. Es por eso que las nuevas empresas e investigadores se centran en la eficiencia a nivel de software que involucran modelos más pequeños, una mejor inferencia y marcos de ajuste fino que optimizan el rendimiento en menos GPU.

“La ausencia de infraestructura no significa la ausencia de innovación”, dice Cao. “Apoyar la ciencia de la optimización es una forma inteligente de trabajar dentro de las limitaciones”. 

Sin embargo, Singh de Indiaai argumenta que la marea está activando el desafío de infraestructura gracias a los nuevos programas gubernamentales y las asociaciones privadas públicas. “Creo que en los próximos tres meses, ya no enfrentaremos el tipo de cuellos de botella de cómputo que vimos el año pasado”, dice.

India también tiene una ventaja de costo.

Según Gupta, la construcción de un centro de datos de hiperescala en India cuesta aproximadamente $ 5 millones, aproximadamente la mitad de lo que costaría en mercados como Estados Unidos, Europa o Singapur. Eso es gracias a la tierra asequible, los menores costos de construcción y mano de obra, y un gran grupo de ingenieros calificados. 

Por ahora, las ambiciones de IA de la India parecen menos acerca de saltar a Openai o Deepseek y más sobre la autodeterminación estratégica. Ya sea que su enfoque adopte la forma de modelos soberanos más pequeños, ecosistemas abiertos o híbridos públicos-privados, el país está apostando a que puede trazar su propio curso. 

Mientras que algunos expertos argumentan que la acción del gobierno, o la reacción (a Deepseek), es performativa y está alineada con su agenda nacionalista, muchos fundadores de inicio están energizados. Ven la creciente colaboración entre el estado y el sector privado como una oportunidad real para superar los desafíos estructurales de larga data de la India en la innovación tecnológica.

En una meta cumbre celebrada en Bengaluru el año pasado, Nandan Nilekani, presidente de Infosys, instó a la India a resistirse a perseguir un sueño de AI. 

“Deje que los grandes en el valle lo hagan”, dijo sobre la construcción de LLMS. “Lo usaremos para crear datos sintéticos, construir modelos de lenguaje pequeños rápidamente y capacitarlos utilizando datos apropiados”. 

Su opinión de que India debería priorizar la fuerza sobre el espectáculo tenía una recepción dividida. Pero refleja un consenso más amplio y creciente sobre si India debería jugar un juego completamente diferente.

“Intentar dominar cada capa de la pila no es realista, incluso para China”, dice Shobhankita Reddy, investigadora de la Institución Takshashila, una organización sin fines de lucro de políticas públicas indias. “Dominar una capa, como aplicaciones, servicios o talento, para que permanezca indispensable”. 

Corrección: modificamos el nombre de Reddy

Publicado Originalme en TechnologyReview.com el 4 de julio de 2025.
Ver Fuente Original

admin

Usuario de administración del sitio web