No existe una sola región que no esté interesada en las virtudes de la inteligencia artificial, ya que esta vertiente tecnológica acapara gran parte de la conversación mundial. Así, mientras China celebra una cumbre para intentar liderar la revolución de la IA, figuras como Mark Zuckerberg quieren aprovechar sus posibilidades para llevar a la robótica doméstica al siguiente nivel. Y, en línea con todo lo mencionado, Corea del Sur es la última en subirse al barco, dado que quiere conseguir 10.000 GPU para su centro nacional de cálculo de IA.
Como señala Reuters, el gobierno anunció que asegurará 10.000 GPU de alto rendimiento este año para fortalecer su infraestructura de inteligencia artificial. Choi Sang-mok, presidente interino de la región, destacó que la rivalidad en el sector de la IA ha pasado a ser una competencia entre ecosistemas nacionales de innovación. Por ello, el gobierno trabajará con empresas del sector privado para adquirir tarjetas gráficas y, con ellas, planean poner en marcha el centro nacional de computación en IA lo antes posible. Sin embargo, tienen que superar un escollo importante: las limitaciones de Estados Unidos.
China, NVIDIA y OpenAI también están en el candelero
A raíz de los límites en la exportación de GPU utilizadas para aplicaciones avanzadas de IA que ha puesto Estados Unidos, muchos países se han enfrentado a varias restricciones en contra de sus intereses. No obstante, mientras China, Irán y Rusia tienen prohibido el acceso a estos chips, Corea del Sur sí forma parte del grupo de 18 países sin restricciones. Por ello, aunque el gobierno aún no ha decidido qué chips planean adquirir y cuánto quieren gastar, las negociaciones con el país norteamericano podrían empezar más pronto que tarde.
En la actualidad, NVIDIA controla cerca del 80% del mercado de las GPU. Mientras tanto, tanto Microsoft como OpenAI trabajan en desarrollar sus propios chips de IA para reducir la dependencia con NVIDIA, mientras empresas como DeepSeek están desarrollando modelos de IA optimizados para eficiencia computacional. Por ello, el número de GPU depende de aspectos como la potencia de cada chip, la cantidad de datos a procesar y el tiempo de entrenamiento del modelo.
Imagen principal de 3DJuegos
Entrar y enviar un comentario