Deepseek y la supremacía del código abierto
Es una de esas noticias que tendrías que haber pasado las últimas semanas metido en una cueva en las profundidades para no haber visto: la irrupción en el panorama de la inteligencia artificial generativa de Deepseek, un modelo chino que prueba lo que llevo tiempo diciendo: que las restricciones planteadas por la guerra comercial norteamericana están estimulando a las compañías chinas para ser más eficientes e imaginativas, superar la no disponibilidad de los chips más avanzados, y dar lugar a modelo que son capaces de rivalizar con los mejores que existen en Occidente.
La irrupción de Deepseek ha pillado completamente a contramano a Silicon Valley: su modelo más avanzado, R1, con 671,000 millones de parámetros, es más potente que ChatGPT o1, la versión más potente hasta el momento de OpenAI, pero gratuito en su uso casual y mucho más barato en uso corporativo. Pero además, es de código abierto, con una licencia MIT, te lo puedes instalar en tu propio entorno, y ha hecho que muchas compañías de inteligencia artificial que estaban pagando tokens carísimos a OpenAI hayan dejado inmediatamente de hacerlo para pasarse a Deepseek R1.
Sí, es chino y sigue las restricciones del gobierno chino, así que no le preguntes por determinadas cosas que todos sabemos, pero en la mayor parte de las ocasiones que necesitas un LLM hoy en día no es para preguntarle por ese tipo de temas, así que la practicidad y la economía han hecho que el uso de Deepseek R1 se extienda como la pólvora, sacudiendo la hegemonía de los modelos norteamericanos.
Aparentemente, Deepseek ha hecho todo lo que podía estar a su disposición para conseguir un modelo tan sumamente puntero: además de construir un cluster enorme con los chips que ha podido obtener, probando que las restricciones norteamericanas no van a servir de gran cosa, ha utilizado probablemente una buena parte de los materiales que ha podido obtener del propio ChatGPT, lo que lleva a que el modelo se identifique en muchas ocasiones como ChatGPT. Pero dado que la propia OpenAI y todas las compañías de inteligencia artificial occidentales, de la primera a la última, se han apropiado de enormes cantidades de datos de donde lo han estimado oportuno para entrenar sus modelos, no parece que vayan a poder hacer gran cosa contra la pujanza de Deepseek, que básicamente ha hecho lo mismo, pero sobre ellas.
Según Marc Andreessen, «Deepseek R1 es uno de los avances más sorprendentes e impresionantes que he visto jamás y, como código abierto, un gran regalo para el mundo». Y según Yann LeCun, «para aquellas personas que ven el rendimiento de DeepSeek y piensan que China está superando a los Estados Unidos en inteligencia artificial, están leyendo mal. La lectura correcta es que los modelos de código abierto están superando a los propietarios».
Una combinación ganadora: compañías sometidas a restricciones y obligadas a ser mucho más eficientes, a hacer más con menos, y un esquema, el del código abierto, simplemente superior a la hora de desarrollar cualquier cosa. Por el momento, al menos tres laboratorios chinos (DeepSeek, Alibaba y Kimi, propiedad del unicornio chino Moonshot AI) han sido capaces de producir modelos que rivalizan con el R1, y por tanto, superan a la mayoría de los occidentales. Si no has probado Deepseek R1, vete probándolo, tanto por sus resultados como por su coste. Y vete pensando que, a lo mejor, los ganadores en esta carrera no van a estar tan claros como parecía originalmente.