7 errores que están frenando la sostenibilidad de la IA
Los principales errores que frenan esa sostenibilidad son, para HPE:
- Sobredimensionar modelos sin necesidad. El entusiasmo por los grandes modelos de lenguaje ha llevado a usarlos en tareas que no lo requieren, como clasificar correos o extraer datos básicos. El resultado es un consumo energético hasta 100 veces mayor que si se emplearan modelos más pequeños o incluso técnicas clásicas de machine learning. La tendencia más sostenible no es “bigger is better”, sino “fit-for-purpose”, es decir, ajustar el modelo al propósito real.
- Olvidar la eficiencia de la infraestructura. Los centros de datos de última generación han avanzado enormemente, gracias a innovaciones como la refrigeración líquida, los racks optimizados o la conversión energética. Sin embargo, incluso con las mejores innovaciones, los límites son claros: solo la inferencia de IA podría consumir un 20 % de la energía global en 2030. Además, no todas las infraestructuras son iguales. Ejecutar un mismo modelo en una red eléctrica con alta intensidad de carbono puede generar hasta diez veces más huella que en una con renovables. Por eso, auditar la procedencia y aplicar técnicas de optimización resulta esencial para reducir impacto.
- Acumular datos sin control. Muchos departamentos almacenan cantidades masivas sin políticas de retención ni depuración. Esa información, aunque nunca se use, sigue consumiendo energía en almacenamiento, copias de seguridad y mantenimiento. El marco 4C (Collect, Curate, Clean, Confirm) ofrece un enfoque práctico, recopilando solo datos relevantes, filtrándolos para eliminar redundancias y sesgos, limpiarlos para mantener consistencia y confirmarlos para garantizar calidad.
- Ignorar la eficiencia del software. El impacto de código poco optimizado o modelos sobredimensionados multiplican el consumo energético de forma innecesaria. Cada vez más, la comunidad de desarrolladores adopta tácticas sostenibles como Quantization, para reducir la precisión de los cálculos cuando no se requiere máxima exactitud; Guardrails, para redirigir consultas simples a modelos ligeros; o Small Language Models (SLMs) y LLMs específicos de dominio, sistemas más pequeños y especializados que consumen menos recursos sin sacrificar calidad en su ámbito.
- No alinear cargas con el hardware adecuado. Otro error común es sobredimensionar infraestructuras “por precaución”. Esto conduce a tasas de utilización bajas y a un enorme desperdicio energético. La recomendación es asignar cada tipo de carga de trabajo al hardware más adecuado, ya que no todas las tareas requieren GPU de última generación ni servidores de alto consumo.
- Desatender a las personas. Implementar IA sin explicar su propósito ni formar a los equipos genera resistencia, baja adopción y sistemas infrautilizados que consumen recursos sin aportar valor. Comunicar con transparencia, demostrar que la IA es un complemento y no un sustituto, y acompañar su despliegue con programas de upskilling es fundamental para que las inversiones sean productivas y sostenibles.
- No medir el impacto sostenible. Muchas organizaciones despliegan IA sin monitorizar su consumo energético ni su huella de carbono. Sin datos, resulta imposible identificar ineficiencias o demostrar avances hacia objetivos ESG. Incorporar métricas desde el inicio, como emisiones por interacción o consumo energético por inferencia, permite optimizar en tiempo real y justificar inversiones en prácticas más sostenibles.
Ecosystem Thinking: un marco integral
Los siete errores identificados reflejan un mismo patrón. La sostenibilidad de la IA suele abordarse de forma fragmentada, como si bastara con optimizar la infraestructura o reducir el tamaño de un modelo. Ese enfoque es insuficiente. La clave está en entender la inteligencia artificial como un ecosistema interconectado, en el que infraestructura, datos, software, hardware y personas funcionan como piezas dependientes entre sí. Solo integrando estas dimensiones se puede alcanzar una eficiencia real y duradera.
Adoptar el ecosystem thinking implica situar la sostenibilidad como principio rector desde el diseño, midiendo con precisión, planificando con visión de futuro y fomentando la colaboración transversal entre equipos de IT, negocio y sostenibilidad. El resultado es doble: una reducción tangible de la huella ambiental y una ventaja competitiva clara, que prepara a las organizaciones para afrontar el aumento de los costes energéticos y las exigencias regulatorias de un mercado cada vez más complejo.