La sobrecarga de software ha pasado de ser una molestia técnica a un riesgo empresarial medible, así lo afirma la firma de análisis IDC, que cree que las organizaciones se enfrentan ahora a un » impuesto a la complejidad» que erosiona directamente los ingresos y frena la innovación.
Y todo apunta a que el problema se agravará. IDC pronostica que para 2028 habrá más de mil millones de nuevas aplicaciones netas, además del software que las empresas ya tienen dificultades para gestionar.
Casi todos hemos notado que las aplicaciones se vuelven más grandes, más lentas y con más errores. Por ejemplo, todos hemos tenido una ventana de Chrome que ocupa una cantidad alarmante de memoria del sistema. Si bien los problemas de rendimiento pueden variar según la organización, la aplicación y las plataformas técnicas, parece que los peores cuellos de botella se han trasladado a la «última milla» de la experiencia del usuario, afirma Jim Mercer, vicepresidente de programa de Desarrollo de Software, DevOps y DevSecOps en IDC.
Se trata específicamente del navegador (por ejemplo, el ‘Tab Tax’) y las capas de integración entre herramientas SaaS fragmentadas, señala, y agrega que, en la era de la IA, también vemos cada vez más desafíos con la latencia de inferencia.
“La presión comercial ha creado un desafío de ‘velocidad sobre calidad’”, afirma. “Si bien las decisiones arquitectónicas y las habilidades de los desarrolladores siguen siendo cruciales, con demasiada frecuencia se ven comprometidas por la necesidad de integrar IA y nuevas funciones a un ritmo exponencial. Por lo tanto, [la sobrecarga de software se debe a] una falta de diligencia debida cuando deberíamos saber más”.
En el mundo del código abierto, el desafío del legado también contribuye a la sobrecarga, señala Amanda Brock, directora ejecutiva de OpenUK «este es inevitablemente un desafío creciente con el tiempo. Creo que a los proyectos de código abierto les resulta cada vez más difícil gestionar el volumen de contribuciones que reciben, y la IA está provocando que se envíen mayores cantidades de código».

“Sin una financiación adecuada y personal más capacitado, el mantenimiento del ecosistema se resiente y tareas de higiene importantes, como la eliminación de código superfluo, suelen quedar relegadas a un segundo plano”.
IA: un arma de doble filo
Las herramientas de IA se encuentran en el centro del debate en torno a la sobrecarga y la optimización del software, y aparentemente traen consigo tantas desventajas como beneficios.
A corto plazo, es probable que el código generado por IA aumente la sobrecarga del software, ya que se optimiza para código funcional, en lugar de código eficiente, afirma Nell Watson, miembro sénior del IEEE, autora e ingeniera en ética de IA en Singularity University. «Tiende a la completitud, gestionando todos los casos extremos imaginables y patrones defensivos en todas partes».

No existe un ciclo de retroalimentación donde la IA aprenda del rendimiento en tiempo de ejecución ni de las quejas de los usuarios sobre la lentitud. Generar más código más rápido con menos escrutinio humano no es la receta para un software eficiente.
Lo preocupante es que la sobrecarga de IA es estructuralmente diferente de la deuda técnica tradicional, señala. En lugar de acumularse con el tiempo, suele manifestarse como una sobreingeniería sistemática desde el primer día «esto puede hacer que estos elementos estén profundamente arraigados y sean mucho más difíciles de identificar y eliminar, especialmente en la era de los sistemas ‘codificados por vibración’ «, sin embargo, la contraparte es que facilita enormemente la migración de infraestructura crítica a stacks más seguros, resistentes y preparados para la competencia, como los basados en Rust, añade, esto es especialmente cierto para la traducción de lenguajes menos conocidos en sistemas heredados, «lo que contrarresta algunos de estos problemas de sobrecarga y mantenimiento».
Los desafíos de los centros de datos transformarán el diseño del software
A largo plazo, se espera que el crecimiento de la IA genere nuevas herramientas que ayuden a optimizar las aplicaciones de software. «Los nuevos mercados para la modernización y revisión de código ayudarán a reducir las preocupaciones sobre la mantenibilidad», afirma Jim Scheibmeir, vicepresidente y analista de Gartner. «Sin embargo, esto implica más herramientas disponibles y costos adicionales para las licencias y suscripciones de ingeniería de software moderna», añade.
La optimización del software ha cobrado aún más importancia debido a la reciente crisis de precios de la RAM, impulsada por la creciente demanda de hardware para satisfacer la IA y la expansión de los centros de datos. Si bien los aumentos de precios podrían estar estabilizándose, la RAM ahora es mucho más cara que hace apenas unos meses. Es probable que esto modifique las prácticas y los comportamientos, explica Brock “cuando estuve en China a finales del año pasado, hubo conversaciones sobre cómo los desarrolladores allí están obsesionados con la eficiencia en la forma en que escriben código y crean IA, en gran medida porque tienen menos acceso a la computación.
Creo que esto tendrá un impacto real en el desarrollo de las cosas. Si miramos el panorama general, ahora estamos en plena competencia por los centros de datos y por conseguir suficiente capacidad de procesamiento y, fundamentalmente, suficiente energía para operarlos. Eso va a ser enormemente problemático.
Por eso, cuanto más ágil y eficiente sea el software, mejor será su rendimiento. Lo mismo ocurre con la IA, y sin duda veremos una mayor transición hacia los modelos de lenguaje pequeño (SLM). Creo que la capacidad de los centros de datos y las limitaciones energéticas y de infraestructura serán un factor clave que determinará el futuro de nuestro software.
La importancia de la higiene del software
De cara al futuro, Brock cree que la higiene del software cobrará cada vez más importancia, «y realmente apenas estamos empezando a prestarle atención», afirma.
Conozco gente que está reescribiendo partes de código para hacerlo más seguro en Rust o para ejecutar sistemas operativos más ágiles y eficientes que les permitan implementar centros de datos en mercados emergentes como África. Con el sistema operativo adecuado, se puede reducir un centro de datos al tamaño de un armario e implementarlo rápidamente.
La seguridad también desempeñará un papel importante, especialmente con el creciente debate sobre la soberanía de los datos y la preocupación por los actores maliciosos, señala. Un software más ágil, ordenado y conciso es simplemente más fácil de mantener, especialmente cuando se descubre una vulnerabilidad y se trabaja con una base de código enorme.
Las cuestiones relacionadas con la seguridad, la sostenibilidad, el acceso a la tecnología, la eficiencia, el coste y la disponibilidad de la computación, así como la capacidad y el consumo energético de los centros de datos, convergen en un mismo punto. En última instancia, repercuten en el propio software: en su desarrollo y mantenimiento. Creo que la presión para optimizar el software será universal.
Para minimizar el riesgo de su software y proteger su rendimiento en los próximos años, Mercer recomienda utilizar la ingeniería de plataformas para facilitar la gobernanza. «También considere la normalización del software y la consolidación de proveedores, y considere plataformas unificadas siempre que sea posible», afirma.
También se trata de incorporar buenas prácticas, añade Brock. «Se trata de crear disciplina interna entre los usuarios y los creadores de proyectos: ser conscientes de no añadir software superfluo y dedicar tiempo a aplicar un rigor real para eliminar la sobrecarga histórica. Eso significa reconocer que esto realmente es un problema», concluye.















