Saltar a contenido

AI Slop, fricción y redes sociales

Estos días he estado trabajando en una herramienta que automatiza algunos procesos, sin impacto directo en los clientes. Una buena oportunidad para experimentar: RPI, Don't read the code, dynamic memory con un montón de instrucciones, subagents, y hasta agentes en paralelo en algún momento.

La idea era seguir los consejos de twitter y subir un peldaño más en la escalera del AI Adoption level (1).

  1. Creo que el primero en describir algo así fue Steve Yegge y luego han sido re-escritos y modificados por cualquiera con un blog y tiempo libre.

El resultados:

  • Ficheros con más de 1.000 líneas de código. De aquí viene el artículo de instruir al agente para limitar el número de líneas por fichero.
  • Abstracciones e indirecciones que se solucionaban con un mock para los tests o un if con dos ramas
  • Bucles anidados abriendo y cerrando conexiones a bases de datos
  • 43.4M de tokens gastados el día grande (a ~240 Wh/MTok, unos 8 lavavajillas)
  • 95% de cobertura de tests pero bugs en "producción"
  • ...

Y sí, este post es un rant.

  • Ya sé que algo estoy haciendo mal. No dejaba de ser un experimento. Pero es que es muy fácil hacer mal las cosas con coding agents. Lo único bueno es que cagarla con la AI es aceptable. Puedes decir que tu agente ha perdido 450k$ invirtiendo, pero ni se te ocurra decir que has perdido una base de datos secundaria porqué no hacías pruebas de restauración.
  • Cursor en modo Auto usa modelos ~malos~ suboptimos. Pero los LLM cuestan un buen dinero, cada vez más. Y no todas las empresas tenemos VC quemando $ detrás.
  • Hay una presión brutal en el ámbito del desarrollo. Si te fias de twitter, no trabajar en modo ralph y tener 5 agentes en paralelo es "perder el tiempo". En lugar de aprovechar el incremento de productividad para disfrutar del paisaje, tienes que lanzar un agente desde el móvil mientras esperas que la crianza salga del cole.
  • Los problemas asociados al consumo de recursos, gobernanza y sesgo de los modelos, son reales, y no deberíamos despreciarlos sin más.

Para ir acabando, que esto empezó simplemente para explicar el contexto del primer artículo generado por LLM que ha aparecido en este blog: