La IA no puede. La IA es culpable. O eso repetimos cada vez que algo sale mal.
Decimos que no piensa, que no entiende, que inventa, que falla, que nos vuelve dependientes. Después, con la misma facilidad, la acusamos de arruinar procesos, empobrecer oficios, deformar profesiones y banalizar el conocimiento. La tratamos como una herramienta cuando conviene, y como una responsable moral cuando necesitamos un culpable.
Pero la IA no deja de ser eso: una herramienta. Una herramienta nueva, sí. Extraña, sí. Más conversacional, más envolvente, más capaz de interpelarnos. Pero herramienta al fin.
Lo verdaderamente discutible no es lo que la IA hace. Lo discutible es lo que nosotros decidimos hacer con ella. Nuestras elecciones. Nuestra pereza. Nuestra ansiedad por acelerar. Nuestra fantasía de que una interfaz que responde puede reemplazar criterio, experiencia o responsabilidad.
También aparecen los puristas. Los que dicen que el vibe coding no es programar. Que es riesgoso. Que no sirve. Y quizás, en parte, tengan razón. Pero esa crítica, por sí sola, aporta poco. Porque un experto también puede diseñar mal, decidir mal, producir basura y construir sistemas frágiles. La incompetencia no nació con la IA. La irresponsabilidad tampoco.
Entonces tal vez la pregunta no sea cuán culpable es la IA de nuestras decepciones. Ni cuánto daño le hace a nuestros estándares ideales. Tal vez la pregunta más incómoda sea otra: qué tan preparados estamos para tomar decisiones cuando la herramienta ya no solo ejecuta, sino que responde, sugiere, conversa y hasta parece entendernos.
La IA no vino a resolver el problema del criterio. Vino a exponer su ausencia.
Y eso molesta.
Porque es más fácil decir “la IA no puede” que admitir que muchas veces nosotros tampoco sabemos muy bien qué estamos haciendo. Es más fácil acusarla de todos los desvíos que revisar nuestras expectativas, nuestras prácticas y la forma en que proyectamos con ella.
No se trata de absolver a la IA. Se trata de dejar de usarla como coartada.