Antes de avanzar con la nota, necesito que veas a este muchacho. Prometo hacer la lectura más amena después de esto:
Primero que nada, no, algunas personas son complicadas, más cuando desarrollan sentimientos hacia uno. Segundo, su frase muletilla en los videos es, irónicamente, algo que nos sucede con la IA, en todos los sectores de la economía del conocimiento. Me explico.
Es muy normal y natural que los alumnos de cualquier grado (primario, secundario, universitario) desarrollen aplicaciones o tareas usando ChatGPT o cualquier otra tool. Yo mismo uso ChatGPT. Ya está, es una herramienta y hay que usarla, como antes había que estudiar de los libros pero encontrábamos resúmentes en Google.
Sin embargo, me pasaba que, cuando bajaba el resumen del libro que tenía que leer (que eran aburridos como sentarse a esperar que Newell’s gane algo) y entregaba la tarea, realmente no entendía el razonamiento detrás de ese resumen. Es decir: leí la conclusión de un fundamento que no conocía, ni me interesaba conocer.
Exactamente lo mismo pasa con ChatGPT hoy por hoy. El problema no es nada nuevo pero está muy acentuado. Es simple pedirle a un modelo generativo que nos haga un resumen de un PDF que le se sube, pero es difícil, con eso solo, entender la motivación del autor. De hecho, esto es lo que me genera ChatGPT del resumen de esta nota terminada.
El autor reflexiona sobre el uso creciente de herramientas de inteligencia artificial como ChatGPT en el ámbito educativo y laboral, comparándolo con su experiencia escolar al usar resúmenes sin comprender el contenido original. Destaca que, aunque estas herramientas agilizan tareas como la escritura de textos o código, su uso sin entendimiento profundo puede ser riesgoso o llevar a resultados incorrectos. Subraya que el problema no es nuevo, pero sí más evidente hoy. Finalmente, plantea que el rol humano se orientará cada vez más a supervisar, filtrar y entender lo que producen estas IA, ya que aún no son totalmente confiables.
Sea usted una persona honesta: ¿puede hacerse, con ese resumen, una idea de cómo soy? ¿Qué me motiva? Lo dudo muchísimo.
No pasa sólo por lo literario: en código de aplicaciones también ocurre lo mismo. ChatGPT puede, sin problema, escribir las funciones que necesitamos. ¿Entendemos siempre el fundamento? En algún momento quise poner una condición para correr una bifurcación de un flujo de datos, pero ChatGPT dio opciones que, o bien eran obsoletas, o más bien contradictorias con el resto de la aplicación. Si no entendemos lo que estamos haciendo, un modelo generativo puede ser incluso hasta peligroso.
Sin lugar a dudas, generar código de una manera más rápida ayuda a acelerar tiempos, pero no es ni de cerca un ahorro de la mitad de tiempo a efectos prácticos. 20%, 25% quizás con mucha suerte.
Muchos de nuestros trabajos mutarán a filtrar los resultados de las herramientas generativas. Que sí, son cada vez mejores, en resultados y en consumo energético, pero mientras tanto, y hasta que sean totalmente fiables, hay que supervisarlas.