¡Suscribite al newsletter!
A ver muchachos, esto es muy simple: la inteligencia artificial nos va a reemplazar a unos cuantos. ¿Cuánto? ¿Qué tan rápido? Si fuera por los modelos, estamos ahí nomás: confío más en ChatGPT 4.0 (caro, medio insulso) que en una pasante que tuvimos en una empresa hace unos cuantos años (cara, también media insulsa). Le puedo tirar un Excel y pedirle un análisis del mismo, o si hacemos bien las cosas, puedo pedirle a un agente que le “pegue” a una API para que actualice la info a un sistema con Excels.
No nos engañemos: esto ya es posible. No le voy a ganar a un análisis rápido a una inteligencia artificial. Creo que es contra mi propia supervivencia aconsejar a alguien a pensar que le puede ganar a una IA, si no, desde ya, le diría “amigate, aceptala rápidamente, y aprendé a usarla de maneras ingeniosas”.
Sin embargo, hay tres cosas de las cuales todavía no podemos estar demasiado convencidos como para adoptarla masiva y productivamente a entornos corporativos:
- Su costo
- El producto que define
- La privacidad
Del primero de los temas no voy a hablar en estas líneas, porque ya lo hice acá. Charlemos de los otros dos.
¿Dijiste un niño? Esto entendí
Sobre lo segundo, quiero frenar sobre un hecho familar que sucedió hoy mismo. Le saqué una foto a la hermana de mi novia y a su hijo. La foto, blurreada por motivos de privacidad, es la siguiente:

Y lo que ha devuelto ChatGPT, con el mismo prompt que usaba para generar imágenes de amigos para ello, es este:

CONFUNDIÓ A MI SOBRINO CON UN PERRO.
¿Podemos entonces pensar en usar modelos “normales” para tareas cotidianas con total y completa seguridad? Creo que estamos bastante lejos.
También podemos usar modelos caros que hagan mejor nuestra tarea, pero pierde todo el sentido.
¿Qué es esto? ¿Me lo puedo robar?
No tengo una fuente on the record de lo que voy a decir ahora, así que por favor no pienses en esto como algo cierto. Sin embargo, es un puterío “off the record” en sistemas.
Se dice que cierta empresa de entretenimiento, muy grande, tuvo un problema de seguridad. ¿Qué tan grande?
El problema consistió en que un muchacho, un pequeño niño que trabajaba en “cierta empresa de sistemas”-
-“Qué empresa de sistemas?”
-Una muy ladri, querido lector.
-“Vas a tener que ser más específico Martín”
-No que me clavan alto juicio
-ejem, un niño subió todo el código de la aplicación de este cliente a GitHub en un repositorio público, en lugar de los privados de la empresa.
¿Qué pasó? Que alguien, en las primeras versiones de GitHub Copilot, tuvo acceso a todo ese código. Claro, esa “primitiva” inteligencia artificial se alimentaba de las cosas públicas, por lo cual ese código “saltaba” en sugerencias que le daba a otros usuarios de la herramienta.
Alguien en la empresa de sistemas se enteró, y lo rajaron. El cliente nunca supo nada.
Ok, te pido que desconfíes de mí. Pensá que soy un tarado que habla sin pruebas, porque en definitiva eso es lo que estoy haciendo.
Poné las manos en el fuego porque alguien no haya subido información confidencial a ChatGPT de su empresa o del lugar donde trabaja, a sabiendas que ChatGPT se entrena con esa información.
Veo que tus manos siguen sanas. Y no, no te estoy espiando, tranquila persona que lee, aunque harías bien en tapar la camarita.
¿Vos pensabas que ChatGPT se entrenó legalmente? ¿O cómo te parece que entiende lo que es un dibujo de “Studio Ghibli”? Tenemos serios problemas de privacidad, que se resuelven muy fácilmente: poniendo guita y pagando el alojamiento del modelo.
¿Ah, que no hay plata para eso? Mirá vos. Dale, seguí usándola gratis. Total, ¿qué es lo peor que puede pasar? ¿Que te quedes sin laburo?