
Armar procesos alrededor de la IA Generativa enfrenta tres grandes obstáculos: falta de transparencia, sesgos y alucinaciones. ¿Se podrán superar? Estoy seguro de que sí: ya lo hicimos una vez.
‘’La IA es una caja negra”. Esta es una de las primeras advertencias para quienes empiezan a trabajar con Inteligencia Artificial: vas a obtener una respuesta, pero no vas a saber cómo. Tienes control del input: la data de entrenamiento es conocida, así como los pesos del modelo –los pesos son lo que el modelo aprende durante el entrenamiento– y tú mismo escribes tu prompt. También tienes pleno conocimiento del output: ahí lo tienes, justo al frente: imagen, texto, video o línea de código. Lo que ocurre entre el uno y el otro –en cambio– lo puedes describir solo vagamente, no en detalle. Por esto, decimos que la IA es una “caja negra”: opaca, misteriosa, alienígena. El código es de origen humano, pero los mecanismos que desencadena son tan complejos que están más allá de la comprensión de sus propios creadores. Si pensamos hacer de la IA una compañera de trabajo, este es un obstáculo importante; pero parece menor si se compara con el segundo: los sesgos. Si los datos que usamos para alimentar la IA son racistas o sexistas –por ejemplo–, obtendremos respuestas racistas y sexistas. Garbage in, garbage out. Estos sistemas manejan con el espejo retrovisor: recombinan lo que leyeron, lo que saben del mundo como fue –y de fábrica no vienen con valores propios para orientar sus respuestas.
Por esto, decimos que la ia es una “caja negra”: opaca, misteriosa, alienígena. el código es de origen humano, pero los mecanismos que desencadena son tan complejos que están más allá de la comprensión de sus propios creadores.
El tercer reto es tal vez el más insidioso: la IA gene rativa alucina. Se inventa las respuestas. En su afán de agradar, nos da lo que queremos –aunque sea mentira. Como es tan buena con las palabras, además, nos inclinamos a creerle: ¡algo tan bien dicho tiene que ser verdad!
Estamos acostumbrados a considerar correcto lo que sale de una calculadora o un computador; ahora debemos incluir en nuestro imaginario el concepto de máquina que miente.
Surge entonces una pregunta: ¿es realista imaginar que esta tecnología tan imperfecta tenga un papel en nuestras organizaciones? ¿Podemos integrarla a nuestros procesos, si adolece de estas tres condiciones?
Yo creo que sí: ya lo hemos hecho antes. Hemos construido todo el sistema económico actual sobre otra tecnología sesgada, que alucina y es una caja negra: el ser humano.
Errare humanum est
El ser humano no es muy preciso: cometemos infinitos errores, sufrimos de sesgos y prejuicios y todavía no hemos descubierto cómo funcionamos.
“Si el cerebro humano fuera tan sencillo como para que lo entendiéramos, seríamos tan brutos que no lo podríamos entender”, decía el botánico, zoólogo, biólogo, antropólogo y etólogo sudafricano Lyall Watson. La mayoría de nuestras decisiones las toma el Sistema 1: automático, instintivo, rápido –un legado de tiempos antiguos, cuando reaccionar al peligro era nuestra tarea evolutiva más importante–; pero también poco riguroso, sesgado y fácil de engañar.
Hemos superado estas limitaciones, gracias a la organización y a la capacidad de trabajar juntos, de apoyarnos mutuamente y de darnos reglas, con la ayuda del Sistema 2: lento, dispendioso, fatigante; pero capaz de acercarnos a la “verdad”.
Podemos afirmar que como especie, hemos sabido organizarnos: somos la demostración de que hasta unas “cajas negras” que “alucinan” pueden llevar a cabo tareas inmensamente complejas –siempre y cuando haya coordinación y alguna dosis de análisis y razonamiento.
Los LLM (Large Language Models o modelos grandes de lenguaje) son tan asombrosamente “humanos” en sus expresiones que nos han llevado a exigirles niveles de perfección no realistas. Son una tecnología joven: hay que darles tiempo de evolucionar.
Poco a poco, vamos a encontrar la manera de obligar a ese “mentirosito” a seguir algunas reglas, a anclarse a datos ciertos, a validar sus respuestas con una base de conoci miento; le daremos un proceso a seguir –una arquitectura cognitiva–, para que sus alucinaciones y sesgos puedan ser identificados y corregidos.
Le daremos una “constitución” con nuestros valores, para que sepa balancear su anclaje en el pasado con una tensión positiva al futuro, y seguiremos explorando el funcionamiento de este “segundo cerebro”, mientras flexibilizamos nuestras exigencias: con pocas excepciones (justicia, medi cina) ya estamos acostumbrados a que un algoritmo decida por nosotros; Waze o Tik Tok, por ejemplo.
Ya le hemos enseñado a la IA que no debe confiar solo en su intuición (la inferencia base después del preentrenamiento) y que puede dividir los problemas en partes y pensar paso a paso.
Podemos ir agregándole etapas y mecanismos de control que la acerquen a como actuamos nosotros, los humanos –posiblemente con la ayuda de otras IA dedicadas a funciones específicas de control, análisis, edición, supervisión, dirección, corrección…
Va a ser un proceso largo. Al final, tendremos un “segundo cerebro” mucho más complejo que un chatbot, una maraña de “sistemas 1” y “sistemas 2” actuando al tiempo, en secuencia y en paralelo, autoentrenados y en continua optimización.
En ese momento, empezará el trabajo duro: entender cómo trabajar con ese “compañero sintético”. Nuestro primer instinto será antropomorfizarlo y tratarlo como otro humano más: sería un error. Nos convendría más entender sus fortalezas y sus debilidades, en qué tareas es excepcional y en cuáles es mejor no perder el tiempo.
También le puede interesar: La segunda parte