sábado, junio 14, 2025
directora de Innovación Legal & Gestión del Conocimiento de Posse Herrera Ruiz

De todo lo que le han dicho sobre la IA no sé si le habían dicho que usar agentes de Inteligencia Artificial es como hacer una arepa un lunes a las 7:00 am.

Todos hemos puesto a asar una arepa en la mañana con el objetivo de que ésta se haga mientras tendemos la cama, nos bañamos y hacemos la maleta para ir a trabajar. Al final esa es la forma más eficiente de llegar a tiempo al trabajo con al menos una arepita en el estómago. ¿No? ¿A quién en esa titánica labor del “multitasking” no se le ha quemado la arepita más de una vez? Confieso que a mi me ha pasado en múltiples ocasiones y la frustración que me genera salir de la casa con olor a humo, sin mi arepa y con afán para llegar a trabajar, me hace pensar que habría sido mejor no haberla puesto a hacer en primer lugar o al menos haberlo hecho con el tiempo y el cuidado que requería para evitar que se quemara.

Hoy en día, los agentes de Inteligencia Artificial (IA) aplicados a los procesos de venta de productos y servicios son cada día más populares en las diferentes industrias. Esto es, sobre todo ante la presencia de herramientas como “Make” o “n8n” que hacen de la construcción de agentas de IA una tarea relativamente sencilla y al alcance de cualquier vendedor o empresa, pues no requiere de habilidades como programador para conseguir el resultado de automatización. Al respecto, vale la pena aclarar que, a diferencia de los chatbots de IA generativa como ChatGPT, que funcionan como herramientas para agilizar y, en algunos casos, mejorar la creación de contenido publicitario y otros insumos para ventas y mercadeo, los agentes de IA pueden automatizar de manera integral los flujos de venta y las estrategias publicitarias. Su principal diferencia recae en la autonomía que tiene el sistema de IA para operar. Los agentes virtuales de ventas, por ejemplo, sin la necesidad de intervención humana alguna, pueden: (i) tomar un listado de clientes potenciales, (ii) contactarlos mediante cualquier medio virtual (i.e. WhatsApp, LinkedIn, correo electrónico), (iii) negociar con el cliente mediante una conversación, (iv) según los términos negociados, construir un borrador de contrato, (v) enviarlo al cliente para su firma, (vi) tomar el documento contractual firmado por ambas partes y guardarlo en alguna base de datos, e (vii) emitir una orden de inicio de prestación del servicio o de envío del producto. Mientras tanto, los vendedores pueden dedicarse a otras labores menos operativas y no menos importantes como el contacto en persona de clientes, entre otras.

Entonces, el despliegue de un agente de IA como el descrito, al igual que con la “arepa del lunes a las 7:00 a.m.”, permite optimizar el tiempo de los asesores comerciales, incrementando su eficiencia al delegar parte de sus funciones a la automatización. Esta situación, en sí misma, no es ilegal ni necesariamente negativa; sin embargo, conlleva riesgos significativos. Esto se debe a que sería el agente virtual quien tomaría decisiones críticas —como fijar precios, establecer tiempos de entrega o definir condiciones del producto o servicio— sin supervisión humana. En este contexto, la búsqueda de eficiencia y el cumplimiento de metas comerciales pueden generar un riesgo inminente de que la operación pierda control, comprometiendo la calidad del servicio y la confianza del cliente. Es decir, “se puede quemar la arepa muy fácilmente” y sus consecuencias pueden implicar la responsabilidad contractual de la compañía en caso de que el asistente virtual se comprometa a términos imposibles de cumplir en la práctica con tal de cumplir con el objetivo de vender. De igual forma, la empresa se puede enfrentar a procesos de responsabilidad contractual en caso de que el asistente virtual haga un trato ofensivo o discriminatorio al cliente, porque su programación sea defectuosa o inclusive ser fuente de una brecha de seguridad que resulte en un ciberataque. Además, si la información que el asistente virtual le proporciona al cliente es incompleta, imprecisa o engañosa, la empresa estaría ante un escenario de responsabilidad ante las autoridades debido a una infracción del régimen de protección al consumidor. Inclusive, todos estos riesgos podrían llegar a materializarse de forma simultánea en una misma transacción.

Entonces, ¿qué hacer para evitar que la arepa se queme? Tanto las empresas como su personal de ventas y mercadeo deben ser muy consciente de estos riesgos y tomar medidas de prevención tales como: asesorarse de personal jurídico y técnico capacitado para asistir el proceso ya sea de desarrollo o compra de este tipo de herramientas. En esta labor, resulta indispensable que haya límites a la autonomía de los agentes y que en ese sentido se programen para hacer un alto antes de ejecutar tareas sensibles como la suscripción de un contrato. Además, debe existir una supervisión constante por parte de una persona responsable, quien ante la empresa asumirá la rendición de cuentas en caso de que se presente un incidente relacionado con el uso de IA. Este es solo uno de los muchos controles que pueden incorporarse dentro de un modelo de gobernanza de IA adaptado al contexto y las necesidades específicas de la organización. El objetivo es asegurar que el desarrollo, uso y despliegue de herramientas de IA —como los agentes inteligentes— se realice de forma ética, legal y responsable, sin renunciar a los beneficios y oportunidades que ofrece esta tecnología. Por el contrario, una transformación digital bien gobernada desde su origen permite maximizar el valor de la tecnología, anticipar consecuencias, mitigar riesgos y gestionar adecuadamente los costos asociados.

También le puede interesar: Sancho BBDO convierte el dicho "Es mejor antojar que dar papaya" en una campaña