904 356-EMPLEOS (5627)

Logotipo de CareerSource para la NEFL

904 356-EMPLEOS (5627)

Logotipo de CareerSource para la NEFL

Las empresas están incorporando chatbots de inteligencia artificial a sus sitios web, lo que está generando algunas consecuencias no deseadas. (Cortesía del Jacksonville Business Journal) — Air Canada recientemente se encontró en apuros por información de reembolso errónea producida por su chatbot de inteligencia artificial, y un tribunal canadiense ordenó a la aerolínea pagarle a un cliente a quien se le negó un descuento por duelo.

La denegación se produjo tras las afirmaciones del pasajero de que un chatbot le había informado de que había un descuento disponible, lo que le llevó a comprar billetes. La empresa argumentó que no era responsable de las afirmaciones realizadas por el chatbot y que su política de tarifas por duelo era correcta en otra parte de su sitio web, afirmaciones que el tribunal rechazó.

En un incidente separado, una publicación viral en X (antes conocido como Twitter) a fines del año pasado describió cómo un usuario engañó a un chatbot de un concesionario Chevrolet para que prometiera vender un Tahoe nuevo por $1.

Los dos casos ponen de relieve cómo la inteligencia artificial puede producir algunas consecuencias no deseadas a medida que las empresas adoptan la tecnología de IA. Es por ello que los expertos legales instan a las empresas a tener cuidado antes de lanzarse a la IA.

En Estados Unidos, en particular, los expertos legales dicen que las empresas deben ser conscientes de que probablemente sean responsables de las afirmaciones realizadas por los chatbots de inteligencia artificial que implementan en sus sitios web, independientemente de que esas afirmaciones sean verdaderas o falsas.

“Las empresas estadounidenses son efectivamente responsables de los compromisos asumidos a través de chatbots en sus sitios web, de manera similar a cualquier otro canal de comunicación oficial”, dijo Beth Simone Noveck, directora del Centro Burnes para el Cambio Social y profesora de IA experiencial en la Universidad Northeastern de Boston.

Noveck dijo que la responsabilidad es la razón por la que es tan importante que las empresas capaciten, prueben y supervisen estos nuevos sistemas de IA. 

“La fusión de la IA con la supervisión humana es crucial para mantener tanto la precisión como la responsabilidad, protegiendo contra tergiversaciones que podrían engañar a los consumidores y vincular legalmente a la empresa”, dijo Noveck en un correo electrónico.

Esto se debe a que las empresas deben cumplir legalmente los compromisos que asumen y en los que se podría esperar razonablemente que un cliente confiara, un concepto antiguo con el que los sistemas de IA pueden toparse.

“Lo novedoso es que las empresas se están apresurando a adoptar una IA no entrenada ni probada para reducir sus costos, lo que potencialmente conduce a una degradación del servicio al cliente”, dijo Noveck.

Los desafíos de la IA continúan

El último giro en el uso de herramientas de IA se produce después de que la llamada "IA generativa" explotara en popularidad con el lanzamiento de ChatGPT de OpenAI en noviembre de 2022. La empresa rápidamente alcanzó los 100 millones de usuarios. Ahora, 100 millones de usuarios utilizan la plataforma semanalmente.

Otros sistemas de IA, como Gemini de Alphabet Inc., han proliferado rápidamente a medida que las empresas se apresuran a ingresar al mercado naciente.

Sin embargo, los sistemas de IA han mostrado un preocupante hábito de “alucinación”, en el que comparten con confianza información falsa. También han mostrado una propensión a ser coaccionados u obligados a dar determinadas respuestas. 

A pesar de lo nueva que es la tecnología de IA, los expertos coinciden: las empresas son responsables de lo que hay en sus sitios web, y eso incluye los chatbots a los que se accede a través de esos sitios.

“Un chatbot es básicamente una extensión de su sitio web”, dijo Ben Michael, abogado de Michael & Associates en Austin, Texas, en un correo electrónico. “No es diferente a tener información escrita disponible en su sitio web. Usted es responsable de las afirmaciones realizadas por escrito en un sitio web. La información de un chatbot no es diferente”.

Jerry Levine, asesor general de ContractPodAI y abogado de larga trayectoria en Nueva York, dijo que si bien la ley aún está evolucionando en torno a la IA, las empresas deben mantener sus sitios web actualizados y darse cuenta de que los clientes tratarán a sus chatbots como fuentes autorizadas. 

“Además, las organizaciones deben ser conscientes de que probablemente no podrán confiar en una defensa de 'No sabíamos lo que estaba haciendo el chatbot' (especialmente si está disponible públicamente en el propio sitio web de la empresa)”, dijo Levine en un correo electrónico. 

La participación humana sigue siendo importante

Levine dijo que las empresas deberían asegurarse de limitar el tipo de información que pueden proporcionar los chatbots y asegurarse siempre de que se indique la fuente de la información. Para cuestiones o problemas más complejos, dijo que las empresas deberían mantener un elemento humano de interacción.

“Si bien esta tecnología es muy beneficiosa, no compensa el valor de la supervisión humana, y una clave para que esta tecnología tenga éxito en general es que los humanos trabajen en colaboración con ella en lugar de depender únicamente de los resultados del chatbot”, dijo Levine.

Una encuesta realizada a 774 propietarios de negocios en línea y 767 clientes por la plataforma de chatbot y automatización Tidio reveló que el 88 % de los clientes había tenido al menos una conversación con un chatbot durante el año pasado. También reveló que el 62 % de los encuestados dijo que usaría un chatbot en línea para sus problemas, mientras que el 38 % esperaría a que un humano lo ayudara.

Además, el 19% de los propietarios afirmó que su empresa ya utiliza un chatbot; el 62% afirmó que planea incorporar un chatbot en el futuro. El 19% restante afirmó que no desea un chatbot.

Los expertos dicen que las empresas deben proceder con cautela cuando se trata de usar IA para reducir costos laborales, ya que hay varios factores importantes a considerar que trascienden el resultado final.

Muchas empresas están posponiendo la incorporación de la tecnología con la esperanza de que el panorama regulatorio se aclare.

El abogado Seth Price habló previamente con El libro de jugadas on Cómo implementar herramientas de IA en su propio lugar de trabajo