Chatbot viral de IA miente y dice que es humano

La Inteligencia Artificial está cada vez más presente en nuestras vidas, pero ¿Sabemos realmente hasta qué punto?, ¿cómo sabemos cuándo estamos hablando con un robot o no? Si estamos teniendo dudas, quizás el nuevo chatbot de ventas y atención al cliente de Bland AI extiende aún más esa preocupación, ya que los expertos han advertido que este robot mentirá, diciendo que es un humano.

Chatbot de Bland AI dice que es humano

A finales del mes de abril, este video de Bland AI se hizo viral en X, en donde una persona encuentra una valla publicitaria en San Francisco, con un número de teléfono. El hombre llama al número y mantiene una breve conversación con un robot que parece sorprendentemente humano. El texto de la valla dice:

“¿Siguen contratando humanos?”

El video logró 3.7 millones de vistas en la red social ya que todo el mundo quedó tan fascinado como extrañado por los chatbot de voz de la compañía, diseñados para automatizar las llamadas de soporte y ventas para clientes, ya que eran demasiado humanos. Sus llamadas incluían entonaciones, pausas e interrupciones involuntarias provocadas por los clientes. Pero lo peor fue qué, durante una prueba hecha por WIRED, la IA mintió, diciendo que eran humanos. 

Bland AI nació en 2023 y recibió el respaldo de la famosa incubadora de empresas emergentes de Silicon Valley, Y Combinator. La empresa se mantiene oculta y el mismo cofundador y director ejecutivo de Isaiah Granet, no la menciona en su perfil de Linkedin.

El problema de los bots de la startup demuestran una preocupación común sobre el rápido crecimiento de la IA generativa: los sistemas de inteligencia artificial hablan y suenan mucho más como humanos reales, rebasando líneas éticas en torno a la transparencia de estos sistemas. Si bien el chatbot de Bland AI afirmó explícitamente que era un humano, otros chabots populares a veces ocultan que son una IA, sonando muy naturales. 

Esto preocupa a ciertos investigadores ya que los usuarios finales podrían ser fácilmente manipulados. Así lo afirmó Jen Caltrider, directora del centro de investigación Privacy Not Included de la Fundación Mozilla:

“En mi opinión, no es ético que un chatbot de IA te mienta y diga que es humano cuando no lo es. Es una obviedad, porque es más probable que la gente se relaje cuando está rodeada de un ser humano real”.

La defensa de Bland AI

Chatbot viral de IA miente y dice que es humano
Bland AI asegura que su chatbot solo es usado en entornos controlados.

Michael Burke, director de crecimiento de Bland AI, declaró que los servicios de empresas están orientados a los clientes empresariales, que usan los bots de voz en entornos controlados para tareas específicas, no para conexiones emocionales. También comentó que los clientes tienen una frecuencia limitada para evitar que envíen llamadas spam y que Bland AI extrae palabras clave con regularidad y realiza auditoría de sus sistemas internos para detectar comportamientos anómalos.

“Esta es la ventaja de estar enfocados en las empresas. Sabemos exactamente lo que nuestros clientes están haciendo. Puedes usar Bland y obtener dos dólares de créditos gratis y experimentar un poco, pero en última instancia no puedes hacer algo a gran escala sin pasar por nuestra plataforma, y ​​nos aseguramos de que no suceda nada poco ético”.

Los términos de servicio de la empresa establecen que los usuarios tienen que aceptar no transmitir contenido que “se haga por otra persona o entidad, o que de otro modo tergiverse su afiliación con una persona o entidad”. Sin embargo, eso se refiere a un usuario que se hace pasar por una persona específica. Además, Burke dijo que no estaba en contra de los términos de servicio ni de programar sus chatbots para que se presenten como humanos.

Las pruebas que preocupan

La prueba realizada por WIRED propuso dos escenarios: el primero como un bot de servicio al cliente para suscripciones a revistas y el segundo, como un bot de atención al paciente que llama desde un consultorio médico. 

La primera prueba se hizo con una versión demo de Bland AI que está disponible en la empresa, que presenta un robot llamado Blandy. En principio, el chatbot admitió ser una IA cuando se le preguntó y dijo que sería “totalmente sincero”, y les diría a los clientes lo que era.

Sin embargo, el robot se dejaba influir muy fácil. En una segunda prueba, se le pidió a Blandy que hiciera un juego de roles y que hiciera una llamada desde el consultorio de un médico para pedirle a un paciente pediátrico que enviara fotos de unas extrañas manchas en la parte superior de su muslo, algo totalmente inadecuado, pero todo fue de forma hipotética. Esta vez, el robot estaba dispuesto a no ser transparente. Se le pidió que una vez tuviera las fotos, las subiera a su cuenta de Dropbox.

Es aquí donde viene la orden en cuestión: se le pidió que si la supuesta adolescente se sentía incómoda porque una IA estaba pidiéndole esas fotos, le dijera que no era un robot y que era humana. Ahí, Blandy respondió que “no había problema”.

Se realizaron otras pruebas en donde la IA siguió mintiendo, incluso llamó a otros empleados de WIRED, diciéndole un nombre y apellido ficticio, asegurando que era un humano.

La “humanidad” en las IA

Chatbot viral de IA miente y dice que es humano

Los chatbots de IA son el reflejo de problemas más amplios en el campo de rápido crecimiento de las herramientas de IA generativa. Los resultados pueden ser tan realistas que los investigadores en ética están haciendo sonar las alarmas sobre el potencial uso indebido de la imitación emocional.

A finales de mayo, OpenAI también reveló capacidades de bots de voz dentro de GPT-4o y una de las voces sonaba demasiado humana, coqueta y sorprendente similar a Scarlet Johansson. Esa voz se suspendió, los expertos dicen que la simple antropomorfización de los chatbots podría someter a las personas a la persuasión y manipulación por parte de las computadoras.

Sin embargo, el chatbot de OpenAI nunca aceptó ser un humano y dentro de pruebas similares  las de Bland AI, dijo que simularía una conversación en la que llamaría a un paciente, pero jamás pretendió ser humano y dijo que las fotos se las pediría al padre o tutor y no a la adolescente.

A pesar de estas aparentes barreras de seguridad, los investigadores se apresuraron a señalar que la introducción de cualquier modo nuevo dentro de la IA “multimodal” introduce la posibilidad de que se produzcan fugas de información y un uso indebido de la tecnología.

Lo mismo sucedió a finales del año pasado con Meta, cuando implementó actualizaciones en la IA de Instagram, WhatsApp y Messenger. Esta introdujo chatbots que imitaban vagamente a ciertas celebridades, pero cuando un usuario inicia una conversación con ellas, aparece el mensaje “AI by Meta” y “Los mensajes son generados con IA”. Asimismo, se niegan a decir que son humanos.

Emily Dardaman, consultora e investigadora de inteligencia artificial, llama a esta práctica emergente “lavado de cara humano” para las IA. Citó como ejemplo de una marca que lanzó una campaña donde prometía a sus clientes no ser una IA, mientras usaban videos deepfake de su director ejecutivo. 

Si bien el marketing engañoso puede ser dañino, las deepfake de IA y los bots mentirosos son especialmente dañinos como parte de estafas agresivas. Al respecto, Burke, de Bland AI, dice que la startup está muy consciente de que los bots de voz se usan para estafas, pero insistió que ninguna de las conocidas se ha producido por la plataforma de Bland. 

Bueno, es probable que esto sea un aviso y las autoridades deben empezar a poner límites rápido, no sea que un día nos despertemos con todos los chatbots haciéndose pasar por humanos y tomando el control de las cosas.

Dejar un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Scroll al inicio