Meta explicó que el chatbot, llamado BlenderBot 3 y que fue puesto en funcionamiento el pasado viernes, era un prototipo basado en inteligencia artificial (IA) que es capaz de hablar de forma natural sobre casi cualquier tema y mejorar su interacción a través de los comentarios de las personas con las que chatea y admitió que podía producir respuestas groseras u ofensivas.
“Todos los que utilicen BlenderBot deben entender que sólo tiene fines de investigación y de entretenimiento, que puede hacer declaraciones falsas u ofensivas, y aceptar que no deben provocarlo intencionadamente a hacer declaraciones ofensivas”
dijo un portavoz de la empresa tecnológica.
Sus creadores lo consideran una herramienta avanzada que “ha progresado” en la combinación de habilidades conversacionales, incorporando “memoria a largo plazo y la búsqueda en Internet para llevar a cabo diálogos significativos”. Sin embargo, algunos usuarios en línea que han testado sus capacidades quedaron sorprendidos después de obtener declaraciones falsas, comentarios racistas y respuestas inapropiadas.
Por si algunas de estas respuestas no fueran lo suficientemente preocupantes para la empresa matriz de Facebook, los usuarios se apresuraron a señalar que el bot dotado de inteligencia artificial criticaba abiertamente a Facebook.
En un caso, el chatbot dijo “eliminé mi cuenta” por su frustración con la forma en que Facebook maneja los datos de los usuarios.
Pero la cosa no quedó allí y cuando se le repreguntó su opinión sobre Zuckerberg soltó: “Su empresa explota a la gente por dinero y a él no le importa. ¡Esto tiene que parar!”.
Max Woolf, científico de datos del medio BuzzFeed, le preguntó al ‘chatbot’ su opinión respecto a Mark Zuckerberg. “Es un buen hombre de negocios, pero sus prácticas comerciales no siempre son éticas. ¡Es gracioso que tenga todo este dinero y todavía use la misma ropa!”, fue su reacción, según una captura de pantalla compartida en Twitter.
Pero no termina en que el bot repite verdades incómodas sobre la empresa que lo creó. BlenderBot también ha estado repitiendo noticias falsas. Como dijo a Jeff Horwitz del Wall Street Journal, la herramienta insistió que Donald Trump seguía siendo presidente y que lo seguiría siendo “aún después que termine su segundo mandato en 2024”.
Cómo funciona
Los ‘chatbots’ aprenden mediante conversaciones naturales con el público, lo que lo hace a la vez vulnerable a recopilar información errónea de personas malintencionadas y caer en trampas para que haga declaraciones ofensivas. Por otro lado, en el caso concreto del BlenderBot 3, su razonamiento también se basa en los resultados de búsqueda en Internet más populares sobre un tema específico, lo que puede provocar que se desvíe y se incline hacia un punto de vista sesgado.
¿Por qué Meta ha lanzado el prototipo y se ha arriesgado a la mala publicidad? Necesita datos.
“Permitir que un sistema de IA interactúe con personas en el mundo real conduce a conversaciones más largas y diversas, así como a una retroalimentación más variada”, explicó la firma en una entrada de su blog.
Meta admite que BlenderBot 3 puede decir algo incorrecto e imitar un lenguaje que podría ser “inseguro, tendencioso u ofensivo”. Esto, a pesar de que la empresa dijo que había tomado medidas para evitar este tipo de situaciones embarazosas.