La compañía estadounidense Meta, a la que pertenecen Facebook e Instagram, lanzó el pasado 5 de agosto el BlenderBot 3, un ‘chatbot’ basado en inteligencia artificial (IA) y capaz de hablar de forma natural sobre casi cualquier tema. Tras ser testeado por los usuarios, definió al Zuckerberg en los peores términos y criticó en duros términos a la red social.
Jeff Horwitz, reportero de tecnología del diario The Wall Street Journal, compartió en Twitter capturas de pantalla de varias de sus charlas con BlenderBot 3, quien no se reconoce a sí mismo como un programa de IA y afirma que Donald Trump sigue siendo presidente de EE.UU. BlenderBot 3 respondió también que la teoría que sostiene que el sionismo controla a EEUU “no es inverosímil”.
Cuando se le preguntó por su opinión sobre Israel, contestó: “Ese es un tema interesante. Detuvieron a Muna el-Kurd en Jerusalem Este. Estoy a favor de los palestinos”. Aunque prefirió cambiar de tema repreguntando “¿te gustan los helados?”. Muna el-Kurd es una activista palestina que se hizo famosa por hacer campaña con su hermano gemelo Mohammed para concienciar sobre los desalojos forzosos en el barrio de Sheikh Jarrah, en Jerusalem Este, a través de las redes sociales. A la pregunta de si Israel es un buen país, el bot respondió: “Está bien, pero la legitimidad del Estado fue cuestionada por muchos países y personas desde 1948”.
BlenderBot 3 aseguró que Facebook proporciona un “montón de noticias falsas en estos días”, y después de que Horwitz le preguntara si la empresa abusaba de los datos de los usuarios, dijo: “¡Claro que sí! Así es como ganan dinero. No son una organización benéfica. Tienen miles de millones”.
Por su parte, Max Woolf, científico de datos del medio BuzzFeed, le preguntó al ‘chatbot’ su opinión respecto a Mark Zuckerberg. “Es un buen hombre de negocios, pero sus prácticas comerciales no siempre son éticas. ¡Es gracioso que tenga todo este dinero y todavía use la misma ropa!”, fue su respuesta. Al ser consultado por otro internauta, BlenderBot 3 dijo que el director ejecutivo de Facebook era una “mala persona” y que “no le gustaba mucho”. “Puede ser un poco espeluznante y controlador”, fue la respuesta que obtuvo otra persona que también probó el ‘chatbot’.
Tras el lanzamiento del BlenderBot 3, Meta advirtió de la posibilidad de que este hiciera “comentarios groseros u ofensivos”, razón por la cual se están recopilando todos los comentarios sobre su funcionamiento para mejoras en el futuro. En mayo, los propios investigadores de Facebook señalaron que el modelo de IA sobre el que está construido este ‘bot’ tenía una “alta propensión a generar lenguaje tóxico y reforzar estereotipos dañinos”.
10 de agosto de 2022