Videos de ajedrez bloqueados por YouTube porque creyó que “blanco y negro” eran expresiones racistas
Los sistemas de inteligencia artificial (IA) a veces no son tan sesudos como procuran ser. En el pasado fuimos testigos de desconcertantes fallas de esas tecnologías, por ejemplo cuando en Instagram los mecanismos automáticos para detectar desnudos confundieron una tarta con un pezón de mujer.
Recientemente, en Facebook censuraron un anuncio que tenía una foto de cebollas porque la IA consideró que era un cuerpo desnudo. Antes, en 2018, los sistemas automatizados de Facebook eliminaron una publicación con extractos de la Declaración de Independencia de Estados Unidos por considerar que contenía discurso de odio.
Ahora, un estudio revela que el algoritmo de YouTube bloqueó videos de ajedrez porque creyó que las referencias “blanco contra negro” eran expresiones racistas.
Investigadores de la Universidad Carnegie Mellon, en Pensilvania, Estados Unidos, analizaron los motivos por los que un popular canal de ajedrez en YouTube fue bloqueado el año pasado por supuestamente incluir “contenido dañino y peligroso”. La conclusión fue que el sistema de inteligencia artificial de la plataforma revisó las conversaciones en los videos, encontró frases como “blanco contra negro” (evidentes referencias a las piezas del juego) y catalogó ese contenido dentro de los discursos de odio.
Las conclusiones del estudio se presentaron esta semana en la conferencia “Association for the Advancement of AI”.
Los detalles del hallazgo
En junio de 2020, el canal de YouTube que gestiona el ajedrecista croata Antonio Radic (conocido por su alias Agadmator) fue bloqueado mientras presentaba un video con el maestro de la disciplina Hikaru Nakamura. En primera instancia, Google no explicó las razones de la decisión. El canal fue restablecido luego de 24 horas y Radic sospechó que las referencias a las fichas del juego habían sido los detonantes del bloqueo.
Tal como explican en The Idependent, la moderación de YouTube es mixta: la hacen humanos y algoritmos. La confianza en las máquinas genera, en ocasiones, fallas como las que ocurrieron con el canal de ajedrez.
“Si confían en la inteligencia artificial para detectar el lenguaje racista, este tipo de accidentes pueden suceder”, dijo uno de los investigadores del Instituto de Tecnologías del Lenguaje, de la mencionada universidad estadounidense. Para corroborarlo, el científico filtró casi 700.000 comentarios en canales de YouTube centrados en el ajedrez.
Después de revisar manualmente una selección de 1.000 comentarios que la inteligencia artificial de YouTube había clasificado como discursos de odio, encontraron que el 82% de ellos habían sido clasificados erróneamente debido al uso de palabras como “negro”, “blanco”, “ataque” y “amenaza”, terminología usual en el juego de mesa.