Twitter estudiará «Daños no intencionales» de su algoritmo

Twitter estudiará «Daños no intencionales» de su algoritmo

La iniciativa tiene como objetivo garantizar la «equidad y justicia» de los resultados del algoritmo, afirma Twitter

Twitter ha introducido un nuevo movimiento en toda la empresa llamado “Iniciativa de aprendizaje responsable de Machinle” para estudiar si sus algoritmos causan daños no intencionales.

Según el sitio de microblogging, la iniciativa busca garantizar «la equidad y la justicia de los resultados» cuando la plataforma utiliza el aprendizaje automático para tomar sus decisiones, una medida que se produce cuando las plataformas de redes sociales continúan enfrentando críticas por prejuicios raciales y de género amplificados por sus algoritmos. .

La compañía dijo que también busca permitir una mayor transparencia sobre las decisiones de la plataforma y cómo llega a ellas, al tiempo que proporciona una mejor agencia y elección de algoritmos a sus usuarios.

Twitter señaló que sus algoritmos de aprendizaje automático pueden afectar a cientos de millones de tweets por día, y agregó que «a veces, la forma en que se diseñó un sistema para ayudar podría comenzar a comportarse de manera diferente a la prevista».

Dijo que el objetivo de la nueva iniciativa es estudiar estos cambios sutiles y utilizar el conocimiento para construir una mejor plataforma.

Cambios

En los próximos meses, el equipo de ML Ética, Transparencia y Responsabilidad (META) de la compañía planea estudiar el sesgo racial y de género en su algoritmo de recorte de imágenes.

Esto se produce después de que varios usuarios señalaron el año pasado que las fotos recortadas en las líneas de tiempo de las personas parecen elegir automáticamente mostrar los rostros de las personas blancas sobre las personas con pigmentación de piel más oscura.

El equipo también está programado para realizar un análisis de recomendaciones de contenido para usuarios de diferentes ideologías políticas en siete países.

Twitter dijo que sus investigadores también realizarían un análisis de equidad de las recomendaciones de la línea de tiempo de Home en todos los subgrupos raciales.

“El equipo de META trabaja para estudiar cómo funcionan nuestros sistemas y utiliza esos hallazgos para mejorar la experiencia que la gente tiene en Twitter”, señaló la compañía.

Agregó que sus investigadores también están creando soluciones de aprendizaje automático explicables que pueden ayudar a los usuarios a comprender mejor los algoritmos de la plataforma, qué les informa y cómo afectan el feed de Twitter.

Según la plataforma de microblogging, los hallazgos de estos estudios pueden ayudar a cambiar Twitter al ayudar a eliminar algoritmos problemáticos o ayudar a construir nuevos estándares en sus políticas de diseño cuando hay un impacto enorme en comunidades particulares.