El estudio proporciona la evidencia más reciente de que Facebook no ha resuelto sus problemas de discriminación publicitaria desde que ProPublica sacó a la luz el problema por primera vez en octubre de 2016. En este punto, ProPublica anunció que la plataforma permitía a los anunciantes de trabajo y vivos excluir a ciertas audiencias caracterizadas por rasgos como el género y la raza. Dichos grupos reciben protección especial bajo la ley de los Estados Unidos, lo que hace que esta práctica sea ilegal. Pasaron dos años y medio y varias disputas legales antes de que Facebook finalmente eliminara esta función.

Unos meses más tarde, el Departamento de Vivienda y Desarrollo Urbano de EE. UU. (HUD) presentó una nueva demanda alegando que los algoritmos de entrega de anuncios de Facebook seguían excluyendo al público objetivo de los anuncios de apartamentos sin que el anunciante especificara la exclusión. Un equipo de investigadores independientes, incluido Korolova, dirigido por Muhammad Ali y Piotr Sapieżyński de la Northeastern University, confirmó estas afirmaciones una semana después. Por ejemplo, descubrieron que las casas en venta se mostraban con mayor frecuencia a los usuarios blancos y las casas en alquiler se mostraban más a menudo a los usuarios minoritarios.

Korolova quería volver a examinar el tema con su última auditoría, ya que la carga de la prueba es mayor para la discriminación en el lugar de trabajo que para la discriminación en la vivienda. Si bien cualquier variación en la visualización de anuncios debido a las Características de la propiedad protegida es ilegal, la legislación laboral de los EE. UU. Considera que está justificada si la variación se basa en diferencias de habilidades legítimas. La nueva metodología controla este factor.

“El diseño del experimento es muy limpio”, dice Sapieżyński, que no participó en el último estudio. Si bien algunos podrían argumentar que los vendedores de automóviles y joyas en realidad tienen diferentes calificaciones, las diferencias entre la entrega de pizza y la entrega de comestibles son insignificantes. “Estas diferencias de género no se pueden explicar por diferencias de género en habilidades o falta de habilidades”, agrega. «Facebook ya no puede decir eso [this is] legalmente justificable. «

La publicación de esta auditoría es parte de una mirada más cercana al sesgo de inteligencia artificial de Facebook. En marzo, MIT Technology Review publicó los resultados de una investigación de nueve meses realizada por el equipo de IA responsable de la empresa que descubrió que el equipo, fundado en 2018, no había trabajado en temas como la amplificación algorítmica de la desinformación y la polarización debido a su IA intermitente. parcialidad. La compañía publicó una publicación de blog poco después en la que destacaba la importancia de este trabajo, y decía específicamente que, como parte de nuestro trabajo continuo y más amplio de examinar la equidad algorítmica en los anuncios, Facebook está tratando de “identificar posibles errores que afecten a nuestro sistema de anuncios para poder comprender mejor. «

«Hemos tomado medidas importantes para abordar los problemas de discriminación en los anuncios, y los equipos ahora están trabajando en la equidad de los anuncios», dijo el portavoz de Facebook, Joe Osborn, en un comunicado. «Nuestro sistema tiene en cuenta muchas señales para mostrar los anuncios que más les interesan, pero entendemos las preocupaciones planteadas en el informe … Seguimos trabajando estrechamente con la comunidad de derechos civiles, reguladores y académicos en estos importantes asuntos».

Sin embargo, a pesar de estas afirmaciones, Korolova dijo que no vio ningún cambio significativo en la forma en que funcionaron los algoritmos de entrega de anuncios de Facebook entre la auditoría de 2019 y esa auditoría. «Desde esa perspectiva, es realmente decepcionante porque les llamamos la atención hace dos años», dice. También se ha ofrecido a trabajar con Facebook para resolver estos problemas, dice. «No escuchamos nada de vuelta. Al menos para mí no nos alcanzaron».

En entrevistas anteriores, la empresa declaró que debido a las disputas legales en curso, no pudo discutir los detalles de cómo estaba trabajando para mitigar la discriminación algorítmica en su servicio de publicidad. El equipo de publicidad dijo que su progreso se vio limitado por desafíos técnicos.

Sapieżyński, que ahora ha realizado tres auditorías de la plataforma, dice que esto no tiene nada que ver con el problema. «Facebook aún tiene que reconocer que hay un problema», dice. Mientras el equipo resuelve los problemas técnicos, también hay una solución simple: podrían desactivar la orientación algorítmica de anuncios específicamente para anuncios de viviendas, empleos y préstamos sin afectar el resto del servicio. Realmente es solo una cuestión de voluntad política, dice.

Christo Wilson, otro investigador del noreste que estudia el sesgo algorítmico pero que no ha participado en la investigación de Korolova o Sapieżyński, está de acuerdo: “¿Con qué frecuencia los investigadores y periodistas tienen que encontrar estos problemas antes de que simplemente aceptemos que todo el sistema de focalización de anuncios está en quiebra? ? «

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí