Un análisis de 630 mil millones de palabras publicadas en línea sugiere que las personas tienden a pensar en los hombres cuando usan términos neutrales en cuanto al género, un sesgo sexista que los modelos de IA podrían aprender

tecnología


1 de abril de 2022

EJEX1N definición de la palabra gente en el diccionario

Las palabras inclusivas utilizadas en los textos en línea aún pueden estar sesgadas

Agata Gladykowska/Alamy

Cuando las personas usan palabras de género neutral como «gente» y «humanidad», es más probable que piensen en hombres que en mujeres, lo que refleja el sexismo presente en muchas sociedades, según un análisis de miles de millones de palabras publicadas en línea. Los investigadores detrás del trabajo advierten que este sesgo sexista se transmite a modelos de inteligencia artificial entrenados en el mismo texto.

April Bailey de la Universidad de Nueva York y sus colegas usaron un algoritmo estadístico para analizar una colección de 630 mil millones de palabras contenidas en 2,96 mil millones de páginas web recopiladas en 2017, incluido texto informal de blogs y foros de discusión, así como texto más formal, escrito por los medios y corporaciones y gobiernos, principalmente en inglés. Utilizaron un enfoque llamado incrustación de palabras, que infiere el significado previsto de una palabra a partir de la frecuencia con la que aparece en contexto con otras palabras.

Descubrieron que palabras como «persona», «gente» y «humanidad» se usan en contextos que se asemejan más al contexto de palabras como «hombre», «él» y «masculino» que palabras como «mujer». , «ella». » y tu». El equipo dice que debido a que estas palabras de género se usaron de manera más similar que las que se refieren a los hombres, un reflejo de la sociedad dominada por los hombres, las personas podrían verlas como más masculinas en su significado conceptual. Tomaron en cuenta el hecho de que los autores masculinos pueden estar sobrerrepresentados en su conjunto de datos y encontraron que esto no afectó el resultado.

Una pregunta abierta es cuán dependiente es esto del inglés, dice el equipo: otros idiomas, como el español, contienen referencias de género explícitas que podrían alterar los resultados. El equipo tampoco consideró las identidades de género no binarias ni diferenció entre los aspectos biológicos y sociales del sexo y el sexo.

Según Bailey, no sorprende encontrar evidencia de sesgo sexista en inglés, ya que estudios previos han demostrado que palabras como «científico» e «ingeniero» también se consideran más relacionadas con palabras como «hombre» y «masculino» que con «mujer». ‘ y ‘mujer’. Sin embargo, dice que esto debería ser motivo de preocupación, ya que la misma colección de textos rastreados por esta investigación se utilizará para entrenar una variedad de herramientas de inteligencia artificial que heredarán este sesgo, desde sitios web de traducción de idiomas hasta herramientas de conversación: Bots.

«Aprende de nosotros y luego nosotros aprendemos de él», dice Bailey. «Y estamos en una especie de bucle recíproco en el que lo reflejamos de un lado a otro. Es preocupante porque sugiere que si chasqueara los dedos ahora y mágicamente me deshiciera del sesgo cognitivo individual de todos de considerar a una persona como hombre en lugar de mujer, todavía tendríamos ese sesgo en nuestra sociedad porque está integrado en la IA. herramientas.»

Referencia de la revista: avances científicosDOI: 10.1126/sciadv.abm2463

Más sobre estos temas:

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

2 × 4 =