Así que estoy de acuerdo contigo en tu primera pregunta. Que los políticos en realidad deberían definir las barandillas, pero no creo que tengan que hacer eso para todo. Creo que tenemos que elegir las áreas que son más sensibles. La UE los ha etiquetado como de alto riesgo. Y tal vez podríamos tomar algunos modelos de eso para ayudarnos a pensar sobre qué es un alto riesgo y dónde deberíamos pasar más tiempo y quizás los responsables de la formulación de políticas, ¿dónde deberíamos pasar tiempo juntos?

Soy un gran admirador de los entornos limitados regulatorios en lo que respecta al codiseño y la coevolución de retroalimentación. Uh, tengo un artículo en un libro de prensa de la Universidad de Oxford sobre un sistema de calificación basado en incentivos del que podría hablar en un momento. Pero por otro lado, también creo que todos ustedes deben tener en cuenta su riesgo reputacional.

A medida que avanzamos hacia una sociedad mucho más avanzada digitalmente, los desarrolladores también deben hacer su debida diligencia. Como empresa, no puede permitirse el lujo de publicar un algoritmo que cree que es la mejor idea o un sistema autónomo que cree que es la mejor idea y luego terminar en la portada del periódico. Porque eso afecta la confiabilidad de su producto por parte de sus consumidores.

Y lo que digo, ya sabes, ambas partes, es que creo que vale la pena una conversación en la que tengamos ciertas medidas de seguridad en lo que respecta a la tecnología de reconocimiento facial porque no tenemos el rigor técnico cuando se aplica a todos los datos demográficos. Cuando se trata de diferentes impactos en productos y servicios financieros. Hay grandes modelos que he encontrado en mi trabajo en la industria bancaria donde en realidad tienen disparadores porque tienen reguladores para ayudarlos a comprender qué proxies en realidad tienen diferentes efectos. Hay áreas en las que acabamos de ver esto en el mercado de la vivienda y la tasación, donde la IA se usa para reemplazar la toma de decisiones subjetiva, pero contribuye más al tipo de discriminación y tasaciones depredadoras que estamos viendo. Hay casos específicos en los que realmente necesitamos que los legisladores impongan barandillas, pero lo más importante, que sean proactivos. Les digo a los políticos todo el tiempo que no se puede culpar a los científicos de datos. Cuando las fechas son terribles.

antonio verde: Derecha.

Nicole Turner-Lee: Poner más dinero en investigación y desarrollo. Ayúdenos a crear mejores conjuntos de datos que estén sobrerrepresentados en ciertas áreas o subrepresentados en relación con las minorías. Lo principal es que tiene que trabajar en conjunto. No creo que vayamos a tener una buena solución a menos que los políticos realmente lideren esto o los científicos de datos lo lideren ellos mismos en ciertas áreas. Creo que realmente se necesita gente trabajando junta y trabajando junta para descubrir cuáles son esos principios. Creamos estos modelos. las computadoras no. Sabemos lo que hacemos con estos modelos cuando creamos algoritmos, sistemas autónomos o segmentación de anuncios. ¡Sabemos! En esta sala no podemos cruzarnos de brazos y decir que no entendemos por qué estamos usando estas tecnologías. Lo sabemos porque en realidad tienen un precedente de cómo se propagaron en nuestra sociedad, pero necesitamos algo de responsabilidad. Y eso es realmente lo que quiero decir. ¿Quién nos hace responsables de estos sistemas que creamos?

Es tan interesante, Anthony, que muchos de nosotros hemos estado observando el conflicto en Ucrania durante las últimas semanas. Mi hija, debido a que tengo 15 años, se me acercó con una variedad de TikToks y otras cosas que ha visto decir: «Oye, mamá, ¿sabías que esto sucede?» Y tuve que retroceder, porque Realmente me metí en la conversación sin saberlo de ninguna manera una vez que caminé por ese camino con ella. Voy más y más y más profundo en este pozo.

antonio verde: Sí.

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí