Por ejemplo, Melanie Dawes, directora ejecutiva de Ofcom, que regula las redes sociales en el Reino Unido, ha dicho que las plataformas de redes sociales deben explicar cómo funciona su código. Y la ley de servicios digitales recientemente aprobada por la Unión Europea, acordada el 23 de abril, también obligará a las plataformas a ofrecer transparencia sobre los algoritmos. En los EE. UU., los senadores demócratas presentaron propuestas para una Ley de responsabilidad algorítmica en febrero de 2022. Su objetivo es brindar una nueva transparencia y control sobre los algoritmos que impulsan nuestros horarios y fuentes de noticias y más.

En teoría, permitir que el algoritmo de Twitter sea visible para otros y personalizable por los competidores significa que alguien podría simplemente copiar el código fuente de Twitter y publicar su propia versión renombrada. Gran parte de Internet se ejecuta en software de código abierto; el más conocido es OpenSSL, un conjunto de herramientas de seguridad utilizado por gran parte de la World Wide Web que sufrió una importante brecha de seguridad en 2014.

Incluso ya hay ejemplos de redes sociales de código abierto. Mastodon, una plataforma de microblogging creada debido a las preocupaciones sobre el dominio de Twitter, es de código abierto y permite a los usuarios ver el código publicado en el repositorio de software GitHub.

Pero ver el código detrás de un algoritmo no necesariamente le dice cómo funciona, y ciertamente no le da a la persona promedio mucha información sobre las estructuras comerciales y los procesos que intervienen en su creación.

«Es un poco como tratar de comprender a las criaturas antiguas usando solo material genético», dice Jonathan Gray, profesor titular de estudios de infraestructura crítica en el King’s College de Londres. «Nos dice más que nada, pero sería una exageración decir que sabemos cómo viven».

Tampoco existe un único algoritmo que impulse a Twitter. «Algunos de ellos determinarán lo que la gente ve en términos de tendencias, contenido o episodios propuestos en sus líneas de tiempo», dice Catherine Flick, investigadora en informática y responsabilidad social en la Universidad De Montfort en Leicester. Los algoritmos en los que la gente estará principalmente interesada son los que controlan qué contenido se muestra en las líneas de tiempo de los usuarios, pero incluso eso no será muy útil sin los datos de entrenamiento.

«La mayoría de las veces, cuando se habla de la responsabilidad algorítmica en estos días, nos damos cuenta de que los algoritmos en sí mismos no son necesariamente lo que queremos ver; lo que realmente queremos es información sobre cómo se desarrollaron», dice Jennifer Cobbe, investigadora asociada postdoctoral. de la Universidad de Cambridge. Eso se debe en gran parte a las preocupaciones sobre los algoritmos de IA que perpetúan los sesgos humanos en los datos en los que están entrenados. Quién desarrolla algoritmos y qué datos utilizan pueden marcar una diferencia significativa en los resultados que producen.

Para Cobbe, los riesgos superan los beneficios potenciales. El código de computadora no nos da una idea de cómo se entrenaron o probaron los algoritmos, qué factores o consideraciones se incluyeron en ellos, o qué cosas se priorizaron en el proceso.

Por lo tanto, la apertura de su algoritmo podría no marcar una diferencia significativa en la transparencia de Twitter, y podría introducir algunos riesgos de seguridad significativos.

Las empresas a menudo publican sus evaluaciones de impacto en la privacidad, que examinan y prueban los sistemas para identificar debilidades y fallas. Cuando se descubren, se solucionan, pero los datos a menudo se redactan para evitar riesgos de seguridad. Al abrir los algoritmos de Twitter, todo el código base del sitio sería accesible para todos, lo que podría permitir a los atacantes analizar el software y encontrar vulnerabilidades para explotar.

“No creo ni por un momento que Elon Musk considere todo el lado de la infraestructura y la seguridad de código abierto de Twitter”, dijo Eerke Boiten, profesor de ciberseguridad en la Universidad De Montfort en Leicester.

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí