Esta historia apareció originalmente en The Algorithm, nuestro boletín semanal sobre IA. Regístrese aquí para recibir historias como esta en su bandeja de entrada primero.

Si bien EE. UU. y la UE pueden diferir en la forma en que regulan la tecnología, sus legisladores parecen estar de acuerdo en una cosa: Occidente debe prohibir la puntuación social impulsada por IA.

Tal como lo entienden, el puntaje social es una práctica mediante la cual los gobiernos autoritarios, particularmente China, califican la confiabilidad de las personas y las castigan por comportamientos indeseables, como robar o no pagar los préstamos. Esencialmente, se ve como una súper puntuación distópica asignada a cada ciudadano.

La UE está negociando actualmente una nueva ley llamada Ley AI, que prohibirá a los estados miembros y tal vez incluso a las empresas privadas implementar dicho sistema.

El problema es que «esencialmente prohíbe el aire enrarecido», dice Vincent Brussee, analista del Instituto Mercator para Estudios de China, un grupo de expertos alemán.

En 2014, China anunció un plan de seis años para construir un sistema que recompensa los actos que generan confianza en la sociedad y castiga a quienes hacen lo contrario. Ocho años después, se acaba de publicar un proyecto de ley que busca codificar los pilotos de crédito social anteriores y guiar la implementación futura.

Ha habido algunos experimentos locales controvertidos, como uno en la pequeña ciudad de Rongcheng en 2013 que otorgó a cada residente un valor de crédito personal inicial de 1000, que puede aumentar o disminuir según cómo se juzguen sus acciones. La gente ahora puede optar por no participar, y el gobierno local ha eliminado algunos criterios controvertidos.

Pero estos no han sido ampliamente adoptados en otros lugares y no se aplican a toda la población china. No existe un sistema de crédito social que abarque todo a nivel nacional con algoritmos que clasifiquen a las personas.

Como explica mi colega Zeyi Yang: «La realidad es que este horrible sistema no existe, y el gobierno central tampoco parece muy interesado en construirlo».

Lo que se ha implementado es en su mayoría bastante de baja tecnología. Es una «mezcla de intentos de regular la industria de préstamos financieros, permitir que las agencias gubernamentales compartan datos entre sí y promover valores morales sancionados por el estado», escribe Zeyi.

Kendra Schaefer, socia de Trivium China, una consultoría de investigación con sede en Beijing que elaboró ​​un informe sobre el tema para el gobierno de EE. UU., no pudo encontrar un solo caso en el que la recopilación de datos en China condujera a sanciones automáticas sin intervención humana. El South China Morning Post señaló que en Rongcheng, los «recolectores de información» humanos recorrieron la ciudad y anotaron las malas conductas de las personas con lápiz y papel.

El mito surge de un programa piloto llamado Sesame Credit, Desarrollado por la empresa de tecnología china Alibaba. Fue un intento de utilizar los datos de los clientes para evaluar la solvencia de las personas en un momento en que la mayoría de los chinos no tenían tarjetas de crédito, dice Brussee. El esfuerzo se fusionó con el sistema de crédito social en su conjunto en lo que Brussee describe como un «juego de susurros chinos». Y el malentendido cobró vida propia.

La ironía es que mientras los políticos estadounidenses y europeos presentan esto como un problema derivado de los regímenes autoritarios, Los sistemas que clasifican y castigan a las personas ya existen en Occidente. Los algoritmos para automatizar las decisiones se están introduciendo en masa y se utilizan para negar a las personas vivienda, trabajo y servicios básicos.

En Ámsterdam, por ejemplo, las autoridades utilizaron un algoritmo para clasificar a los jóvenes de barrios desfavorecidos según su probabilidad de convertirse en delincuentes. El objetivo es prevenir la delincuencia y proporcionar un apoyo mejor y más específico.

Pero en realidad, argumentan los grupos de derechos humanos, ha aumentado el estigma y la discriminación. Los jóvenes que terminan en esta lista se enfrentan a controles adicionales por parte de la policía, visitas domiciliarias por parte de las autoridades y un control más estricto por parte de los trabajadores escolares y sociales.

yoEs fácil resistirse a un algoritmo distópico que en realidad no existe. Pero a medida que los legisladores tanto de la UE como de los EE. UU. se esfuerzan por construir una comprensión común de la gobernanza de la IA, es mejor que miren a casa. Los estadounidenses ni siquiera tienen una ley federal de privacidad que proporcione algunas salvaguardas básicas contra la toma de decisiones algorítmica.

También existe una necesidad urgente de que los gobiernos realicen revisiones honestas y exhaustivas de cómo las agencias y las empresas utilizan la IA para tomar decisiones sobre nuestras vidas. Puede que no les guste lo que encuentran, pero eso hace que sea aún más importante que busquen.

Aprendizaje más profundo

Un bot que ha visto Minecraft durante 70.000 horas podría desbloquear el próximo gran avance de la IA

La firma de investigación OpenAI desarrolló una IA que procesó 70 000 horas de video de personas jugando Minecraft para jugar el juego mejor que cualquier IA anterior. Es un gran avance para una nueva técnica poderosa llamada aprendizaje por imitación, que podría usarse para entrenar máquinas para realizar una variedad de tareas al observar primero a los humanos. También aumenta el potencial de que sitios como YouTube puedan ser una fuente enorme y sin explotar de datos de capacitación.

Por qué es un gran problema: El aprendizaje por imitación se puede utilizar para entrenar la IA, controlar brazos robóticos, conducir automóviles o navegar por sitios web. Algunas personas, como el científico líder de IA de Meta, Yann LeCun, creen que ver videos eventualmente nos ayudará a entrenar una IA con inteligencia humana. Lea la historia de Will Douglas Heaven aquí.

bits y bytes

La juguetona IA de Meta puede hacer y deshacer alianzas como un humano

Diplomacy es un popular juego de estrategia en el que siete jugadores compiten por el control de Europa moviendo piezas en un mapa. El juego requiere que los jugadores hablen entre ellos y reconozcan cuando otros están mintiendo. La nueva IA de Meta llamada Cicero logró engañar a los humanos para que lograran la victoria.

Es un gran paso hacia la IA que puede ayudar con problemas complejos, p. B. planificar rutas alrededor del tráfico pesado y negociar contratos. Pero no mentiré: también es un pensamiento desconcertante que una IA pueda engañar a las personas con tanto éxito. (Revisión de tecnología del MIT)

Podríamos quedarnos sin datos para entrenar programas de lenguaje de IA

La tendencia de construir modelos de IA cada vez más grandes significa que necesitamos conjuntos de datos aún más grandes para entrenarlos. El problema es que es posible que no tengamos datos adecuados para 2026, según un artículo de investigadores de Epoch, una organización de investigación y pronóstico de IA. Esto debería impulsar a la comunidad de IA a encontrar formas de hacer más con los recursos existentes. (Revisión de tecnología del MIT)

Difusión estable 2.0 ya está aquí

La difusión estable de AI de texto a imagen de código abierto ha dado unagran lavado de cara, y sus resultados se ven mucho más elegantes y realistas que antes. incluso puedemanos. El ritmo de desarrollo de Stable Diffusion es impresionante. La primera versión se publicó recién en agosto. Es probable que veamos más avances en la IA generativa hasta bien entrado el próximo año.



DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí