La SIC establece recomendaciones para páginas web con acceso al público, para evitar prácticas de webscraping
febrero 19, 2024Investigadores del NIST sugieren precedente histórico para investigación ética de IA
febrero 21, 2024Entre el 2022 y 2023, Transport for London (TfL), que opera la red de metro de Londres, probó 11 algoritmos para monitorizar la gente que pasaba por la estación de metro de Willesden Green, a través de la tecnología de Visión Artificial, es un tipo de IA que funciona detectando objetos y personas en imágenes y videos. Durante el ensayo, los algoritmos entrenados para detectar ciertos comportamientos o movimientos se combinaron con imágenes de la estación de metro de 20 años de antigüedad, así como imágenes de CCTV existentes, algoritmos de IA, y modelos para detectar patrones de comportamiento, analizar el lenguaje corporal e inferir características especificas
Propósito de la prueba
El propósito es que le pueda proporcionar al personal de la estación información y notificaciones sobre el movimiento y el comportamiento de los ciudadanos, y que puedan responder a cualquier situación más rápidamente. También, están buscando estrategias para evitar la evasión del pago de tarifa, al año pierden 130 millones de euros.
Algunos hallazgos
-Marcaba a los niños que seguían a sus padres a través de las barreras de boletos, como posibles evasores de tarifas
-La detección de objetos y la detección de conducta son generalmente bastante frágiles y no son infalibles.
-Se quiso incluir actos de agresión, pero encontró que era inviable detectarlos con éxito.
-Se identificó evasores de tarifas con una alta precisión.
– Casos de 300 alertas al día de personas que no pagaban tarifa.
Problemas de Privacidad
-No es claro si las personas sabían sobre el ensayo, lo cual supone un problema de consentimiento, y confianza , falta de transparencia y consulta pública.
-Estos sistemas de vigilancia podrían ampliarse fácilmente en el futuro con software de reconocimiento que intenta identificar individuos específicos.
-Se generan cuestionamientos sobre que tipo de conjuntos de datos se están utilizando para detectar agresiones o crímenes
-Muchos de estos sistemas se están desarrollando en situaciones en las que faltan leyes específicas que regulen su uso.
-Hay escepticismo acerca de si los sistemas de aprendizaje automático se pueden utilizar para detectar de manera confiable la agresión o simplemente esté replicando los sesgos sociales existentes acerca de qué tipo de comportamiento es aceptable en los espacios públicos.
– Por último, el uso de un algoritmo para determinar si alguien es «agresivo», va en contra las directrices de la ICO de la prohibición de de usar tecnologías de análisis de emociones
¿Que pasó con los datos?
-Durante todas las pruebas, las imágenes de los rostros de las personas se difuminaron y los datos se conservaron durante un máximo de 14 días.
-Seis meses después del inicio del proyecto decidieron desenfocar las imágenes de los rostros cuando se sospechaba que las personas no pagaban las tarifas
Categorías que el sistema trató de identificar
-Movimiento de multitudes, acceso no autorizado, salvaguarda, asistencia a la movilidad, crimen y conducta antisocial, persona en las vías, personas heridas, peligros como pisos con basura, o húmedos, artículos sin vigilancia, evasión de tarifas.
Les recomiendo estas dos fuentes donde abordan con mayor detalle la noticia, una de Arstechina y otra de Wired.