Cuando vas bajando por la pantalla de tus redes sociales, o permites que tu app de música seleccione la playlist perfecta, quizá sientas que la inteligencia artificial mejora tu vida porque aprende sobre tus preferencias y cubre tus necesidades. Pero detrás de esta fachada de conveniencia hay una preocupación creciente: la de los perjuicios de los algoritmos.
No son perjuicios obvios ni inmediatos. Van acumulándose con el paso del tiempo mientras los sistemas de IA van silenciosamente tomando decisiones sobre tu vida sin que te enteres siquiera. El poder oculto de estos sistemas se está convirtiendo en un riesgo significativo para la privacidad, la igualdad, la autonomía y la seguridad.
Los sistemas de IA ya están presentes en casi todas las facetas de la vida moderna. Te sugieren películas y series, ayudan a los empleadores a decidir a quién contratar, e incluso influye en jueces que deciden quién califica para una sentencia. Pero ¿qué sucede cuando estos sistemas que a menudo se ven como neutrales, empiezan a tomar decisiones que ponen en desventaja a grupos determinados, o – peor todavía – causan daños en el mundo real?
A menudo se pasan por alto las consecuencias de las aplicaciones de la IA en referencia a los marcos regulatorios que podrían ayudar a seguirle el paso a esta tecnología que evoluciona tan rápidamente. Estudio la intersección de la ley y la tecnología, y he diseñado un marco legal justamente para eso.
Uno de los aspectos más impactantes de los perjuicios de los algoritmos es que su impacto acumulativo suele volar bajo el radar. Esos sistemas por lo general no atacan tu privacidad o autonomía de forma directa como para que lo puedas percibir. Suelen recoger enorme cantidad de datos sobre las personas – sin que lo sepan – y usar esos datos para que tomemos decisiones que nos afectan.
Puede tratarse de cosas menores, como la publicidad que te persigue en diversos sitios web. Pero a medida que la IA opera sin ocuparse de estos perjuicios reiterados, la cosa puede escala, y el daño acumulativo en grupos de personas puede volverse significativo.
Te están estudiando
Piensa en el ejemplo de los algoritmos de las redes sociales. Ostensiblemente están diseñados para promover interacciones sociales beneficiosas. Pero detrás de esa fachada que parece beneficiosa, silenciosamente van rastreando tus clicks y van formando un perfil de tus creencias políticas, preferencia sprofesionales y vida personal. Los datos recogidos se usan en sistemas que luego toman decisiones importantes, como identificar si te consideran para un empleo, o si corres riesgo de cometer suicidio.
Su diseño adictivo atrapa a los adolescentes, y eso causa problemas a la salud mental como la ansiedad, la depresión, el daño a sí mismo. Para cuando logras percibir su alcance ya es demasiado tarde, porque los algoritmos ya han formado tus oportunidades sin que lo sepas.
Creo que hay cambios que ayudarían a que se evalúen obligatoriamente los impactos de los algoritmos, requiriendo que las compañías documenten y resuelvan los daños inmediatos y acumulativos ala privacidad, autonomía, equidad y seguridad, como por ejemplo cuando las compañías utilizan sistemas dme reconocimiento facial. Ottro cambio beneficioso sería el de fortalecer los derechos individuales en el uso de sistemas de IA para que la gente pudiera elegir si desea o no que se procesen sus datos en las aplicaciones.
Creo también que es importante que quienes hacen políticas, quienes toman decisiones en los tribunales, quienes desarrollan tecnología y la sociedad civil en general reconozcan los perjuicios legales de la IA. Se requieren no solo mejores leyes sino priorizar los derechos civiles y la justicia ante el rápido avance tecnológico.
Este artículo ha sido traducido de Gizmodo US por Lucas Handley. Aquí podrás encontrar la versión original.