El desafío que viene: algoritmos para programar un futuro más justo

El uso de la tecnología no supone, necesariamente, una mejora en la vida de la gente. ¿Cómo paliar las desigualdades que, en ocasiones, la falta de seguridad provoca en determinados grupos sociales?

a

Solemos creer que las nuevas tecnologías están diseñadas para hacer la vida más fácil a la gente y que la intervención institucional resulte más justa. Sin embargo, lo que a menudo se consigue es la consolidación de desigualdades ya existentes y el recrudecimiento de la discriminación hacia ciertos grupos sociales. Esto es aún más probable si tenemos en cuenta la cantidad de productos y servicios novedosos y atractivos que llegan desde las élites empresariales del sector tecnológico, compuestas en su práctica totalidad por hombres blancos y ricos que monopolizan las listas de consejeros ejecutivos en las grandes corporaciones, de oradores en los principales congresos sobre tecnología y de expertos y asesores. Una estructura tóxica donde los grupos desfavorecidos carecen de voz en la toma de decisiones.

Una de las manifestaciones más cruciales del diseño discriminatorio se presenta con el incremento del uso de algoritmos. Hemos empezado a familiarizarnos con ellos conforme ha aumentado su presencia en los titulares y en el debate público, y sabemos que nos ayudan a acotar resultados de búsqueda, seleccionan la publicidad que recibimos y nos recomiendan amistades. Su alcance, sin embargo, va más allá. Actualmente, los algoritmos ya son capaces de indicarle a la policía qué área patrullar; a los jueces, qué penas imponer; a los corredores de bolsa, cuándo comprar o vender. En un futuro no muy lejano recurriremos a ellos para resolver casi cada aspecto de la vida: les dirán a los vehículos autónomos cuándo frenar; a los profesores, qué niños pueden ser más difíciles de educar; y, a los médicos, a qué pacientes tratar o ignorar en el hospital.

Ahora bien, los algoritmos no toman decisiones de manera completamente autónoma. Hay gente que se encarga de su diseño para que puedan analizar grandes conjuntos de datos y producir información basándose en resultados previos. Es precisamente en este proceso donde se abren posibilidades de discriminación hacia ciertos grupos: en los prejuicios intrínsecos de los diseñadores, en la utilización de conjuntos de datos erróneos o en la consideración de factores arbitrarios o inadecuados como elementos importantes. Todo ello afecta a la vida real. Un buen ejemplo serían los algoritmos de reconocimiento facial que se utilizan en Estados Unidos y que se equivocan al identificar a personas negras al menos dos veces más que cuando se trata de personas blancas, incrementando así las probabilidades de incriminar a una persona negra inocente.

Puede que resulte aún más difícil identificar los prejuicios inherentes a los algoritmos cuando se automatice su creación y aplicación para los sistemas de aprendizaje de las máquinas, ya que es probable que quienes apliquen los algoritmos ignoren los datos y los procesos utilizados para llegar a una conclusión determinada. Como solución, se ha propuesto exigir más transparencia y una mayor rendición de cuentas en el empleo de los algoritmos. Sin embargo, el verdadero problema aquí no es la transparencia algorítmica, pues no mucha gente es capaz de reconocer a simple vista cuál es la función de los mismos. Como mínimo, sería necesario explicar los datos de los que se alimenta el algoritmo y las conclusiones a las que se pretende llegar, además de los resultados obtenidos a lo largo del tiempo.

Algoritmos y protección de datos para las élites

En muchos ámbitos aún no han empezado a tomarse las medidas necesarias para protegernos de la amenaza del llamado chovinismo tecnológico —también conocido como technochauvinism o la creencia de que la tecnología es siempre la solución a todos los problemas—. Las desigualdades resultan particularmente perjudiciales en el apartado de la ciberseguridad, en el que las carencias en ciertas tecnologías y en cierta información pueden tener efectos devastadores sobre colectivos desfavorecidos. Resulta evidente, por ejemplo, en la identificación que gobiernos represivos y grupos homófobos realizan de aquellos usuarios que descargan o utilizan aplicaciones asociadas a la comunidad LGTBIQ.

Una seguridad digital insuficiente supondrá, como cabe de esperar, filtraciones de información constantes. Los gobiernos, en lugar de analizar la manera en que esas filtraciones afectan a los individuos y buscar el modo de atenuar sus efectos, están adoptando una postura que contribuirá a que estas aumenten. Los líderes políticos de todo el mundo, también en Europa, han puesto en la diana los procesos de encriptado de datos que protegen la información al ser transmitida o almacenada, y lo hacen con el (hipotético) propósito de asegurarse el acceso a las comunicaciones entre delincuentes —aunque hasta ahora ninguna de las soluciones propuestas haya resultado efectiva—. De esta manera, los gobiernos están limitando los niveles de seguridad que las empresas pueden ofrecer a los usuarios.

El resultado será la intensificación de las desigualdades existentes: los grupos de población desfavorecidos —es decir, los que más se beneficiarían de la democratización de la seguridad— son quienes acabarán utilizando los productos menos fiables. En la proliferación de leyes que limiten el encriptado de datos, las comunicaciones dejarán de ser seguras para individuos LGTBIQ en Arabia Saudí —donde la homosexualidad se castiga con la pena capital— o para activistas en Rusia —donde las críticas contra el gobierno se juzgan como extremismo—. Allí donde las voces amenazadas vieron en productos como WhatsApp o Signal una forma de protección, los mandatos gubernamentales podrían acabar con ella. La seguridad solo estaría al alcance de aquellos que pudieran permitirse—y supieran utilizar— herramientas y servicios alternativos, operativos mediante software libre o en otras jurisdicciones.

RGPD: un paso en la dirección correcta

El Reglamento Europeo General de Protección de Datos (RGPD) —que entró en vigor el 25 de mayo del 2018— ha supuesto un avance en muchas de estas cuestiones. Plantea, por ejemplo, un «derecho a la explicación» para garantizar que a todo sujeto interesado se le informe de los algoritmos empleados en las decisiones que le conciernen. Aún no conocemos cómo se aplicará ese derecho en los tribunales, pero deja entrever cierto progreso y cierta esperanza a la hora de que el usuario pueda acceder a la información necesaria para descubrir en beneficio de qué o de quién se emplean determinados algoritmos.

Otro aspecto positivo del reglamento es que las empresas están obligadas a informar de las filtraciones de datos siempre que haya «un alto riesgo para los derechos y libertades del interesado». Los términos están sujetos a interpretación pero, lo que en este caso se propone, es que las notificaciones ya no sirvan exclusivamente para ofrecer información a los poderes financieros, de los cuales depende actualmente gran parte de la legislación sobre avisos de filtraciones. Quizás, cuando estos principios estén operativos, conozcamos por primera vez el verdadero número de filtraciones de datos que se producen. Hay a quien parece preocuparle que esto nos conduzca a una especie dehartazgo de notificaciones —un escenario en el que los usuarios reciben tantas notificaciones que optan por no hacer nada al respecto—, pero aún así puede que la situación mejore sustancialmente.

La Unión Europea tiene la oportunidad de convertirse en líder global en el ámbito de la seguridad tecnológica si aprueba medidas que beneficien a la población mundial. El RGPD es un gran comienzo, pero carece del alcance suficiente en todas las áreas. Por ejemplo, pese a hacer referencia a la encriptación hasta en cinco ocasiones, puede que este reglamento no baste para protegerla, si tenemos en cuenta el énfasis con que los líderes políticos europeos intentan minarla.

La vigilancia debe ser constante e inquebrantable. La tecnología se desarrolla rápidamente y, aunque las nuevas normas y leyes tecnológicamente neutrales resulten bienintencionadas, su desarrollo aún puede acarrear circunstancias imprevistas que pongan en peligro los derechos humanos.

Necesitamos anticiparnos para proteger a los sectores más vulnerables y desfavorecidos de la población, por no decir a todo el mundo. Las propias comunidades deberían desempeñar un papel importante en el diseño de las políticas que abrirán los caminos del futuro y esforzarse pordominar aquella tecnología que ya forma parte habitual del presente. Dada la importancia, cada vez mayor, de los algoritmos y la ciberseguridad —por no mencionar el internet de las cosas y los avances en inteligencia artificial—, es fundamental apoyar y asegurar el desarrollo de voces capaces de desvelar planteamientos ocultos antes de que se descontrolen en una espiral sin retorno.

A medida que el futuro nos traiga tecnologías más poderosas, debemos prepararnos para asumir una nueva noción de responsabilidad que garantice que no estamos generando de manera inconsciente infraestructuras capaces de insertar en la sociedad actual prácticas discriminatorias hacia ciertos grupos. Dedicar una financiación adecuada a la protección legal y generar una regulación robusta que observe formas significativas de protección de los derechos humanos tal vez sea la única manera de frenar la llegada de una fatídica distopía tecnochovinista.

 

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión /  Cambiar )

Google photo

Estás comentando usando tu cuenta de Google. Cerrar sesión /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión /  Cambiar )

Conectando a %s

A %d blogueros les gusta esto: