Julieta Lomelí Balver / @julietabalver
Queda claro que el desarrollo de la tecnología, de la Inteligencia Artificial y del conocimiento científico, crece exponencialmente respecto a cualquier otro tipo de o saber humanista.
La aplicación de nuevas tecnologías tanto al ámbito médico, industrial, social o cualquier otro que implique un impacto sobre lo humano, no ha podido ser reflexionado cabalmente por las narrativas éticas que deberían emerger a la par.
Todas estas lagunas “morales” pueden resultar beneficiosas para unos cuantos, sobre todo para quienes deseen no tener ninguna atadura o consecuencia legal sobre el uso de dichas tecnologías, sobre todo las referentes a la Inteligencia Artificial aplicada a grandes magnitudes poblacionales.
Magnitud que se expresa en un control por parte del estado, de algunas empresas o agentes que conocen y aprovechan los huecos legales -y la ignorancia ciudadana sobre el uso de su información privada-, para ir implementando poco a poco una distopía panóptica, ese gran ojo que, proveído por la IA, todo lo ve, todo lo sabe y entonces, en algún momento, estaría posibilitado a controlarlo todo.
Pero esta dinámica de la vigilancia total ha sido muchas veces vaticinada por la ciencia ficción, desde la narrativa multicitada de George Orwell, en su 1984, hasta las series más coloquiales que no dejan de “advertir”, en cierta medida, los riesgos que la cada vez más abismal distancia entre la ética y el rápido progreso tecnológico de la Inteligencia Artificial, consignan.
Para comprender el peligro, antes será necesario diferenciar entre la fantasía y la realidad de las amenazas, pensando seriamente qué prácticas actuales sí implican -por muy soterrado que sea- una violación a los derechos humanos y a las libertades, mismas que en el futuro anularán la esperanza y el optimismo en la Inteligencia Artificial, convirtiéndose, más bien, en una aterradora distopía.
China: el dragón dormido que despertó para controlarlo todo
Cada vez es más común escuchar la narrativa de lo que está sucediendo en China, una que, a nosotros occidentales, fieles del liberalismo y por supuesto, defensores del uso adecuado de nuestros datos privados, nos parece una película de terror.
En el país del “Dragón dormido” existe el llamado “sistema de crédito social”, mismo que vale la pena señalar, no es asunto novedoso, existe previo a la pandemia y a que Byung- Chul Han o Yuval Noah Harari pusieran el asunto de moda.
Dicho sistema es, en resumidas cuentas, una manera de comprobar qué tan confiables y honrados son los ciudadanos chinos por medio de un procedimiento de puntos que califica las acciones morales o inmorales, según los estándares del estado chino, lo cual puede restar o sumar puntos que ayuden a conseguir mejores empleos, mejores viviendas, mejores hipotecas, acceso a servicios de mayor calidad, a restaurantes VIP, y un montón de lujos a los que se puede acceder si te vuelves una persona de conductas inadmisibles, un hombre o mujer de valores contrarios al Partido Comunista Chino (PCCh), un activista opuesto al Estado, etcétera.
Pero ¿cómo es que el sistema de crédito social chino logra identificar a esos inmorales, “criminales” y ciudadanos inadaptados para cerrarles cualquier oportunidad de crecimiento económico, personal y social? Desde una mirada occidental, es lógico pensar que uno de los peores escenarios actuales en los que la Inteligencia Artificial se aleja de cualquier consideración humanista o ética, es la del caso chino y su recolección de datos privados de cada uno de sus ciudadanos. Escribe John C. Lennoxen 2084 al respecto que
“gran parte de este control se ejerce mediante el uso de técnicas de reconocimiento facial de IA avanzada que trabajan con una enorme base de datos de imágenes que llegan a un centro informático central desde lo que pronto serán millones de cámaras de vigilancia. The Times informó de que algunas empresas chinas colocan en los cascos de sus empleados una tecnología oculta que puede leer las ondas cerebrales y enviar los datos a un ordenador que usa la IA para detectar emociones como depresión, ansiedad o ira […] No es difícil ver que estos planes representan un hackeo masivo de seres humanos y están llevando al mundo a un ritmo bastante aterrador hacia la creación de la dictadura perfecta (potencialmente global), la creación de un autoritarismo ideal cuya ideología podría extenderse por el mundo como un virus y cuya legitimidad estaría asegurada gracias al sistema de vigilancia estatal más completo y poderoso de la historia. El sistema informático en la nube de la policía china está construido para vigilar a siete categorías de personas, incluyendo a aquellos que socavan la estabilidad. Parece que estamos ante un enorme problema ético oculto”.
John C. Lennox
Parece ser que el uso de IA puede incluso transgredir la privacidad de eso que creíamos que nadie podría saber, si no lo comunicabamos, o arrebatarnos si no lo expresabámos: el pensamiento silencioso, los afectos más privados, y la imaginación.
Resulta preocupante creer que es posible legitimar un diagnóstico asertivo del estado emocional o la salud mental de una persona a partir de la IA, y aunque fuera posible, estaríamos hablando de una total invasión y violación de la identidad personal. Sería como degradar el cuerpo humano a un objeto, pensarlo como si pudiera ser hackeado de la misma manera en que se hackea a una maquina, algo que claramente atenta contra la integridad y el respeto de lo más íntimo de cada individuo.
El hecho, escribe Lennox, de que esta creencia -que ha sido contradicha en variadas ocasiones por la evidencia científica- “de que los algoritmos de reconocimiento facial y la tecnología de detección de emociones aciertan en su diagnóstico sobre las emociones y actitudes”, tenga la posibilidad de coartar la dignidad y la oportunidad de millones de ciudadanos de tener las mismas oportunidades sociales, económicas y legales que el resto, es una realidad escalofríante. Pero más aterrador sería que dichas prácticas, en una arranque de locura mundial, sean puestas en práctica más allá de China.
Lennox publicó 2084 hace tres años, justo cuando el mundo atravesaba una de sus peores crisis sanitarias, y en el momento en el que el “país del dragón durmiente” hizo uso de todo el poder de la Inteligencia Artificial para “controlar”, antes que el resto del mundo, el contagio por el virus del SARS-CoV2. Sin embargo, ahora que parece vislumbrarse el final de la pandemia, no podemos asegurar a ciencia cierta los “resultados positivos” del uso de la IA china para detener, antes que el resto del mundo, los contagios y las muertes causadas por la Covid19.
No se puede, porque otro de los puntos criticables del uso autoritario de la IA en dicho país, es la censura, el ocultamiento y la opacidad con las que el estado chino manejó las cifras de fallecidos y enfermos durante la pandemia, divulgando siempre una única versión oficial, y arrestando e incluso desapareciendo a aquellos que contradecían los números del estado.
Dictaduras digitales vs. Democracias digitales
Aunque cada vez sea más notable el control y la vigilancia digital, debido al uso de la IA en todos los sectores, desde lo más cotidiano hasta la industria más compleja, la amenaza latente de convertirnos en dictaduras digitales, podría ser invertida por una ciudadanía más informada, una que, conociendo los riesgos y los mecánismos de la Inteligencia Artificial, sea capaz de empoderarse con dichas herramientas para construir democracias más solidas.
O como escribiría Yuval Noah Harari, “siempre que la gente hable de vigilancia habrá de recordar que la misma tecnología de vigilancia puede ser utilizada no sólo por los gobiernos para monitorear a las personas, sino por las personas para monitorear a los gobiernos”.
La Inteligencia Artificial no sólo puede ser utlilizada como un medio de control por parte del estado, sino que también -al menos en países occidentales en los que aún existen las libertades- puede ayudar a los ciudadanos a impulsar y exigir estados más transparentes, impulsando un liberalismo sólido, crítico, y sobre todo democrático.
Finalmente, la emergencia ética deberá ser prioritaria y atendida por los gobiernos que realmente tengan el interés y la vocación de ser también estados humanistas en los cuales se salvaguarde los derechos más esenciales. Porque el futuro del mundo no parece ser el futuro de la ética, y la IA corre acelerada y a pasos de gigante sin que nadie pueda detenerla. Y si la filosofía de la teconología, la étia y la bioética no logran caminar al lado del desarrollo teconocientífico, su papel quizá sólo se reducirá al ser, o la nueva ausente, o la Nueva Inquisición.