FA/CMR
El nuevo petróleo que no se extrae de la tierra, es data. Así lo afirma Kai-Fu Lee, un famoso científico informático. La data alimenta eso que conocemos como Inteligencia Artificial (IA). HENRY FARRELL, profesor de Asuntos Internacionales en la Universidad Johns Hopkins.ABRAHAM NEWMAN, profesor de Gobierno en la Escuela de Servicio Exterior de la Universidad de Georgetown.
JEREMY WALLACE, Profesor Asociado de Gobierno en la Universidad de Cornell, son los autores de un revelador texto publicado en Foreign Affairs bajo el título “
Espirales de ilusión: Cómo la IA distorsiona la toma de decisiones y hace que los dictadores sean más peligrosos”
Los tres académicos consideran que mantener la discusión de la Inteligencia Artificial sobre si China o Estados Unidos son o no los líderes en una carrera permanente, pierde sentido, porque dejamos de ver lo más relevante y es como la IA está transformando la política global.
Señalan Farrel, Newman y Wallace que “La IA no transformará tanto la rivalidad entre potencias como transformará a los propios rivales. Estados Unidos es una democracia, mientras que China es un régimen autoritario, y el aprendizaje automático desafía a cada sistema político a su manera. Los desafíos a las democracias como la de Estados Unidos son demasiado visibles. El aprendizaje automático puede aumentar la polarización: la reingeniería del mundo en línea para promover la división política. Ciertamente aumentará la desinformación en el futuro, generando discursos falsos convincentes a gran escala. Los desafíos a las autocracias son más sutiles pero posiblemente más corrosivos. Así como el aprendizaje automático refleja y refuerza las divisiones de la democracia, puede confundir a las autocracias, creando una falsa apariencia de consenso y ocultando las fisuras sociales subyacentes hasta que sea demasiado tarde”
Resulta verdaderamente interesante ver cómo los autores asocian el sistema de aprendizaje de la Inteligencia Artificial, lo que denominan un sistema cibernético, que responde y se adapta a la retroalimentación, con la forma también como funcionan tanto la democracia como el autoritarismo.
Sostienen por ejemplo que “Facebook y Google utilizan el aprendizaje automático como motor analítico de un sistema de autocorrección, que actualiza continuamente su comprensión de los datos dependiendo de si sus predicciones tienen éxito o no”
Pero también según los profesores Farrel, Newman y Wallace tanto en la democracia como en el autoritarismo, los gobiernos promulgan políticas y luego tratan de averiguar si estas políticas han tenido éxito o han fracasado. En las democracias, los votos y las voces brindan una poderosa retroalimentación sobre si un enfoque dado realmente está funcionando. Históricamente, los sistemas autoritarios han tenido muchas más dificultades para obtener buenos comentarios”
Pero eso era antes de la era de la información. “Ahora, advierten los académicos, el aprendizaje automático está alterando las formas tradicionales de retroalimentación democrática (voces y votos) a medida que las nuevas tecnologías facilitan la desinformación y empeoran los sesgos existentes, tomando los prejuicios ocultos en los datos y transformándolos con confianza en afirmaciones incorrectas. Mientras tanto, para los autócratas …tal tecnología puede decirles a los gobernantes si a sus súbditos les gusta lo que están haciendo sin la molestia de las encuestas o los riesgos políticos de los debates abiertos y las elecciones. Por esta razón, muchos observadores se han preocupado de que los avances en IA solo fortalecerán la mano de los dictadores y les permitirán controlar aún más sus sociedades”
Concluyen los autores que “Los países democráticos pueden descubrir que, cuando se trata de IA, el desafío clave del siglo XXI no es ganar la batalla por el dominio tecnológico. En cambio, tendrán que lidiar con países autoritarios que se encuentran en medio de una espiral de engaño alimentada por IA…Los datos pueden ser el nuevo petróleo, pero pueden contaminar en lugar de mejorar la capacidad de un gobierno para gobernar.”