POR DE KAI /
La casi implosión de OpenAI, laboratorio líder mundial en el floreciente campo de la Inteligencia Artificial (IA), reveló un conflicto dentro de la organización, y de la comunidad en general, sobre la velocidad a la que debe avanzar la tecnología y también sobre si desarrollarla de manera más lenta ayudaría a hacerla más segura.
Este planteamiento del problema omite la pregunta crucial sobre el tipo de inteligencia artificial que aceleramos o desaceleramos.
Es complicado encontrar argumentos en contra del desarrollo de las inteligencias artificiales, por ejemplo, en el campo de la traducción de idiomas. Reducir los malentendidos entre culturas tal vez sea una de las cosas más importantes que puede hacer la humanidad para sobrevivir a la polarización geopolítica cada vez mayor.
Sin embargo, la IA también tiene un lado oscuro. Muchas de las técnicas sobre procesamiento del lenguaje natural y aprendizaje automático con fines benéficos se utilizan en las redes sociales y los motores de búsqueda para amplificar la polarización en los prejuicios y la desinformación de un modo que plantea cada vez más amenazas existenciales para la democracia. En fechas recientes, a medida que la Inteligencia Artificial se ha vuelto más poderosa, hemos visto cómo la tecnología ha llevado las ciberestafas a un nuevo nivel con voces deepfakes (o ultrafalsas) de supuestos colegas o seres queridos que son utilizadas para robar dinero.
Las inteligencias artificiales manipulan a la humanidad. Y están a punto de ejercer un poder todavía más inconcebible para manipular nuestro inconsciente, algo que apenas se ha insinuado con los grandes modelos lingüísticos como ChatGPT. El momento Oppenheimer es real.
Sin embargo, el dilema de “velocidad versus seguridad” no es lo único que nos distrae de las cuestiones importantes, y que oculta las amenazas reales que se ciernen sobre nosotros.
Uno de los pasos clave en los círculos de seguridad de la inteligencia artificial es la “alineación de la IA”, la cual se centra en el desarrollo de métodos para alinear las inteligencias artificiales con los objetivos de la humanidad. Hasta el caos reciente, Ilya Sutskever y Jan Leike, jefes de investigación sobre alineación de OpenAI, codirigían un programa sobre “superalineación” que intenta resolver una pregunta sencilla, pero de una complejidad significativa: “¿Cómo podemos garantizar que unos sistemas de inteligencia artificial cumplan los objetivos humanos?”.
No obstante, en la alineación de la IA, una vez más, hay un asunto evidente con el que no queremos lidiar.
Alineación… ¿con qué tipo de objetivos humanos?
Desde hace tiempo, los filósofos, los políticos y las poblaciones han luchado con las disyuntivas espinosas entre los distintos objetivos. ¿Gratificación instantánea a corto plazo? ¿Felicidad a largo plazo? ¿Evitar la extinción? ¿Libertades individuales? ¿Bien colectivo? ¿Límites a la desigualdad? ¿Igualdad de oportunidades? ¿Grado de gobernabilidad? ¿Libertad de expresión? ¿Seguridad frente a discursos perjudiciales? ¿Grado de manipulación admisible? ¿Tolerancia de la diversidad? ¿Imprudencia admisible? ¿Derechos versus responsabilidades?
No hay un consenso universal sobre estos objetivos, mucho menos sobre asuntos todavía más detonantes como los derechos a las armas, los derechos reproductivos o los conflictos geopolíticos.
De hecho, la saga de OpenAI demuestra ampliamente cuán imposible es alinear los objetivos, incluso entre un grupo diminuto de líderes de este laboratorio estadounidense. ¿Cómo es posible que la Inteligencia Artificial se alinee con todos los objetivos de la humanidad?
Si este problema parece obvio, ¿por qué la alineación de la IA tiene tanto peso en la comunidad tecnológica? Es probable que se deba a que el paradigma del modelo dominante en la inteligencia artificial es definir una función matemática que sirva de “función objetivo”, es decir, un objetivo cuantitativo o un norte que deba buscar la IA. En todo momento, el cerebro artificial de una IA toma miles, millones o incluso miles de millones de pequeñas decisiones para maximizar la consecución de este objetivo. Por ejemplo, un estudio reciente mostró cómo una IA médica que busca automatizar una fracción de la carga de trabajo de las radiografías de tórax detectó el 99 por ciento de todas las radiografías de tórax anormales, una cantidad superior a la de los radiólogos humanos.
Por lo tanto, los investigadores de la Inteligencia Artificial deben estar muy atentos a plantear todo en términos de la maximización de una función objetivo. Para conseguir una IA segura, ¡solo debemos maximizar la alineación entre la tecnología y los objetivos de la humanidad! Si tan sólo pudiéramos definir una función objetivo clara que mida el grado de alineación con todos los objetivos de la humanidad.
En la comunidad de la investigación sobre la IA se ignora con demasiada frecuencia los riesgos existenciales que surgen de la manera en que ésta interactúa con la compleja dinámica de los caóticos factores psicológicos, sociales, culturales, políticos y emocionales de la humanidad; los cuales no vienen prolijamente empacados en una simple función matemática.
Las empresas de IA, los investigadores y los reguladores deben acelerar con urgencia la resolución del problema que plantea el funcionamiento que se espera de las inteligencias artificiales frente a disyuntivas inmemoriales entre objetivos opuestos que no se han resuelto y también acelerar el desarrollo de nuevos tipos de inteligencias artificiales que puedan ayudar a resolver estos problemas.
Mientras tanto, debemos desacelerar el despliegue de las inteligencias artificiales que están exacerbando la inestabilidad sociopolítica, como los algoritmos que alinean una tras otra las publicaciones con teorías conspiratorias. En cambio, debemos acelerar el desarrollo de las inteligencias artificiales que ayuden a reducir esos peligrosos niveles de polarización.
Los expertos en inteligencia artificial, influentes de Silicon Valley y grandes medios de comunicación deben dejar de esconder debajo de la alfombra estos desafíos reales por medio de narrativas demasiado simplistas y mal enmarcadas en torno a la aceleración versus la desaceleración de la IA. Debemos reconocer que este trabajo impacta en los seres humanos que son desordenados y complejos en maneras que tal vez una ecuación elegante no pueda reflejar.
La cultura importa. La IA ya es parte de la vida cotidiana de nuestra sociedad, un hecho que llegará a ser más pronunciado de lo que la mayoría de las personas jamás imaginaron. Ya es demasiado tarde para empezar a darse cuenta de eso.
The New York Times