Mientras se avanza en implementar nuevos modelos de inteligencia artificial, especialistas llaman la atención sobre sus riesgos para la humanidad. Pero, ¿se trata en verdad de otra amenaza distópica?
Por Victoria Stéfano.
¿Pone el desarrollo de la inteligencia artificial (IA) en peligro a la humanidad? Sobre eso invita a pensar la nota firmada por más de 1800 científicos y personalidades del mundo de las IA, emitida el 22 de marzo por el Future of Life Institute.
El organismo, que persigue dirigir la tecnología hacia el beneficio de la vida y alejarla de los riesgos extremos a gran escala, emitió un documento solicitando a las corporaciones que desarrollan inteligencias artificiales una pausa de seis meses. El argumento es que los trabajos que se llevan adelante de manera poco transparente y alimentados por la vertiginosidad de los mercados suponen no solamente no poder adelantarse a los beneficios de estas tecnologías, sino también riesgos potenciales para la humanidad.
Las voces disidentes del escrito señalan que la carta abierta no llega más allá de una mera expresión de principios, sin un plan claro sobre cómo avanzar hacia una regulación internacional ni tampoco hacia una propuesta de acuerdos de base para el diseño y la puesta en funcionamiento de estas herramientas. Además, acusan a la misiva de ser una estrategia para fijar la discusión sobre riesgos en proyecciones sobre el futuro lejano, desviándose de la necesidad de discutir acerca de los sesgos de estos sistemas en la actualidad y las consecuencias concretas en el futuro inmediato.
Khipu 2023
En un sentido bastante más interesante el Encuentro Latinoamericano de Inteligencia Artificial, Khipu 2023, emitió a mediados del mes pasado la Declaración de Montevideo sobre la Inteligencia Artificial, que insta a los gobiernos y empresas a tomar medidas para encauzar un uso de estas tecnologías que pongan en el centro a las personas y a los derechos humanos en clave geopolítica, con una atención específica sobre las realidades latinoamericanas.
Uno de los ejes del acuerdo apunta que “la evaluación y mitigación de riesgos e impactos deben ser parte del proceso de diseño” e indica el deber de “implementar instrumentos para prevenir, detectar tempranamente e incluso suspender la implementación de tecnologías cuyos riesgos sean inaceptables”.
El texto además invita a fortalecer la soberanía y la gobernabilidad a través de la regulación. Y a pensar, a partir de la concepción misma de los nuevos desarrollos y desde la transparencia, cuál es el valor social que aporta el diseño de nuevas herramientas.
“No hay valor social en tecnologías que simplifican tareas a unas pocas personas generando alto riesgo para la dignidad de muchas otras, limitando sus oportunidades de desarrollo, su acceso a recursos y sus derechos”, afirman los especialistas.
¿Qué es la IA?
Para entender la complejidad de este planteo es necesario entender de qué hablamos. Por eso consultamos a Sebastián Acevedo, especialista en IA, cofundador de Tekal —una empresa de inteligencia artificial aplicada a gobiernos— y CEO de Memorable, una empresa que aplica la IA en el marketing. Tiene una maestría en Harvard en Administración Pública y Economía Digital. Se define como marketer y explica en sencillas palabras en qué consiste este fenómeno que presenciamos.
“La IA tiene un nombre que se usa hace décadas para diferentes cosas, pero los modelos de aprendizaje automático, machine learning, que son los que le dieron lugar a los avances de por lo menos las últimas dos décadas, son algo muy particular”, explicita.
Acevedo comenta que, tradicionalmente, cuando se trabajaba con software, los programadores le pedían a una máquina que hiciera algo muy específico. Se programaba esperando respuestas de circuito. Hoy gran parte de la programación de software es así. “Vos le decís a la máquina que si pasa A entonces haga B, si pasa B entonces haga C” ejemplifica, y añade que “lo que trajo la inteligencia artificial más moderna es que los modelos aprenden solos a optimizar una función”.
Entonces el viejo circuito de respuesta lineal se reemplaza por un modelo de aprendizaje que consiste en encontrar la mejor forma de resolver A, B o C. “El modelo solo empieza a construir una función y optimizarla de manera que logra responder de manera más fácil” indica Acevedo.
Estos mecanismos trabajan sobre información previa para resolver lo que se les presenta como problema. Y para ello se utilizan testeos que permiten reducir los márgenes de error dentro de las predicciones solicitadas, incluyendo los sesgos presentes, que no es más que trasladar la realidad a estos sistemas en forma imparcial.
“Una vez optimizado, mi modelo ya sabe predecir. Entonces lo pruebo sobre un 20% restante de datos y ahí el modelo te va a predecir con algún porcentaje de error. Esa es la revolución que hay debajo de todo esto: los modelos miran la historia y aprenden, por así decirlo, a predecir qué va a pasar” señala el entrevistado.
Respecto de los modelos popularizados recientemente, como el Chat GPT, Acevedo aclara que su funcionamiento es el mismo. Los generadores de texto, o Large Lenguaje Models (LLMs) optimizan su función de texto usando como base los contenidos escritos existentes, generando a partir de allí textos coherentes, prediciendo palabra por palabra.
Riesgos
Acevedo tiene una visión amplia sobre el impacto de las IA en todos los campos del conocimiento. Reconoce que en esta herramienta existe un potencial que permite acelerar cualquier función profesional, pero también motoriza nuevos mercados por el abaratamiento de costos que supone usar inteligencia artificial donde antes había que contratar muchísima mano de obra con los costos adyacentes.
Pero también identifica una serie de riesgos en estos desarrollos. Uno de ellos es el mal uso de estas tecnologías. En sus palabras, sería “usar mal un modelo que anda bien, pero anda bien para una tarea que no es la que el usuario está pidiéndole”.
Otro riesgo que identifica es cuando un modelo simplemente funciona mal. En ese caso, la resolución es distinta. Mientras que en el primer caso la mejor manera de reducir ese riesgo es a través de usuarios hábiles e informados, en estas situaciones se hace hincapié en una discusión incipiente en el mundo de las IA: la regulación mediante estándares mínimos de calidad.
El tercer punto es tocante a la ética. “Tenemos el problema de que la IA se use para algo que no quisiéramos como sociedad. Cada sociedad define los límites a su manera, con sus propias reglas del sistema político y demás. Pero en este caso es un problema de gobernanza global. ¿Cómo limitás el avance armamentístico si la lucha es entre países y vos querés ser el que no tiene el juguete nuevo de destrucción masiva?” reflexiona el experto.
El último riesgo al que Acevedo hace referencia es el de los sesgos. El riesgo de la reproducción de una realidad que no nos gusta. Al respecto, subraya que la IA aprende sobre la historia y remarca que, si al momento de programar y curar un modelo, no se es muy cuidadoso se corre el peligro de que reproduzca la historia y sus sesgos, haciendo asociaciones que no nos sirven.
El sesgo en IA implica una equivocación sistemática con un subgrupo de la población objetivo. Gracias al avance de estos modelos, esto es algo que se puede corregir y observar a través de la introducción de algunas buenas prácticas: chequear el nivel de error con diferentes subgrupos, tomar decisiones sobre cómo reducir el error una vez identificado, salir a buscar más data para algunos grupos, introducir reglas o notas al usuario para avisarle que con este subgrupo se tiene menor cantidad de data. En resumen, es un riesgo que se puede corregir con el cuidado necesario.
Sebastián concluye que hay que trabajar en estas tecnologías y sus riesgos “con mucho cuidado, pero no con inacción”. Y añade: “Lo importante es que hay muchas formas de gestionar esto y que puede tener un potencial muy grande sobre nosotros. Es cuestión de asegurarse de llevarlo con transparencia y con buena educación sobre cómo se gestionan. Frente a toda nueva tecnología el desafío es que la sociedad aprenda a relacionarse con ella de una manera en la que se puedan detectar y reducir los malos usos”.
Al cabo el mayor riesgo de la inteligencia artificial es el uso que nosotros, los humanos, hagamos de ella.