Modelos de lenguaje grande y democracia  ¿Un camino hacia adelante o demencia artificial?

Debido a los métodos de entrenamiento detrás de los modelos de lenguaje grandes (LMM por sus siglas en inglés), éstos carecen de un entendimiento de la verdad y de ahí proviene su habilidad para difundir desinformación. Sin embargo, es importante enfatizar que los LMM, como cualquier tecnología, son una herramienta poderosa, cuyo impacto depende de cómo la usemos. David Dao explora algunas de las formas en las que IA podría debilitar — o fortalecer — nuestras democracias.

INCLUIR PERSPECTIVAS EQUITATIVAS MEDIANTE IA

Mientras la 28° Conferencia de las Partes (COP28) sobre el Cambio Climático en Dubái llega a su fin, la atmósfera está llena de esperanza y fatiga. Delegados de todo el mundo revisan diligentemente políticas y resoluciones mientras se preparan para el último trecho de negociaciones. Para los negociadores expertos de países desarrollados, es un territorio familiar. El inglés, el idioma principal en la COP, es su primer o segundo idioma. Están respaldados por equipos locales, los cuales han hechos la mayor parte del trabajo preliminar.

Para las delegaciones de negociadores más pequeñas y tradicionalmente pobres en recursos del Sur global, es otra historia. Enfrentan una tarea intimidante, con vocabulario denso y conceptos técnicos que a menudo relegan sus valiosas perspectivas, afectan su habilidad de participar completamente en la conversación sobre el futuro del clima. Esta inequidad en la participación democrática debido al lenguaje no es nueva — La he visto de primera mano durante los últimos seis años en estas conferencias. Peor, el conocimiento y las perspectivas indígenas — cruciales para manejar el clima y los ecosistemas — suelen quedar fuera de la discusión por completo. Sin embargo, creo que algo cambió este año.

Con el reconocimiento de esta brecha, la Academia de Jóvenes Negociadores (Youth Negotiators Academy) entrena y prepara a jóvenes negociadores de 55 países. Para la COP28, se asociaron con nuestra ONG GainForest para construir un asistente para jóvenes negociadores que funciona con inteligencia artificial llamado Polly. Polly es una app desarrollada a partir de decenas de entrevistas con jóvenes negociadores de países como Liberia, Paraguay e Indonesia. La app fue diseñada para desmitificar el trabajo con documentos de políticas al tiempo que ofrece traducciones y actualizaciones en tiempo real para ayudar a los jóvenes delegados a navegar de manera activa en las negociaciones sobre el clima, y ha sido usada durante las conferencias para ayudar a redactar borradores de discursos e intervenciones.

Taina, otro asistente con IA desarrollado por los mismos institutos, va un paso más allá. Taina fue co-creada con pueblos indígenas con el propósito de tender puentes entre el conocimiento tradicional y la toma de decisiones moderna. Taina permite a comunidades indígenas y locales compartir historias y conocimiento a través de un chatbot interactivo. Con el permiso de estas comunidades, Taina captura y transmite sus invaluables puntos de vista a quienes toman deciones en la COP. De esta forma, garantiza que las perspectivas de todos los rincones del mundo — sin importan cuán remotos — contribuyan a la toma de deciones global. En este momento, Taina está siendo probado con los pueblos originarios de Brasil Sateré-Mawé, ticunas y Mundurukú, así como con comunidades en Filipinas, para combinar sabiduría tradicional y estrategia medioambiental global.

Taina permite a las comunidades indígenas compartir sus perspectivas y conocimientos. Taina permite a las comunidades indígenas compartir sus perspectivas y conocimientos. | © CYNP & GainForest

CÓMO FUNCIONAN LOS MODELOS DE LENGUAJE GRANDE


La efectividad e Polly y Taina se basa en IA generativa y modelos de lenguaje grande (LLM), los cuales han cambiado drásticamente nuestro entendimiento sobre el procesamiento de lenguaje natural. Contrario a la creencia anterior de que se requiere una instrucción explícita de gramática y sintaxis para entender el lenguaje, los LLM aprende de un vasto corpus de texto provisto por el internet. Durante la fase de aprendizaje, estos modelos predicen la siguiente palabra en una secuencia, de forma similar a la función de autocompletar en un teclado. Este enfoque de probabilidad ha sido criticado por investigadores de ética en la IA, quienes argumentan que los LLM no "entienden" el lenguaje realmente.

A pesar de las críticas, no se puede exagerar la influencia de los LLM y la IA generativa en nuestra sociedad. ChatGPT, el popular chatbot de OpenAI, alcanzó los cien millones de usuarios al mes tan sólo dos meses después de su lanzamiento, lo que lo convierte en la aplicación de consumo con el mayor crecimiento de la historia. Desgraciadamente, aunque Polly y Taina intentan incluir voces mariginalizadas en el proceso democrático a través de ayuda en el procesamiento de texto, los LLM también crear y amplificar bubrbujas de filtros existentes si se utilizan mal.

LOS PELIGROS DE LA DEMENCIA ARTIFICIAL

Debido a los métodos de entrenamiento detrás de los LLM, éstos carecen de un entendimiento de la realidad, lo cual refleja los prejuicios prsentes en la información usada para su entrenamiento y, a menudo, producen información fabricada. Este desafío no es único de los LLM pero es inherente en todos los modelos de aprendizaje automático. Por ejemplo, están bien documentados casos de chatbots médicos que ofrecen consejos equivocados. De manera similar, Galactica de Meta, diseñada para ayudar a científicos a redactar artículos académicos, resultó en referencias erróneas, estudios científicos ficticios y más.

Científicos de la computación están intentando mejorar los LLM al integrar herramientas externas como calculadoras o motores de búsqueda con el fin de mitigar el problema de las alucinaciones. Sin embargo, lo que distingue a los LLM de los modelos de aprendizaje automático tradicionales es su sofisticada comprensión del lenguaje y su capacidad para persuadir e interactuar con los humanos de manera convincente.

El Informe sobre riesgos mundiales 2024 del Foro Económico Mundial (FEM) identificó la desinformación como el mayor riesgo en los próximos dos años. Malos agentes usaron noticias falsas para afectar el mercado bursátil, promover elecciones perjudiciales para la asistencia médica y amenazar la democracia al influenciar las elecciones, incluyendo las elecciones presidenciales de 2016 y 2020 en Estados Unidos. Los LLM solo pueden mejorar la efectividad de las noticias falsas. Al Gore ha descrito el fenómeno de encerrar a los usuarios en una cámara de resonancia siempre convincente como una nueva forma de IA: “demencia artificial”.

UN CAMINO HACIA ADELANTE

Es importante destacar que los LLM, como cualquier tecnología, son una herramienta poderosa, cuyo impacto depende del uso que le demos. El potencial para fomentar la inclusión democrática y empoderar a las voces que, tradicionalmente, han sido marginadas exhibe el lado positivo de esta evolución tecnológica, como lo demuestran los asistentes Polly y Taina. Estas herramientas no solo democratizan el acceso a la información, sino que aseguran que diversas perspectivas sean escuchadas y consideradas en la toma de decisiones globales.
 

Es importante destacar que los LLM, como cualquier tecnología, son una herramienta poderosa, cuyo impacto depende del uso que le demos.

David Dao

No obstante, los desafíos asociados con la inteligencia artificial, particularmente aquellos relacionados con la desinformación y la demencia artificial, requieren un esfuerzo conjunto para ser mitigados. Al tiempo que navegamos las complejidades de integrar la IA en el tejido de nuestras sociedades, necesitamos un enfoque multifacético. Aquí hay tres recomendaciones:
  1. Desarrollar sistemas éticos robustos para el desarrollo de la IA, que implementen mecanismos de supervisión rigurosos y que aseguren la transparencia en sus operaciones
  2. Educar y crear conciencia sobre los límtes de los LLM para equipar a los individuos con las habilidades de pensamiento crítico necesarias para evaluar sus resultados
  3. Promover la colaboración abierta y el diseño en conjunto entre desarrolladores de IA, responsables políticos y comunidades locales que guien la creación de soluciones de IA más inclusivas y equitativas
Si damos prioridad al codiseño de las herramientas de IA con aquellos cuyas voces pretenden amplificar, podemos asegurarnos de que estas tecnologías se desplieguen como una vía para mejorar nuestras democracias.

También le puede interesar

Failed to retrieve recommended articles. Please try again.