La herramienta de mediación de IA puede ayudar a reducir las divisiones de la guerra cultural, dicen los investigadores | Inteligencia artificial (IA)
Los investigadores afirman que la inteligencia artificial podría ayudar a reducir algunas de las divisiones de la guerra cultural más polémicas a través de un proceso de mediación.
Los expertos dicen que un sistema que pueda crear declaraciones grupales que reflejen puntos de vista mayoritarios y minoritarios puede ayudar a las personas a encontrar puntos en común.
El profesor Chris Summerfield, coautor de la investigación de la Universidad de Oxford, que trabajaba en Google DeepMind en el momento en que se realizó el estudio, dijo que la herramienta de inteligencia artificial podría tener múltiples propósitos.
“Lo que me gustaría que se utilizara es para dar a los líderes políticos del Reino Unido una mejor idea de lo que realmente piensa la gente en el Reino Unido”, dijo, señalando que las encuestas sólo daban información limitada, mientras que los foros conocidos como asambleas de ciudadanos a menudo eran costoso, logísticamente desafiante y de tamaño restringido.
Escribiendo en la revista Science, Summerfield y sus colegas de Google DeepMind informan cómo construyeron la “Máquina Habermas”, un sistema de inteligencia artificial que lleva el nombre del filósofo alemán Jürgen Habermas.
El sistema funciona tomando opiniones escritas de los individuos dentro de un grupo y usándolas para generar un conjunto de declaraciones grupales diseñadas para ser aceptables para todos. Luego, los miembros del grupo pueden calificar estas declaraciones, un proceso que no solo entrena al sistema sino que también permite seleccionar la declaración con mayor respaldo.
Los participantes también pueden introducir críticas de esta declaración grupal inicial en la Máquina Habermas para dar como resultado una segunda colección de declaraciones generadas por IA que se pueden clasificar nuevamente y seleccionar un texto final revisado.
El equipo utilizó el sistema en una serie de experimentos con un total de más de 5.000 participantes en el Reino Unido, muchos de los cuales fueron reclutados a través de una plataforma en línea.
En cada experimento, los investigadores pidieron a los participantes que respondieran a temas que iban desde el papel de los monos en la investigación médica hasta la enseñanza religiosa en la educación pública.
En un experimento, en el que participaron alrededor de 75 grupos de seis participantes, los investigadores descubrieron que los participantes preferían la declaración grupal inicial de la Máquina Habermas el 56% de las veces a una declaración grupal producida por mediadores humanos. Los esfuerzos basados en IA también fueron calificados como de mayor calidad, más claros e informativos, entre otras características.
Otra serie de experimentos encontró que el proceso completo de dos pasos con la Máquina Habermas aumentó el nivel de acuerdo del grupo en relación con las opiniones iniciales de los participantes antes de que comenzara la mediación de la IA. En general, los investigadores encontraron que el acuerdo aumentó en ocho puntos porcentuales en promedio, lo que equivale a que cuatro personas de cada 100 cambiaran su punto de vista sobre un tema donde las opiniones originalmente estaban divididas en partes iguales.
Sin embargo, los investigadores enfatizan que no fue el caso que los participantes siempre se apartaran de la valla o cambiaran de opinión para respaldar la opinión mayoritaria.
El equipo encontró resultados similares cuando utilizaron la Máquina Habermas en una asamblea ciudadana virtual en la que se pidió a 200 participantes, representativos de la población del Reino Unido, que deliberaran sobre cuestiones relacionadas con temas que iban desde el Brexit hasta el cuidado infantil universal.
Los investigadores dicen que un análisis más detallado, que observe la forma en que el sistema de inteligencia artificial representa numéricamente los textos que recibe, arroja luz sobre cómo genera declaraciones grupales.
“Lo que (la Máquina Habermas) parece estar haciendo es respetar en términos generales la opinión de la mayoría en cada uno de nuestros pequeños grupos, pero intentar escribir un texto que no haga que la minoría se sienta profundamente privada de sus derechos; “Reconoce la opinión minoritaria”, dijo Summerfield.
Sin embargo, la propia Máquina Habermas ha resultado controvertida, y otros investigadores señalaron que el sistema no ayuda a traducir las deliberaciones democráticas en políticas.
La Dra. Melanie Garson, experta en resolución de conflictos de la UCL, añadió que si bien era optimista en materia tecnológica, una preocupación era que algunas minorías podrían ser demasiado pequeñas para influir en tales declaraciones grupales, pero podrían verse afectadas desproporcionadamente por el resultado.
También señaló que la Máquina Habermas no ofrece a los participantes la oportunidad de explicar sus sentimientos y, por lo tanto, desarrollar empatía con aquellos que tienen una visión diferente.
Básicamente, dijo, cuando se utiliza la tecnología, el contexto es clave.
“(Por ejemplo) ¿cuánto valor aporta esto en la percepción de que la mediación es más que simplemente encontrar un acuerdo?” Dijo Garson. “A veces, si es en el contexto de una relación continua, se trata de enseñar comportamientos”.