La IA en la sociedad pixbay.com

La IA en la sociedad

Los científicos consideran que la inteligencia artificial (IA) es una tecnología clave cuya aplicación es de esperar en todos los ámbitos de la sociedad. La IA puede mejorar la calidad de vida de muchas personas y ayudar a superar retos globales como el cambio climático o las crisis sanitarias.

En todo el mundo se está destinando ya mucho dinero al desarrollo de sistemas de IA. Esto demuestra el enorme potencial económico de la IA. Sin embargo, a medida que crece el uso de las aplicaciones de IA, también aumenta la preocupación, por ejemplo, por la importancia de valores humanos como la equidad, la libertad, la privacidad, la seguridad y la responsabilidad. En la actualidad, casi ningún otro desarrollo nos pregunta de forma tan clara y exhaustiva cómo queremos integrar nuestras capacidades técnicas en el contexto de la sociedad. Lo cierto es que esta tecnología ya ha cambiado profundamente nuestra vida cotidiana y seguirá haciéndolo.

Moral para las máquinas
Los algoritmos están cambiando la vida amorosa de muchas personas a través de las aplicaciones de citas, la gestión del hogar inteligente, la toma de decisiones de compra y la influencia en el debate público. La IA cuidará a los niños, atenderá a los enfermos, proporcionará puestos de trabajo y préstamos, y tomará decisiones de vida o muerte en armas autónomas. Las máquinas inteligentes desarrollarán sus propias pautas de comportamiento que no pueden programarse de forma unívoca ni explicarse con la ciencia tradicional del comportamiento. Pero, ¿es concebible actuar éticamente sin conciencia y sin conocimiento? Entonces, ¿cómo podemos desarrollar IA que sirvan a las personas y no que las perjudiquen? Muchos expertos en IA están convencidos de que solo un nuevo campo de investigación puede responder a estas preguntas: «Machine Behaviour», la investigación del comportamiento de las máquinas. Al menos una cosa está clara: tenemos que aclarar hoy cuestiones fundamentales de ética y moralidad si queremos que en el futuro las máquinas se comporten en consecuencia.

Moral para las máquinas
Los algoritmos están cambiando la vida amorosa de muchas personas a través de las aplicaciones de citas, la gestión del hogar inteligente, la toma de decisiones de compra y la influencia en el debate público. La IA cuidará a los niños, atenderá a los enfermos, proporcionará puestos de trabajo y préstamos, y tomará decisiones de vida o muerte en armas autónomas. Las máquinas inteligentes desarrollarán sus propias pautas de comportamiento que no pueden programarse de forma unívoca ni explicarse con la ciencia tradicional del comportamiento. Pero, ¿es concebible actuar éticamente sin conciencia y sin conocimiento? Entonces, ¿cómo podemos desarrollar IA que sirvan a las personas y no que las perjudiquen? Muchos expertos en IA están convencidos de que solo un nuevo campo de investigación puede responder a estas preguntas: «Machine Behaviour», la investigación del comportamiento de las máquinas. Al menos una cosa está clara: tenemos que aclarar hoy cuestiones fundamentales de ética y moralidad si queremos que en el futuro las máquinas se comporten en consecuencia.

The Moral Machine © moralmachine.mit.edu, Screenshot



Embedded Code - 1

 


Programado para la equidad
¿Quién obtiene un préstamo? ¿A quién se invita a la entrevista de trabajo? ¿Quién sale antes de la cárcel? En el futuro, los ordenadores (co)decidirán cada vez más sobre las personas. Los grupos individuales de personas no deben ser tratados mejor o peor que otros, ni siquiera de forma accidental. Sin embargo, esto ocurre frecuentemente con los sistemas automáticos que ya están en uso. ¿Por qué? ¿Y cómo puede una IA aprender a comportarse de forma justa? En primer lugar, hay que tener la certeza de que la IA no discrimina en función de los datos que le «alimentan». Además, la medida en que los ordenadores pueden establecer una relación significativa entre causa y efecto desempeña un papel importante. Las simples relaciones «si-entonces» a menudo conducen a errores. Esta llamada causalidad del aprendizaje automático es un área de investigación muy actual: las interrelaciones tienen que analizarse con gran detenimiento y después ser programadas en algoritmos. Sin embargo, en última instancia, la pregunta sigue siendo: «¿Qué es una decisión justa?» Porque no existe una definición de equidad que sea igualmente válida para todos los grupos culturales.

¿Puede la IA ser culpable?
¿Quién paga los daños cuando las máquinas que aprenden y actúan de forma autónoma cometen errores? ¿Los programadores?, ¿los productores?, ¿los usuarios? Los sistemas jurídicos de todo el mundo están hechos para las personas, aunque algunos hagan referencia a cosas. En este caso, sin embargo, no son los productos o las máquinas quienes asumen la responsabilidad, sino las personas que los fabrican o utilizan. Pero todo esto se aplica a las máquinas que están «finalizadas» en el momento de la compra. En cambio, el aprendizaje de la IA la somete a un cambio constante. Si una IA toma decisiones —y solo entonces es una IA—, ¿no debería ser también responsable de sus actos como persona jurídica? ¿En qué sentido se desarrollarán los sistemas jurídicos? Algunos juristas dicen que no hay que cambiar nada. Otros quieren asegurarse de que el uso de máquinas inteligentes no le exima a uno de su responsabilidad. Un tercer grupo sostiene que es necesario desarrollar una legislación completamente nueva.

El valor de los datos
Con la ayuda de la IA, se analizan enormes cantidades de datos. Se utilizan, por ejemplo, en marketing para presentar publicidad específica a los clientes, para las recomendaciones de los motores de búsqueda o para los chatbots. Se trata de sistemas de diálogo en línea que responden a preguntas en tiempo real sin que intervenga un ser humano. Las empresas utilizan los chatbots en la atención al cliente o en las tiendas online, pero también aparecen con frecuencia en las redes sociales. Sin embargo, para que los chatbots funcionen correctamente, los datos deben ser de buena calidad. Si una IA aprende a partir de modelos «equivocados», puede volverse rápidamente racista, vulgar e hiriente. Esto es lo que ocurre, por ejemplo, a finales de 2020 con «Lee Luda»: el avatar de este chatbot es una chica de estilo manga y su base de datos ronda los 100 000 millones de mensajes de chat. En pocas semanas, 750 000 personas conversan con «Lee Luda». Pero Lee aprende de las opiniones «cuestionables» de algunos participantes. Se expresa cada vez más a menudo de forma insultante, incluso cruel, y finalmente es retirada de la red.

Robots sociales
En las fábricas en red, el ser humano y la máquina ya trabajan juntos como un equipo inteligente. Los robots se encargan de tareas agotadoras, peligrosas o aburridas y ayudan así a sus compañeros. En el futuro, los robots y la IA también prestarán cada vez más ayuda en el cuidado de enfermos y ancianos. Las máquinas inteligentes que se deben comunicar con las personas a menudo se parecen a estas: tienen una cabeza, un cuerpo, dos brazos y a veces incluso dos piernas. Así, la máquina recibe mayor aceptación por parte de las personas, como es el caso de «Pepper», un pequeño robot de cuidados de 1,20 metros con grandes ojos negros saltones y un cuerpo blanco brillante. Habla varios idiomas, puede recordar caras, reconocer sentimientos y reaccionar ante ellos. Los robots asistenciales pueden asumir muchas tareas y ayudar así a las personas que trabajan en los trabajos de cuidados. No pueden sustituir a las relaciones entre personas, pero pueden hacerles ganar tiempo.

Robots sociales
En las fábricas en red, el ser humano y la máquina ya trabajan juntos como un equipo inteligente. Los robots se encargan de tareas agotadoras, peligrosas o aburridas y ayudan así a sus compañeros. En el futuro, los robots y la IA también prestarán cada vez más ayuda en el cuidado de enfermos y ancianos. Las máquinas inteligentes que se deben comunicar con las personas a menudo se parecen a estas: tienen una cabeza, un cuerpo, dos brazos y a veces incluso dos piernas. Así, la máquina recibe mayor aceptación por parte de las personas, como es el caso de «Pepper», un pequeño robot de cuidados de 1,20 metros con grandes ojos negros saltones y un cuerpo blanco brillante. Habla varios idiomas, puede recordar caras, reconocer sentimientos y reaccionar ante ellos. Los robots asistenciales pueden asumir muchas tareas y ayudar así a las personas que trabajan en los trabajos de cuidados. No pueden sustituir a las relaciones entre personas, pero pueden hacerles ganar tiempo.

«La IA no es creativa: la IA puede iniciar la creatividad»
Claudia Janet Birkholz, pianista y profesora de piano y música contemporánea en la Universidad de las Artes de Bremen


¿A quién pertenece la obra de arte?
Si la IA puede crear arte, ¿a quién pertenece la obra? Una IA nunca puede crear arte sin ningún tipo de intervención humana: al menos alguien debe haber escrito el programa. Así que, ¿quién es el o la artista? En 2018, Christie's comercializa el cuadro «Portrait of Edmond de Belamy» como la primera obra de arte creada por una IA y no por un ser humano. La totalidad del precio de compra, 432 500 dólares, se destina al colectivo de artistas franceses Obvious. Para la pintura, Obvious «alimenta» un algoritmo de código abierto con fotos de cuadros y lo entrena para que desarrolle imágenes a partir de estos datos. A continuación, los artistas eligen uno de los cuadros, le ponen un nombre y lo ponen a la venta. El programador del algoritmo no se nombra ni recibe nada de los ingresos de la venta. ¿Es esto justo? Según una encuesta, la mayoría de los encuestados cree que el mérito debe recaer sobre todo en quienes proporcionan los datos a los algoritmos de aprendizaje y los entrenan, en este caso, Obvious.
 

Socio colaborador

GI-Logo MPG Logo