Ética  Máquinas sociales y valores humanos

La máquina humana con alma © Shutterstock AI

Con el desarrollo de la IA puede surgír el dilema de que el comportamiento del sistema no coincida con los valores proyectados por los desarrolladores. Este fenómeno se llama "problema de alineación" y plantea retos particulares a los investigadores cuando los sistemas de IA se utilizan para resolver problemas sociales difíciles.

Estudio las relaciones sociales entre máquinas y personas, principalmente en colaboración con robots de inteligencia artificial. En el transcurso de mi trabajo, he observado cómo las personas interactúan con las máquinas a nivel social y cómo perciben sus relaciones con ellas. Pueden ser muy parecidas a las que tienen con otras personas: íntimas, amigables, temerosas, hostiles, etc. La misma máquina de escribir de mi tía abuela es una integrante más de nuestra familia. Por años guardé rencor a puertas que no cooperaban. El sentido común podría decir que las máquinas son cosas inertes, frías y sin sentimientos, que no merecen atención social. Sin embargo, esta actitud cultural predominante no siempre coincide con lo que la gente experimenta en su vida diaria. En el desarrollo y el uso de las máquinas, el aspecto social siempre tendrá un papel importante, un factor que no se puede predecir.

EN CONJUNTO CREAMOS SENTIDO

Hago todo lo posible por respetar a las máquinas a su manera, en lugar de esperar que se comporten como humanos. Sin embargo, nuestra relación no ocurre en un vacío. Como diseñador, tengo una estrecha relación con las máquinas que concibo, tanto en lo que respecta a su función prevista como a sus interacciones con las personas. El veradero significado de las máquinas sólo se me revela cuando la máquina se ha convertido en parte de nuestro miundo y puedo reflexionar sobre sus interacciones conmigo y con otras personas. Juntos, en el desorden de la vida cotidiana, creamos un significado, completamente independiente de las intenciones que yo tenía como diseñador. El entorno descontextualiza y recontextualiza constantemente las entidades que hay en él. Nunca hay garantías de que las intenciones de un diseñador, o incluso sus valores, permanezcan intactos. Esto no es necesariamente malo.

Un ejemplo de la música: es bien sabido que un intérprete no suele utilizar un instrumento musical nuevo de la forma para la que fue concebido, sino que "pinta" artísticamente con libertad en el instrumento. Esto se debe en parte a la práctica musical contemporánea de técnicas extendidas (como desenroscar las válvulas de la trompeta al tocar) y en parte a la novedad y la falta de una pedagogía establecida para los nuevos instrumentos. En cualquier caso, el artista siempre puede superar los límites y las expectativas de un conjunto de normas. Incluso diría que es deseable que un instrumento musical evoque usos inesperados. Del mismo modo, las máquinas autónomas (con inteligencia artificial o sin ella) suelen valorarse en el arte contemporáneo precisamente por su potencial para producir resultados inesperados. Máquina y ser humano trabajan juntos para descubrir lo que es posible y encontrar un sentido. Nada puede salir exactamente como se había planeado. Por supuesto, también puede salir mal, como ocurrió con el chatbot de Microsoft "Tay", que tuvo que ser desactivado cuando los usuarios enseñaron al bot a escribir contenidos incendiarios y ofensivos.

¿PODEMOS CREAR UN DIOS DIGITAL?

¿Por qué debería esperar que una máquina refleje mis valores? ¿Aun cuando mis valores valores cambian y crecen con el tiempo? Me parece que el "problema de alineación" aparece cuando uno lanza una pregunta moral a un sistema de máquinas. ¿Podemos crear una máquina que haga justo el proceso de contratación de trabajadores? ¿O una máquina con la que no existan prejuicios racistas en la prosecución penal? ¿Qué tal una máquina que alcanzara la iluminación espiritual? ¿Podremos inventar una máquina que sea omnisciente y omnipotente, un dios digital? Para mí, todas estas preguntas de un planteamiento erróneo. Cuando nos empeñamos en confiar en las máquinas para resolver los problemas, estamos eludiendo nuestra responsabilidad. Las máquinas pueden ayudarnos a alcanzar juntos determinados objetivos, pero nunca debemos esperar que su comportamiento coincida automáticamente con nuestras intenciones. En última instancia, un robot espiritual o un dios digital sólo pueden existir dentro de un sistema máquina-humano más amplio que los sustente.

LA IA NO ES UNA VARITA MÁGICA QUE PUEDA RESOLVER PROBLEMAS SOCIALES

Hasta ahora he usado la palabra "máquina" como si se tratara de tipo de ser artificial, no humano. Sin embargo, "máquina" es un concepto amplio que también puede incluir a los humanos. Por ejemplo, una "máquina social" es un término para entidades que tienen componentes tanto artificiales como biológicos (o humanos), como las organizaciones o las burocracias.

Por eso siempre hemos desarrollado máquinas para resolver problemas sociales complejos, para promover el esclarecimiento, para hacer realidad valores y sueños colectivos. Las máquinas son propensas a cometer errores, están llenas de contradicciones y problemas. Pero, ¿por qué valores se guían las máquinas? La alienación de las máquinas es sin duda una tarea caótica, una confrontación con distintos valores, sueños, personas y máquinas. Incluso con la planificación más rigurosa y cuidadosa, los resultados de un sistema complejo no pueden predecirse por completo. No quiero negar las consecuencias de largo alcance que tendrá para la sociedad la introducción de sistemas de IA. El uso de tales sistemas conlleva una enorme responsabilidad. En última instancia, son componentes de constructos sociales más grandes y requieren un esfuerzo continuo y de colaboración para validar el conjunto de valores dado. El problema de adaptación no existe únicamente en un producto concreto de IA, sino mucho más en la sociedad que desarrolla ese producto. En otras palabras: la IA no es una varita mágica que pueda eliminar los problemas sociales. Para que un sistema de IA actúe y decida en función de valores, éstos deben estar ya integrados en el proceso de diseño. Deben tenerse en cuenta en cada paso del proceso: recolección de datos, formación, pruebas, despliegue, incluido el mantenimiento y el rediseño. Los problemas de adaptación no son sólo discretos, sino sistémicos.

 Así que la próxima vez que escuche a un multimillionario o a una experta expresar sus esperanzas y temores sobre las IA, recuerde que esta persona estará tentada a alinear las aspiraciones colectivas con sus valores personales. Una IA puede tener ciertos valores, pero eso es sólo una parte de la historia. El trabajo de alineación de los valores de la IA es continuo, colaborativo y nunca termina. ¿Puede resolverse el problema de la personalización? No lo creo, a menos que la propia sociedad pueda "resolverse". Por muy sofisticada que sea una inteligencia artificial, nunca se comportará como se pretende. Siempre habrá lugar para la reorientación.

También le puede interesar

Failed to retrieve recommended articles. Please try again.