¿Por qué confiamos más en las decisiones morales de la IA que en las humanas? Un estudio revela la clave

Investigadores japoneses afirman que, en situaciones morales ambiguas, las personas tienden a aceptar los juicios de la inteligencia artificial por encima de los humanos. ¿La razón? La percepción de que las máquinas son más objetivas y racionales en sus decisiones.

Por Enrique Coperías

A medida que la inteligencia artificial (IA) se infiltra de manera más profunda en la vida cotidiana, las decisiones que esta toma empiezan a tener un impacto significativo en la sociedad. Desde el diagnóstico médico hasta la conducción autónoma, la IA promete hacer nuestras vidas más eficientes y seguras.

Sin embargo, uno de los mayores desafíos a los que nos enfrentamos es cómo aceptar y confiar en las decisiones que toma una máquina, especialmente cuando se trata de juicios morales. En este contexto, un equipo de investigación dirigido por Hitoshi Yamamoto, de la Universidad Rissho, y Takahisa Suzuki, de la Universidad Tsuda, en Japón, ha explorado cuándo y por qué las personas están dispuestas a aceptar los juicios morales de la IA sobre los de un ser humano, un tema de creciente relevancia en un mundo cada vez más automatizado.

El estudio se centró en un comportamiento difícil de clasificar como bueno o malo: "No ayudar a personas con mala reputación", un concepto que se aborda en la teoría de la reciprocidad indirecta. Este tipo de conducta, conocido como defección justificada, ocurre cuando una persona decide no colaborar con alguien debido a que esa persona tiene una mala reputación por comportarse de manera egoísta o perjudicial.

¿Ayudar o no a una persona indeseable?

La defección justificada se considera moralmente válida cuando la persona decide no ayudar a alguien que ha demostrado ser perjudicial para los demás. Esto es así en la teoría, ya que lo que hace a este tipo de situación tan interesante es que la moralidad de la decisión de no ayudar no es clara, y, por tanto, genera incertidumbre en quienes deben juzgar la situación.

Los investigadores japoneses quisieron descubrir en qué condiciones las personas aceptarían los juicios de la IA sobre los de un ser humano, y explorar las implicaciones de esta dinámica en escenarios del mundo real.

El resultado de la investigación, publicado en el último número de la revista Scientific Reports de Nature, revela que las personas son más propensas a aceptar las decisiones de la IA cuando la máquina emite juicios positivos sobre la defección justificada, mientras que los humanos emiten juicios negativos. En otras palabras, cuando la IA evalúa como «buena» la decisión de no ayudar a una persona con mala reputación, las personas tienden a aceptar este juicio, especialmente si un ser humano lo hubiera calificado de manera contraria.

La IA, una entidad más objetiva

Este hallazgo sugiere que la percepción humana de la IA como una entidad más objetiva puede influir en la aceptación de sus decisiones, especialmente cuando los juicios humanos podrían estar sesgados o influenciados por motivaciones personales.

Este estudio no solo es relevante para entender la aceptación de la IA en el ámbito moral, sino que también arroja luz sobre las percepciones que la sociedad tiene sobre los juicios morales de las máquinas. En un mundo en el que la inteligencia artificial comienza a tomar decisiones en ámbitos tan sensibles como la justicia y la gestión de recursos humanos, entender cómo las personas aceptan estos juicios es crucial.

A lo largo de los últimos años, estudios han mostrado que la gente tiende a experimentar lo que se conoce como aversión algorítmica, o sea, desconfianza hacia las decisiones de la IA, y aprecio algorítmico o confianza excesiva en la IA, lo que complica la predicción de cómo reaccionaremos ante juicios morales automatizados.

Decisiones morales basadas en la reputación

El estudio de Yamamoto y Suzuki aborda precisamente este vacío en la literatura científica, y enfocan su punto de mira en situaciones donde las personas no tienen una respuesta clara sobre si una acción es moralmente correcta o incorrecta, como ocurre en la reciprocidad indirecta, donde las personas basan sus decisiones en la reputación de los individuos involucrados.

«Es un mecanismo social en el que las personas ayudan o se abstienen de ayudar a otros basándose en las acciones previas de esas personas, y la reputación es un factor crucial en este proceso», dice Yamamoto. Según este, la forma en que las personas aceptan los juicios de la IA depende de la interpretación de las normas sociales implícitas que subyacen en esos juicios.

Para poner a prueba esta hipótesis, Yamamoto y Suzuki realizaron dos experimentos con participantes japoneses. En el primero, los voluntarios debían juzgar una acción en la que un trabajador, denominado Bob, decidía no ayudar a un compañero de trabajo, denominado Alice, que tenía una mala reputación por su comportamiento egoísta.

A medida que la IA se incorpora cada vez más en áreas clave de la vida social, como la toma de decisiones en recursos humanos y el sistema judicial, entender cómo se perciben sus decisiones resulta fundamental para asegurar su aceptación y eficacia.

A medida que la IA se incorpora cada vez más en áreas clave de la vida social, como la toma de decisiones en recursos humanos y el sistema judicial, entender cómo se perciben sus decisiones resulta fundamental para asegurar su aceptación y eficacia.

¿Debe ayudar Bob a Alice?

Los participantes luego evaluaron si aceptaban o no la decisión de un Gerente, que podía ser humano o una IA, sobre la acción de Bob. Los resultados mostraron que, cuando la IA emitía un juicio positivo, es decir, consideraba que la decisión de Bob de no ayudar a Alice era justificable, los participantes tendían a aceptar ese juicio, incluso si un ser humano hubiera evaluado negativamente la situación.

Este hallazgo es importante porque sugiere que las personas confían más en los juicios de la IA cuando consideran que estos son más objetivos, y, en este caso, la IA estaba evaluando una situación moralmente ambigua. Los juicios humanos, por otro lado, pueden percibirse como influenciados por sesgos, lo que hace que las personas sean más reacias a aceptarlos.

Este fenómeno podría estar relacionado con la idea de que las máquinas, al no tener emociones o intereses personales, parecen ser más neutrales al tomar decisiones morales, incluso si esas decisiones no están basadas en una intuición moral ampliamente aceptada.

Conflicto hombre-máquina

En el segundo experimento, los participantes fueron expuestos a una situación similar, pero en esta ocasión, tanto el Gerente humano como la IA emitieron juicios contradictorios sobre el comportamiento de Bob. Los resultados revelaron que las personas tendían a aceptar más el juicio de la IA cuando esta consideraba que la traición de Bob era justificable, y el ser humano, no. Es decir, cuando las decisiones de la IA y la del ser humano eran opuestas, las personas favorecían la evaluación de la IA solo en el caso de que esta considerara la defección como una acción moralmente aceptable.

Este comportamiento podría explicarse por la percepción de los participantes de que la IA actúa con una lógica más clara y objetiva, en lugar de estar influenciada por prejuicios o motivaciones ocultas, como podría ocurrir con los juicios humanos. Los investigadores sugieren que las personas tienden a hacer menos inferencias sobre las intenciones detrás de los juicios de la IA que sobre las de los seres humanos.

Es posible que, en situaciones de incertidumbre moral, las personas perciban que la IA toma decisiones de manera más racional y menos emocional, lo que genera mayor confianza en sus juicios.

A tener en cuenta para el futuro

Este estudio también pone de manifiesto la importancia de comprender cómo las personas interpretan y reaccionan ante los juicios de la IA en situaciones que involucran normas sociales complejas. A medida que la IA se integra en más aspectos de la vida social, desde la toma de decisiones en recursos humanos hasta en el sistema judicial, comprender cómo se perciben las decisiones de las máquinas es esencial para garantizar su aceptación y efectividad.

La forma en que las personas aceptan o rechazan estos juicios podría influir en el diseño y la implementación de sistemas de IA en el futuro.

En resumen, la investigación realizada por Yamamoto y Suzuki proporciona valiosas perspectivas sobre cómo las personas perciben los juicios morales de la inteligencia artificial, especialmente cuando esos juicios difieren de los humanos. A medida que la IA asume un rol más importante en la toma de decisiones en la sociedad, estos estudios son cruciales para garantizar que las máquinas tomen decisiones que se alineen con las expectativas y normas sociales.

En última instancia, comprender estos mecanismos podría ayudar a diseñar sistemas de IA que no solo sean más efectivos, sino también más aceptables y éticamente responsables. ▪️

Anterior
Anterior

Las ratas ven mejor que la inteligencia artificial: el sorprendente hallazgo que desafía a la tecnología

Siguiente
Siguiente

Cómo las alas flexibles de los murciélagos revolucionarán el vuelo de los drones