Jun 02, 2023
¿De quien es la culpa? Cómo percibimos la responsabilidad en lo humano
Resumen: Incluso cuando las personas ven a los asistentes basados en IA simplemente como herramientas, todavía asignan a estos sistemas una responsabilidad parcial por las decisiones que se toman. La investigación investigó cómo los participantes percibieron
Resumen:Incluso cuando la gente ve a los asistentes basados en IA simplemente como herramientas, todavía asignan a estos sistemas una responsabilidad parcial por las decisiones que se toman.
La investigación investigó cómo los participantes percibían la responsabilidad cuando un conductor humano usaba un asistente impulsado por IA versus un instrumento de navegación sin IA. Los participantes consideraron que los asistentes de IA son en parte responsables tanto de los éxitos como de los fracasos, aunque afirmaron que estos sistemas son meras herramientas.
El estudio arroja nueva luz sobre cómo las personas aplican diferentes estándares morales para elogiar y culpar cuando la IA participa en la toma de decisiones.
Hechos clave
Fuente:LMU
Incluso cuando los humanos ven a los asistentes basados en IA simplemente como herramientas, les atribuyen una responsabilidad parcial en las decisiones, como muestra un nuevo estudio.
Los futuros sistemas basados en IA podrán conducir vehículos autónomos a través del tráfico sin intervención humana. Las investigaciones han demostrado que la gente considera que estos sistemas futuristas de IA son tan responsables como los humanos cuando toman decisiones de tráfico autónomas. Sin embargo, los asistentes de IA de la vida real están muy alejados de este tipo de autonomía.
Proporcionan a los usuarios humanos información de apoyo, como navegación y ayudas a la conducción. Entonces, ¿quién es responsable en estos casos de la vida real cuando algo sale bien o mal? ¿El usuario humano? ¿O el asistente de IA?
Un equipo dirigido por Louis Longin, de la Cátedra de Filosofía de la Mente, ha investigado cómo se evalúa la responsabilidad en estos casos.
"Todos tenemos asistentes inteligentes en el bolsillo", afirma Longin.
“Sin embargo, gran parte de la evidencia experimental que tenemos sobre las brechas de responsabilidad se centra en robots o vehículos autónomos donde la IA está literalmente en el asiento del conductor y decide por nosotros. Es esencial investigar casos en los que todavía somos nosotros quienes tomamos la decisión final, pero utilizamos la IA más como un instrumento sofisticado”.
Longin, un filósofo especializado en la interacción entre humanos y la IA, en colaboración con su colega el Dr. Bahador Bahrami y la profesora Ophelia Deroy, catedrática de Filosofía de la Mente, investigó cómo 940 participantes juzgaban a un conductor humano utilizando un dispositivo inteligente impulsado por IA. asistente verbal, un asistente táctil inteligente impulsado por IA o un instrumento de navegación que no sea de IA. Los participantes también indicaron si consideraban responsable la ayuda a la navegación y en qué medida se trataba de una herramienta.
Estado ambivalente de los asistentes inteligentes
Los resultados revelan una ambivalencia: los participantes afirmaron firmemente que los asistentes inteligentes eran sólo herramientas, pero los consideraban en parte responsables del éxito o fracaso de los conductores humanos que los consultaban. No se produjo tal división de responsabilidad para el instrumento sin IA.
No menos sorprendente para los autores fue que los asistentes inteligentes también fueron considerados más responsables de los resultados positivos que negativos.
“La gente puede aplicar diferentes estándares morales para elogiar y censurar. Cuando se evita un accidente y no se producen daños, las normas se relajan, lo que hace que sea más fácil para las personas atribuir el mérito a los sistemas no humanos en lugar de culparlos”, sugiere el Dr. Bahrami, experto en responsabilidad colectiva.
El papel del lenguaje no es relevante.
En el estudio, los autores no encontraron diferencias entre los asistentes inteligentes que usaban el lenguaje y aquellos que alarmaban a sus usuarios mediante una vibración táctil de la rueda.
"Los dos proporcionaron la misma información en este caso, 'Oye, cuidado, hay algo más adelante', pero, por supuesto, ChatGPT en la práctica proporciona mucha más información", dice Ophelia Deroy, cuya investigación examina nuestras actitudes conflictivas hacia la inteligencia artificial como una forma de Creencias animistas.
En relación con la información adicional proporcionada por nuevos sistemas de inteligencia artificial basados en lenguajes como ChatGPT, Deroy agrega: "Cuanto más rica sea la interacción, más fácil será antropomorfizar".
"En resumen, nuestros hallazgos apoyan la idea de que los asistentes de IA son vistos como algo más que meras herramientas de recomendación, pero siguen estando lejos de los estándares humanos", dice Longin.
Los autores creen que los hallazgos del nuevo estudio tendrán un impacto de gran alcance en el diseño y el discurso social en torno a los asistentes de IA: "Las organizaciones que desarrollan y lanzan asistentes inteligentes deberían pensar en cómo se ven afectadas las normas sociales y morales", concluye Longin.
Autor:Constanze DrewloFuente:LMUContacto:Constanze Drewlo – LMUImagen:La imagen está acreditada a Neuroscience News.
Investigacion original: Acceso abierto. “La inteligencia conlleva responsabilidad: incluso los asistentes inteligentes de IA son responsables” por Louis Longin et al. Celúla
Abstracto
La inteligencia conlleva responsabilidad: incluso los asistentes inteligentes de IA son responsables
La gente no responsabiliza a los automóviles por los accidentes de tráfico, pero sí lo hacen cuando está involucrada la inteligencia artificial (IA). Los sistemas de IA son responsables cuando actúan o simplemente asesoran a un agente humano.
¿Significa esto que tan pronto como interviene la IA, surge la responsabilidad?
Para averiguarlo, examinamos si los sistemas de IA puramente instrumentales se mantienen libres de responsabilidad. Comparamos los sistemas de advertencia para automóviles impulsados por IA con los que no lo son y medimos su calificación de responsabilidad junto con sus usuarios humanos.
Nuestros hallazgos muestran que la responsabilidad es compartida cuando el sistema de alerta funciona con IA pero no con un sistema puramente mecánico, aunque la gente considera ambos sistemas como meras herramientas.
Sorprendentemente, si la advertencia previene el accidente introduce un sesgo en el resultado: la IA se atribuye más crédito que culpa dependiendo de lo que el humano logra o deja de hacer.
Su dirección de correo electrónico no será publicada. Los campos obligatorios están marcados *
Comentario *
Nombre *
Correo electrónico *
Sitio web
Notifíqueme de comentarios consecuentes por email.
Notificarme de nuevas publicaciones a través de email.
Resumen:Hechos claveFuente:Incluso cuando los humanos ven a los asistentes basados en IA simplemente como herramientas, les atribuyen una responsabilidad parcial en las decisiones, como muestra un nuevo estudio.Estado ambivalente de los asistentes inteligentesEl papel del lenguaje no es relevante.Autor:Fuente:Contacto:Imagen:Investigacion original:AbstractoLa inteligencia conlleva responsabilidad: incluso los asistentes inteligentes de IA son responsables