Liability regimes in the age of AI: a use-case driven analysis of the burden of proof

Autor(es):
Fernández Llorca, David | Charisi, Vicky | Hamon, Ronan | Sánchez, Ignacio | Gómez, Emilia
Comisión Europea Centro Común de Investigación
Editor: Bruselas : Comisión Europea. Centro Común de Investigación 03/2023Descripción: 32 p. ; 1 documento PDFTipo de contenido: texto (visual)
Tipo de medio: electrónico
Tipo de soporte: recurso en línea
Tema(s): Inteligencia Artificial | Sociedad digital | Políticas públicas digitales | IA | seguridad | ciberseguridad | robots | dronesRecursos en línea: Acceso a la publicación En: Journal of Artificial Intelligence Research Vol 76 (2023) 613-644Resumen: Las nuevas tecnologías emergentes impulsadas por la Inteligencia Artificial (IA) tienen el potencial de transformar disruptivamente nuestras sociedades para mejor. Pero al mismo tiempo existe una creciente preocupación por ciertas características intrínsecas de estas metodologías que conllevan riesgos potenciales tanto para la seguridad como para los derechos fundamentales. Si bien existen mecanismos en el proceso de adopción para minimizar estos riesgos (p. ej., normas de seguridad), estos no excluyen la posibilidad de que ocurra un daño, y si esto sucede, las víctimas deben poder buscar una compensación. Por lo tanto, los regímenes de responsabilidad desempeñarán un papel clave para garantizar la protección básica de las víctimas que utilizan o interactúan con estos sistemas. Este artículo presenta tres casos de estudio que ilustran las dificultades cuando se trata de probar la causalidad. En concreto, se abordan los casos de robots de limpieza, drones de reparto y robots en educación. El resultado del análisis propuesto sugiere la necesidad de revisar los regímenes de responsabilidad para aliviar la carga de la prueba de las víctimas en los casos que involucran tecnologías de IA.
Lista(s) en las que aparece este ítem: Transformación digital del Sector Público | Transformación digital para la sostenibilidad | Ciberseguridad
    Valoración media: 0.0 (0 votos)
Tipo de ítem Ubicación actual Colección Signatura Estado Fecha de vencimiento Código de barras
Artículos Artículos CDO

El Centro de Documentación del Observatorio Nacional de las Telecomunicaciones y de la Sociedad de la Información (CDO) os da la bienvenida al catálogo bibliográfico sobre recursos digitales en las materias de Tecnologías de la Información y telecomunicaciones, Servicios públicos digitales, Administración Electrónica y Economía digital. 

 

 

Colección digital Acceso libre online 1000020177582

Las nuevas tecnologías emergentes impulsadas por la Inteligencia Artificial (IA) tienen el potencial de transformar disruptivamente nuestras sociedades para mejor. Pero al mismo tiempo existe una creciente preocupación por ciertas características intrínsecas de estas metodologías que conllevan riesgos potenciales tanto para la seguridad como para los derechos fundamentales. Si bien existen mecanismos en el proceso de adopción para minimizar estos riesgos (p. ej., normas de seguridad), estos no excluyen la posibilidad de que ocurra un daño, y si esto sucede, las víctimas deben poder buscar una compensación. Por lo tanto, los regímenes de responsabilidad desempeñarán un papel clave para garantizar la protección básica de las víctimas que utilizan o interactúan con estos sistemas.

Este artículo presenta tres casos de estudio que ilustran las dificultades cuando se trata de probar la causalidad. En concreto, se abordan los casos de robots de limpieza, drones de reparto y robots en educación. El resultado del análisis propuesto sugiere la necesidad de revisar los regímenes de responsabilidad para aliviar la carga de la prueba de las víctimas en los casos que involucran tecnologías de IA.

No hay comentarios en este titulo.

para colocar un comentario.

Haga clic en una imagen para verla en el visor de imágenes

Copyright© ONTSI. Todos los derechos reservados.
x
Esta web está utilizando la política de Cookies de la entidad pública empresarial Red.es, M.P. se detalla en el siguiente enlace: aviso-cookies. Acepto