Defining AI incidents and related terms

Autor(es):
Organización de Cooperación y Desarrollo Económico
Series OECD ARTIFICIAL INTELLIGENCE PAPERS ; May 2024 No. 16Editor: Paris : OECD Publishing 05/2024Descripción: 20 p. ; 1 documento PDFTipo de contenido: texto (visual)
Tipo de medio: electrónico
Tipo de soporte: recurso en línea
Tema(s): Inteligencia Artificial | Ciberseguridad y confianza | ciberincidentes | ciberriesgos | IA | definiciones | interoperabilidadRecursos en línea: Acceso a la publicación Resumen: Este informe propone definiciones de los potenciales daños reales ("incidentes de IA") que puede provocar la inteligencia artificial (IA), así como sus potenciales peligros ("riesgos de IA") y términos relacionados. Estas definiciones pretenden fomentar la interoperabilidad internacional, al tiempo que ofrecen flexibilidad a las jurisdicciones para determinar el alcance de los incidentes y peligros de IA que desean abordar. El documento servirá de base para el desarrollo de un marco común de notificación de incidentes de IA y su aplicación a través del Monitor de Incidentes de IA (AIM) de la OCDE. Este trabajo y sus versiones anteriores fueron debatidos y revisados por los miembros del antiguo Grupo de Expertos en Clasificación de Sistemas de Inteligencia Artificial de la OCDE durante una serie de talleres informales celebrados entre julio y octubre de 2022. También fue debatido por el Grupo de Expertos en Incidentes de IA de la OCDE.AI en sus reuniones de marzo, abril, junio, agosto y noviembre de 2023 y en su reunión de febrero de 2024. El Grupo de Trabajo de la OCDE sobre Inteligencia Artificial (AIGO) debatió este informe y versiones anteriores del mismo en sus reuniones de noviembre de 2022; abril, julio y noviembre de 2023; y febrero de 2024. El marco propuesto ayudará a identificar los principales tipos de daños, como los daños físicos, medioambientales, económicos y de reputación, los daños al interés público y los daños a los derechos fundamentales. También abordará otras dimensiones del daño, como el nivel de gravedad, el alcance, la escala geográfica, la tangibilidad, la cuantificabilidad, la materialización, la reversibilidad, la recurrencia, el impacto y el calendario. Otro paso sería establecer taxonomías claras para clasificar los incidentes en función de cada dimensión del daño. La evaluación de la "gravedad" de un incidente, daño, perjuicio o perturbación de la IA (por ejemplo, para determinar si un suceso se clasifica como incidente o incidente grave) depende del contexto y también se deja para un debate posterior.
Lista(s) en las que aparece este ítem: Economía del dato e IA | Ciberseguridad | Novedades junio 2024
    Valoración media: 0.0 (0 votos)
Tipo de ítem Ubicación actual Colección Signatura Estado Fecha de vencimiento Código de barras
Informes Informes CDO

El Centro de Documentación del Observatorio Nacional de las Telecomunicaciones y de la Sociedad de la Información (CDO) os da la bienvenida al catálogo bibliográfico sobre recursos digitales en las materias de Tecnologías de la Información y telecomunicaciones, Servicios públicos digitales, Administración Electrónica y Economía digital. 

 

 

Colección digital Acceso libre online 1000020178119

Este informe propone definiciones de los potenciales daños reales ("incidentes de IA") que puede provocar la inteligencia artificial (IA), así como sus potenciales peligros ("riesgos de IA") y términos relacionados. Estas definiciones pretenden fomentar la interoperabilidad internacional, al tiempo que ofrecen flexibilidad a las jurisdicciones para determinar el alcance de los incidentes y peligros de IA que desean abordar. El documento servirá de base para el desarrollo de un marco común de notificación de incidentes de IA y su aplicación a través del Monitor de Incidentes de IA (AIM) de la OCDE.

Este trabajo y sus versiones anteriores fueron debatidos y revisados por los miembros del antiguo Grupo de Expertos en Clasificación de Sistemas de Inteligencia Artificial de la OCDE durante una serie de talleres informales celebrados entre julio y octubre de 2022. También fue debatido por el Grupo de Expertos en Incidentes de IA de la OCDE.AI en sus reuniones de marzo, abril, junio, agosto y noviembre de 2023 y en su reunión de febrero de 2024. El Grupo de Trabajo de la OCDE sobre Inteligencia Artificial (AIGO) debatió este informe y versiones anteriores del mismo en sus reuniones de noviembre de 2022; abril, julio y noviembre de 2023; y febrero de 2024.

El marco propuesto ayudará a identificar los principales tipos de daños, como los daños físicos, medioambientales, económicos y de reputación, los daños al interés público y los daños a los derechos fundamentales. También abordará otras dimensiones del daño, como el nivel de gravedad, el alcance, la escala geográfica, la tangibilidad, la cuantificabilidad, la materialización, la reversibilidad, la recurrencia, el impacto y el calendario. Otro paso sería establecer taxonomías claras para clasificar los incidentes en función de cada dimensión del daño. La evaluación de la "gravedad" de un incidente, daño, perjuicio o perturbación de la IA (por ejemplo, para determinar si un suceso se clasifica como incidente o incidente grave) depende del contexto y también se deja para un debate posterior.

No hay comentarios en este titulo.

para colocar un comentario.

Haga clic en una imagen para verla en el visor de imágenes

Copyright© ONTSI. Todos los derechos reservados.
x
Esta web está utilizando la política de Cookies de la entidad pública empresarial Red.es, M.P. se detalla en el siguiente enlace: aviso-cookies. Acepto