Defining AI incidents and related terms
Autor(es):
Organización de Cooperación y Desarrollo Económico
Series OECD ARTIFICIAL INTELLIGENCE PAPERS ; May 2024 No. 16Editor: Paris : OECD Publishing 05/2024Descripción: 20 p. ; 1 documento PDFTipo de contenido: texto (visual)Tipo de medio: electrónico
Tipo de soporte: recurso en líneaTema(s): Inteligencia Artificial | Ciberseguridad y confianza | ciberincidentes | ciberriesgos | IA | definiciones | interoperabilidadRecursos en línea: Acceso a la publicación Resumen: Este informe propone definiciones de los potenciales daños reales ("incidentes de IA") que puede provocar la inteligencia artificial (IA), así como sus potenciales peligros ("riesgos de IA") y términos relacionados. Estas definiciones pretenden fomentar la interoperabilidad internacional, al tiempo que ofrecen flexibilidad a las jurisdicciones para determinar el alcance de los incidentes y peligros de IA que desean abordar. El documento servirá de base para el desarrollo de un marco común de notificación de incidentes de IA y su aplicación a través del Monitor de Incidentes de IA (AIM) de la OCDE. Este trabajo y sus versiones anteriores fueron debatidos y revisados por los miembros del antiguo Grupo de Expertos en Clasificación de Sistemas de Inteligencia Artificial de la OCDE durante una serie de talleres informales celebrados entre julio y octubre de 2022. También fue debatido por el Grupo de Expertos en Incidentes de IA de la OCDE.AI en sus reuniones de marzo, abril, junio, agosto y noviembre de 2023 y en su reunión de febrero de 2024. El Grupo de Trabajo de la OCDE sobre Inteligencia Artificial (AIGO) debatió este informe y versiones anteriores del mismo en sus reuniones de noviembre de 2022; abril, julio y noviembre de 2023; y febrero de 2024. El marco propuesto ayudará a identificar los principales tipos de daños, como los daños físicos, medioambientales, económicos y de reputación, los daños al interés público y los daños a los derechos fundamentales. También abordará otras dimensiones del daño, como el nivel de gravedad, el alcance, la escala geográfica, la tangibilidad, la cuantificabilidad, la materialización, la reversibilidad, la recurrencia, el impacto y el calendario. Otro paso sería establecer taxonomías claras para clasificar los incidentes en función de cada dimensión del daño. La evaluación de la "gravedad" de un incidente, daño, perjuicio o perturbación de la IA (por ejemplo, para determinar si un suceso se clasifica como incidente o incidente grave) depende del contexto y también se deja para un debate posterior.
Tipo de ítem | Ubicación actual | Colección | Signatura | Estado | Fecha de vencimiento | Código de barras |
---|---|---|---|---|---|---|
Informes |
CDO
El Centro de Documentación del Observatorio Nacional de las Telecomunicaciones y de la Sociedad de la Información (CDO) os da la bienvenida al catálogo bibliográfico sobre recursos digitales en las materias de Tecnologías de la Información y telecomunicaciones, Servicios públicos digitales, Administración Electrónica y Economía digital.
|
Colección digital | Acceso libre online | 1000020178119 |
Este informe propone definiciones de los potenciales daños reales ("incidentes de IA") que puede provocar la inteligencia artificial (IA), así como sus potenciales peligros ("riesgos de IA") y términos relacionados. Estas definiciones pretenden fomentar la interoperabilidad internacional, al tiempo que ofrecen flexibilidad a las jurisdicciones para determinar el alcance de los incidentes y peligros de IA que desean abordar. El documento servirá de base para el desarrollo de un marco común de notificación de incidentes de IA y su aplicación a través del Monitor de Incidentes de IA (AIM) de la OCDE.
Este trabajo y sus versiones anteriores fueron debatidos y revisados por los miembros del antiguo Grupo de Expertos en Clasificación de Sistemas de Inteligencia Artificial de la OCDE durante una serie de talleres informales celebrados entre julio y octubre de 2022. También fue debatido por el Grupo de Expertos en Incidentes de IA de la OCDE.AI en sus reuniones de marzo, abril, junio, agosto y noviembre de 2023 y en su reunión de febrero de 2024. El Grupo de Trabajo de la OCDE sobre Inteligencia Artificial (AIGO) debatió este informe y versiones anteriores del mismo en sus reuniones de noviembre de 2022; abril, julio y noviembre de 2023; y febrero de 2024.
El marco propuesto ayudará a identificar los principales tipos de daños, como los daños físicos, medioambientales, económicos y de reputación, los daños al interés público y los daños a los derechos fundamentales. También abordará otras dimensiones del daño, como el nivel de gravedad, el alcance, la escala geográfica, la tangibilidad, la cuantificabilidad, la materialización, la reversibilidad, la recurrencia, el impacto y el calendario. Otro paso sería establecer taxonomías claras para clasificar los incidentes en función de cada dimensión del daño. La evaluación de la "gravedad" de un incidente, daño, perjuicio o perturbación de la IA (por ejemplo, para determinar si un suceso se clasifica como incidente o incidente grave) depende del contexto y también se deja para un debate posterior.
No hay comentarios en este titulo.