Informe sobre seguridad de la inteligencia artificial 2024

Autor(es):
AMETIC. Comisión Ciberseguridad
Editor: Madrid : AMETIC 2024Descripción: 6 p. ; 1 documento PDFTipo de contenido: texto (visual)
Tipo de medio: electrónico
Tipo de soporte: recurso en línea
Tema(s): Inteligencia Artificial | Ciberseguridad y confianza | modelos IA | sistemas IA | ciberataques | componente del dato | componente de modelo | componente de entorno | sesgos | marco legal | blockchain | computación | criptografíaRecursos en línea: Acceso a la publicación Resumen: El objetivo del informe reside en determinar los elementos que configuran un entorno seguro para la adopción de la inteligencia artificial (IA) en los diversos escenarios en los que esta tecnología puede estar presente. Para ello se definen los pilares principales para caracterizar la seguridad de un sistema de información, también aplicables a caracterizar los sistemas de aprendizaje automático. A modo de ejemplo se presentan dos casos en los que los fallos de seguridad fueron perjudiciales para las empresas que los padecieron. El documento también categoriza los potenciales ataques dependiendo del componente vulnerable, bien sea el dato, el modelo o el entorno. Asimismo, apunta a que las dimensiones "trustworthiness" (confianza, en español) y marco legal han de permitir aumentar la calidad de los sistemas de IA. Por otra parte, una de las principales carencias de esta tecnología es la escasa investigación al respecto y la falta de validación de ataques contra modelos IA en entornos de producción. Aunque la IA es una herramienta de presente y futuro, esta debe desarrollarse de forma segura, minimizando todo impacto previsible. En esta línea de trabajo, asociaciones tales como MITRE o la Unión Europea están desarrollando metodologías para cuantificar e investigar las amenazas (incluyendo técnicas de ataque) a los sistemas basados en IA, así como también medidas de protección y controles adecuados. Otra oportunidad se centra en los sistemas basados en "blockchain", cuya gran ventaja es que proporcionan un entorno descentralizado, generando evidencias que permiten verificar que el modelo IA no ha sido alterado ni manipulado.
Lista(s) en las que aparece este ítem: Economía del dato e IA | Ciberseguridad | Novedades junio 2024
    Valoración media: 0.0 (0 votos)
Tipo de ítem Ubicación actual Colección Signatura Estado Fecha de vencimiento Código de barras
Informes Informes CDO

El Centro de Documentación del Observatorio Nacional de las Telecomunicaciones y de la Sociedad de la Información (CDO) os da la bienvenida al catálogo bibliográfico sobre recursos digitales en las materias de Tecnologías de la Información y telecomunicaciones, Servicios públicos digitales, Administración Electrónica y Economía digital. 

 

 

Colección digital Acceso libre online 1000020178117

El objetivo del informe reside en determinar los elementos que configuran un entorno seguro para la adopción de la inteligencia artificial (IA) en los diversos escenarios en los que esta tecnología puede estar presente. Para ello se definen los pilares principales para caracterizar la seguridad de un sistema de información, también aplicables a caracterizar los sistemas de aprendizaje automático. A modo de ejemplo se presentan dos casos en los que los fallos de seguridad fueron perjudiciales para las empresas que los padecieron.

El documento también categoriza los potenciales ataques dependiendo del componente vulnerable, bien sea el dato, el modelo o el entorno. Asimismo, apunta a que las dimensiones "trustworthiness" (confianza, en español) y marco legal han de permitir aumentar la calidad de los sistemas de IA. Por otra parte, una de las principales carencias de esta tecnología es la escasa investigación al respecto y la falta de validación de ataques contra modelos IA en entornos de producción.

Aunque la IA es una herramienta de presente y futuro, esta debe desarrollarse de forma segura, minimizando todo impacto previsible. En esta línea de trabajo, asociaciones tales como MITRE o la Unión Europea están desarrollando metodologías para cuantificar e investigar las amenazas (incluyendo técnicas de ataque) a los sistemas basados en IA, así como también medidas de protección y controles adecuados. Otra oportunidad se centra en los sistemas basados en "blockchain", cuya gran ventaja es que proporcionan un entorno descentralizado, generando evidencias que permiten verificar que el modelo IA no ha sido alterado ni manipulado.

No hay comentarios en este titulo.

para colocar un comentario.

Haga clic en una imagen para verla en el visor de imágenes

Copyright© ONTSI. Todos los derechos reservados.
x
Esta web está utilizando la política de Cookies de la entidad pública empresarial Red.es, M.P. se detalla en el siguiente enlace: aviso-cookies. Acepto