Hacia un uso responsable de los algoritmos: métodos y herramientas para su auditoría y evaluación

Autor(es):
Digital Future Society
Editor: Barcelona : Digital Future Society 02/2024Descripción: 59 p. ; 1 documento PDFTipo de contenido: texto (visual)
Tipo de medio: electrónico
Tipo de soporte: recurso en línea
Tema(s): Inteligencia Artificial | algortimos | IA | gobernanza | ética | evaluación | estándar | auditoría | scraping | sock puppet | carrier puppetRecursos en línea: Acceso a la publicación Resumen: A medida que avanza la implementación de algoritmos en una variedad de contextos y sectores, se vuelve cada vez más necesario el debate sobre los aspectos éticos y de gobernanza de la inteligencia artificial. Este documento responde a la necesidad de conocer las implicaciones de las evaluaciones de algoritmos en un contexto marcado por su aplicación creciente en diferentes ámbitos de la vida humana. Con el fin de aportar claridad sobre esta temática compleja se presentan conceptos clave, herramientas y métodos para desarrollar evaluaciones de algoritmos con distintas perspectivas, se aborda el ecosistema de actores y sectores involucrados en estos procesos y se ofrecen recomendaciones de mejora para avanzar hacia evaluaciones algorítmicas que aporten valor a las sociedades actuales. Para el desarrollo de este informe, se siguió una metodología cualitativa, compuesta por tres fases: una revisión sistemática de literatura académica, un análisis documental de literatura gris y la realización de entrevistas semiestructuradas a especialistas en inteligencia artificial (IA) y evaluaciones de algoritmos. El informe señala que, a medida que avanza la implementación de algoritmos en una variedad de contextos y sectores, se vuelve cada vez más necesario el debate sobre los aspectos éticos y de gobernanza de la inteligencia artificial. Las evaluaciones de algoritmos pueden contribuir a paliar dichos efectos, con la detección de aspectos problemáticos como la discriminación de determinadas poblaciones, la distorsión de la realidad o la explotación de información personal. Para avanzar hacia el diseño e implementación de algoritmos de una manera responsable, que respete los principios éticos y los derechos de las personas y organizaciones, se debe apostar por un ecosistema de rendición de cuentas algorítmico que aúne los esfuerzos del sector público, el sector privado y las entidades del tercer sector, así como por un trabajo más cooperativo entre distintos ámbitos de actuación en los que los algoritmos pueden tener un impacto relevante. Las personas usuarias, tanto dentro como fuera de las organizaciones, también deben tener un rol importante en los procesos de evaluación, y muy especialmente aquellos colectivos afectados por las decisiones algorítmicas, así como quienes sufren una mayor vulnerabilidad.
Lista(s) en las que aparece este ítem: Economía del dato e IA | Novedades marzo 2024 | Novedades
    Valoración media: 0.0 (0 votos)
Tipo de ítem Ubicación actual Colección Signatura Estado Fecha de vencimiento Código de barras
Informes Informes CDO

El Centro de Documentación del Observatorio Nacional de las Telecomunicaciones y de la Sociedad de la Información (CDO) os da la bienvenida al catálogo bibliográfico sobre recursos digitales en las materias de Tecnologías de la Información y telecomunicaciones, Servicios públicos digitales, Administración Electrónica y Economía digital. 

 

 

Colección digital Acceso libre online 1000020178020

A medida que avanza la implementación de algoritmos en una variedad de contextos y sectores, se vuelve cada vez más necesario el debate sobre los aspectos éticos y de gobernanza de la inteligencia artificial. Este documento responde a la necesidad de conocer las implicaciones de las evaluaciones de algoritmos en un contexto marcado por su aplicación creciente en diferentes ámbitos de la vida humana. Con el fin de aportar claridad sobre esta temática compleja se presentan conceptos clave, herramientas y métodos para desarrollar evaluaciones de algoritmos con distintas perspectivas, se aborda el ecosistema de actores y sectores involucrados en estos procesos y se ofrecen recomendaciones de mejora para avanzar hacia evaluaciones algorítmicas que aporten valor a las sociedades actuales.

Para el desarrollo de este informe, se siguió una metodología cualitativa, compuesta por tres fases: una revisión sistemática de literatura académica, un análisis documental de literatura gris y la realización de entrevistas semiestructuradas a especialistas en inteligencia artificial (IA) y evaluaciones de algoritmos.

El informe señala que, a medida que avanza la implementación de algoritmos en una variedad de contextos y sectores, se vuelve cada vez más necesario el debate sobre los aspectos éticos y de gobernanza de la inteligencia artificial. Las evaluaciones de algoritmos pueden contribuir a paliar dichos efectos, con la detección de aspectos problemáticos como la discriminación de determinadas poblaciones, la distorsión de la realidad o la explotación de información personal. Para avanzar hacia el diseño e implementación de algoritmos de una manera responsable, que respete los principios éticos y los derechos de las personas y organizaciones, se debe apostar por un ecosistema de rendición de cuentas algorítmico que aúne los esfuerzos del sector público, el sector privado y las entidades del tercer sector, así como por un trabajo más cooperativo entre distintos ámbitos de actuación en los que los algoritmos pueden tener un impacto relevante. Las personas usuarias, tanto dentro como fuera de las organizaciones, también deben tener un rol importante en los procesos de evaluación, y muy especialmente aquellos colectivos afectados por las decisiones algorítmicas, así como quienes sufren una mayor vulnerabilidad.

No hay comentarios en este titulo.

para colocar un comentario.

Haga clic en una imagen para verla en el visor de imágenes

Copyright© ONTSI. Todos los derechos reservados.
x
Esta web está utilizando la política de Cookies de la entidad pública empresarial Red.es, M.P. se detalla en el siguiente enlace: aviso-cookies. Acepto