AI Value Alignment: Guiding Artificial Intelligence Towards Shared Human Goals (Registro nro. 8136)

000 -LEADER
fixed length control field 03978nam a22003017a 4500
001 - CONTROL NUMBER
control field 00008136
003 - CONTROL NUMBER IDENTIFIER
control field ES-MaONT
005 - DATE AND TIME OF LATEST TRANSACTION
control field 20241218012011.0
008 - FIXED-LENGTH DATA ELEMENTS--GENERAL INFORMATION
fixed length control field 241015s202410uusz cao|fq|||| 001 0 eng d
040 ## - CATALOGING SOURCE
Original cataloging agency ES-MaONT
110 ## - MAIN ENTRY--CORPORATE NAME
9 (RLIN) 8316
Corporate name or jurisdiction name as entry element Global Future Council on the Future of AI
245 ## - TITLE STATEMENT
Title AI Value Alignment: Guiding Artificial Intelligence Towards Shared Human Goals
Statement of responsibility, etc. / Global Future Council on the Future of AI ; World Economic Forum
260 ## - PUBLICATION, DISTRIBUTION, ETC.
Place of publication, distribution, etc. Ginebra :
Name of publisher, distributor, etc. World Economic Forum
Date of publication, distribution, etc. 10/2024
300 ## - PHYSICAL DESCRIPTION
Extent 25 p.
Dimensions ; 1 documento PDF
336 ## - CONTENT TYPE
Source isbdcontent
Content type term texto (visual)
337 ## - MEDIA TYPE
Source isbdmedia
Media type term electrónico
338 ## - CARRIER TYPE
Source rdacarrier
Carrier type term recurso en línea
520 ## - SUMMARY, ETC.
Summary, etc. La alineación de valores en la inteligencia artificial (IA) es esencial para garantizar que los sistemas de IA concuerden con los valores humanos fundamentales y funcionen de forma que reflejen los diversos valores sociales y principios éticos. Este documento, elaborado por los miembros del Global Future Council on the Future of AI, explora la cuestión de la alineación de los valores en esta tecnología, centrándose en la integración de los principios éticos en el desarrollo y despliegue de las tecnologías de IA. El informe destaca los marcos y metodologías prácticos diseñados para integrar las consideraciones éticas en todo el ciclo de vida de la inteligencia artificial, desde el desarrollo hasta la aplicación y el uso posterior. De este modo, se promueve el uso responsable y ético de la inteligencia artificial, garantizando que tales tecnologías sirvan a la humanidad al mismo tiempo que respetan los derechos fundamentales y la justicia social, fomentando la confianza mutua y la responsabilidad en estos sistemas.<br/><br/>Respecto a la metodología empleada, en primer lugar se lleva a cabo un análisis de una taxonomía de valores que muestra los distintos tipos y las preferencias humanas. A continuación, se examina cómo puede aplicarse en la práctica la alineación de valores, explorando su importancia en distintas fases del desarrollo de sistemas de inteligencia artificial en diferentes contextos y dentro de diversas comunidades. La investigación abarca herramientas esenciales como marcos, directrices y metodologías, que son cruciales para garantizar que los sistemas de IA se alineen con los valores humanos.<br/><br/>El análisis apunta a que la alineación de los valores de la inteligencia artificial consiste en un proceso polifacético y dinámico que requiere la integración de principios éticos en cada etapa del ciclo de vida de esta tecnología. Importantes facilitadores —como los marcos, el compromiso humano, el cambio organizativo y las auditorías— proporcionan enfoques estructurados para integrar los valores en los sistemas de IA. Estas herramientas y metodologías garantizan que tales sistemas se desarrollen, desplieguen y gestionen de forma que defiendan la dignidad humana, protejan los derechos individuales y fomenten la confianza mutua y la transparencia. Mediante la participación continua de las partes interesadas, la realización de auditorías rigurosas y el mantenimiento de la flexibilidad para dar cabida a diversas interpretaciones culturales de los valores, las organizaciones pueden trabajar para mantener los sistemas de inteligencia artificial alineados con las normas sociales y los estándares éticos. El documento subraya la conexión crítica entre la alineación de valores y las líneas rojas de la ética de la IA, haciendo hincapié en que respetar estos límites es esencial para prevenir comportamientos poco éticos y mantener la confianza en estas tecnologías.
650 #0 - SUBJECT ADDED ENTRY--TOPICAL TERM
9 (RLIN) 4348
Topical term or geographic name entry element Inteligencia Artificial
650 #0 - SUBJECT ADDED ENTRY--TOPICAL TERM
9 (RLIN) 7
Topical term or geographic name entry element Sociedad digital
653 ## - INDEX TERM--UNCONTROLLED
Uncontrolled term sistemas IA
653 ## - INDEX TERM--UNCONTROLLED
Uncontrolled term ética
653 ## - INDEX TERM--UNCONTROLLED
Uncontrolled term valores
710 ## - ADDED ENTRY--CORPORATE NAME
Corporate name or jurisdiction name as entry element World Economic Forum
9 (RLIN) 2608
856 ## - ELECTRONIC LOCATION AND ACCESS
Uniform Resource Identifier https://www3.weforum.org/docs/WEF_AI_Value_Alignment_2024.pdf
Nonpublic note Abierto
Link text Acceso a la publicación
942 ## - ADDED ENTRY ELEMENTS (KOHA)
Source of classification or shelving scheme
Koha item type Informes
Existencias
Withdrawn status Lost status Damaged status Not for loan Collection code Home library Current library Shelving location Date acquired Source of acquisition Total Checkouts Barcode Date last seen Price effective from Koha item type
      Acceso libre online Colección digital CDO CDO   15/10/2024 Descarga Internet   1000020178326 15/10/2024 15/10/2024 Informes
Copyright© ONTSI. Todos los derechos reservados.
x
Esta web está utilizando la política de Cookies de la entidad pública empresarial Red.es, M.P. se detalla en el siguiente enlace: aviso-cookies. Acepto