000 -LEADER |
fixed length control field |
03978nam a22003017a 4500 |
001 - CONTROL NUMBER |
control field |
00008136 |
003 - CONTROL NUMBER IDENTIFIER |
control field |
ES-MaONT |
005 - DATE AND TIME OF LATEST TRANSACTION |
control field |
20241218012011.0 |
008 - FIXED-LENGTH DATA ELEMENTS--GENERAL INFORMATION |
fixed length control field |
241015s202410uusz cao|fq|||| 001 0 eng d |
040 ## - CATALOGING SOURCE |
Original cataloging agency |
ES-MaONT |
110 ## - MAIN ENTRY--CORPORATE NAME |
9 (RLIN) |
8316 |
Corporate name or jurisdiction name as entry element |
Global Future Council on the Future of AI |
245 ## - TITLE STATEMENT |
Title |
AI Value Alignment: Guiding Artificial Intelligence Towards Shared Human Goals |
Statement of responsibility, etc. |
/ Global Future Council on the Future of AI ; World Economic Forum |
260 ## - PUBLICATION, DISTRIBUTION, ETC. |
Place of publication, distribution, etc. |
Ginebra : |
Name of publisher, distributor, etc. |
World Economic Forum |
Date of publication, distribution, etc. |
10/2024 |
300 ## - PHYSICAL DESCRIPTION |
Extent |
25 p. |
Dimensions |
; 1 documento PDF |
336 ## - CONTENT TYPE |
Source |
isbdcontent |
Content type term |
texto (visual) |
337 ## - MEDIA TYPE |
Source |
isbdmedia |
Media type term |
electrónico |
338 ## - CARRIER TYPE |
Source |
rdacarrier |
Carrier type term |
recurso en línea |
520 ## - SUMMARY, ETC. |
Summary, etc. |
La alineación de valores en la inteligencia artificial (IA) es esencial para garantizar que los sistemas de IA concuerden con los valores humanos fundamentales y funcionen de forma que reflejen los diversos valores sociales y principios éticos. Este documento, elaborado por los miembros del Global Future Council on the Future of AI, explora la cuestión de la alineación de los valores en esta tecnología, centrándose en la integración de los principios éticos en el desarrollo y despliegue de las tecnologías de IA. El informe destaca los marcos y metodologías prácticos diseñados para integrar las consideraciones éticas en todo el ciclo de vida de la inteligencia artificial, desde el desarrollo hasta la aplicación y el uso posterior. De este modo, se promueve el uso responsable y ético de la inteligencia artificial, garantizando que tales tecnologías sirvan a la humanidad al mismo tiempo que respetan los derechos fundamentales y la justicia social, fomentando la confianza mutua y la responsabilidad en estos sistemas.<br/><br/>Respecto a la metodología empleada, en primer lugar se lleva a cabo un análisis de una taxonomía de valores que muestra los distintos tipos y las preferencias humanas. A continuación, se examina cómo puede aplicarse en la práctica la alineación de valores, explorando su importancia en distintas fases del desarrollo de sistemas de inteligencia artificial en diferentes contextos y dentro de diversas comunidades. La investigación abarca herramientas esenciales como marcos, directrices y metodologías, que son cruciales para garantizar que los sistemas de IA se alineen con los valores humanos.<br/><br/>El análisis apunta a que la alineación de los valores de la inteligencia artificial consiste en un proceso polifacético y dinámico que requiere la integración de principios éticos en cada etapa del ciclo de vida de esta tecnología. Importantes facilitadores —como los marcos, el compromiso humano, el cambio organizativo y las auditorías— proporcionan enfoques estructurados para integrar los valores en los sistemas de IA. Estas herramientas y metodologías garantizan que tales sistemas se desarrollen, desplieguen y gestionen de forma que defiendan la dignidad humana, protejan los derechos individuales y fomenten la confianza mutua y la transparencia. Mediante la participación continua de las partes interesadas, la realización de auditorías rigurosas y el mantenimiento de la flexibilidad para dar cabida a diversas interpretaciones culturales de los valores, las organizaciones pueden trabajar para mantener los sistemas de inteligencia artificial alineados con las normas sociales y los estándares éticos. El documento subraya la conexión crítica entre la alineación de valores y las líneas rojas de la ética de la IA, haciendo hincapié en que respetar estos límites es esencial para prevenir comportamientos poco éticos y mantener la confianza en estas tecnologías. |
650 #0 - SUBJECT ADDED ENTRY--TOPICAL TERM |
9 (RLIN) |
4348 |
Topical term or geographic name entry element |
Inteligencia Artificial |
650 #0 - SUBJECT ADDED ENTRY--TOPICAL TERM |
9 (RLIN) |
7 |
Topical term or geographic name entry element |
Sociedad digital |
653 ## - INDEX TERM--UNCONTROLLED |
Uncontrolled term |
sistemas IA |
653 ## - INDEX TERM--UNCONTROLLED |
Uncontrolled term |
ética |
653 ## - INDEX TERM--UNCONTROLLED |
Uncontrolled term |
valores |
710 ## - ADDED ENTRY--CORPORATE NAME |
Corporate name or jurisdiction name as entry element |
World Economic Forum |
9 (RLIN) |
2608 |
856 ## - ELECTRONIC LOCATION AND ACCESS |
Uniform Resource Identifier |
https://www3.weforum.org/docs/WEF_AI_Value_Alignment_2024.pdf |
Nonpublic note |
Abierto |
Link text |
Acceso a la publicación |
942 ## - ADDED ENTRY ELEMENTS (KOHA) |
Source of classification or shelving scheme |
|
Koha item type |
Informes |