Artículos

Principios de Asilomar, la forma de guiar el desarrollo de la IA en una dirección productiva

Comparte este contenido:

Debido a la relevancia que tendrá la Inteligencia Artificial en la humanidad, se han propuesto los 23 principios de Asilomar con el objetivo de que sean adoptados y ejercidos en beneficio de todos.

En enero 2017, convocados por la Conferencia Beneficial Artificial Intelligence 2017 organizado por Future of Life Institute, se reunieron investigadores, científicos y líderes de la industria relacionados con el desarrollo de la Inteligencia Artificial en Asilomar, California, Estados Unidos, quienes analizaron, debatieron y redactaron posteriormente los Asilomar IA Principles conocidos en español como los Principios de Asilomar.

KEY INSIGHTS

Algunos de quienes han signado estos principios son: Yann LeCun, Yoshua Bengio, Peter Norvig, Ray Kurzweil, Elon Musk, Stephen Hawking, Sang Yong Lee, entre otros.

En este encuentro, realizado en Asilomar, California, durante las actividades de la Conferencia BAI 2017 en la que se llevaron a cabo talleres y conferencias por destacadas personalidades como Stuart Russell, Yoshua Bengio, Francesca Rossi, Jeffrey Sachs, Erik Brynjolfsson, Nick Bostrom, Anthony Romero, Daniel Kahneman, Elon Musk, Larry Page, Eric Schmidt, entre otros, se discutieron los cambios y las oportunidades que tendrá la Inteligencia Artificial y los beneficios que la humanidad puede obtener de esta tecnología.

Uno de los objetivos de este encuentro fue que los asistentes propusieran una serie de principios para el desarrollo de la IA frente a sus trepidantes avances en los últimos años. Luego de darlo a conocer para que científicos sociales, líderes de la industria, investigadores y otros sectores de la comunidad internacional lo analizarán y lo enriquecieran, los asistentes a la Conferencia redactaron los 23 principios de Asilomar para la Inteligencia Artificial.

Divididos en tres temáticas, los principios de Asilomar son un conjunto de lineamientos, normas y valores propuestos para que sean adoptados por los involucrados en el desarrollo de Inteligencia Artificial pero también por la sociedad en su conjunto.

Los tres ejes temáticos de éstos principios son: 1) Cuestiones de Investigación; 2) Ética y Valores y 3) Problemas a largo plazo.

Entre los principios más representativos del punto 1, Cuestiones de investigación, se encuentran:

Metas de la investigación: el objetivo de la investigación de la IA no debería ser crear inteligencia sin dirigir, sino inteligencia beneficiosa.

Cultura de la Investigación: una cultura de cooperación, confianza y transparencia debería ser fomentada entre los investigadores y desarrolladores de IA.

Evitar las carreras: los equipos que estén desarrollando sistemas de IA deberían cooperar activamente para evitar sorpresas en los estándares de seguridad.

Del punto 2) Ética y valores:

Seguridad: los sistemas de IA deberían ser seguros a lo largo de su vida operativa, y verificables donde sea aplicable y posible.

Transparencia judicial: cualquier intervención de un sistema autónomo en una decisión debería ir acompañada de una explicación satisfactoria y auditable por parte de una autoridad humana competente.

Responsabilidad: los diseñadores y desarrolladores de sistemas avanzados de IA son depositarios de las implicaciones morales de su uso, mal uso y acciones, con la responsabilidad y oportunidad de dar forma a dichas implicaciones.

Valores humanos: los sistemas de IA deberían ser diseñados y operados para que sean compatibles con los ideales de dignidad humana, derechos, libertades y diversidad cultural.

Beneficio compartido: las tecnologías de IA deberían beneficiar y fortalecer a tanta gente como sea posible.

Prosperidad compartida: la prosperidad económica creada por la IA debería ser compartida ampliamente, para el beneficio de toda la Humanidad.

Carrera armamentística: debería ser evitada cualquier carrera armamentística de armas letales autónomas.

Del punto 3) Problemas a largo plazo:

Capacidad de precaución: al no haber consenso, deberíamos evitar las asunciones sobre los límites superiores de las futuras capacidades de la IA.

Automejora recursiva: los sistemas de IA diseñados para automejorarse recursivamente o autorreplicarse de una forma que pudiera llevar al rápido incremento en su calidad o cantidad deben estar sujetos a unas estrictas medidas de control y seguridad.

Bien común: la superinteligencia debería ser desarrollada sólo en servicio de unos ideales éticos ampliamente compartidos y para beneficio de toda la Humanidad, más que para un Estado u organización.

En éstos principios se pone especial énfasis en que la Inteligencia Artificial debería producir beneficios económicos y sociales en el conjunto de la sociedad, así como tomar todas las medidas necesarias relacionadas con la seguridad, al respecto, los principios de Asilomar son determinantes en que cualquier organización debería detener el desarrollo de armas letales autónomas.

Un manejo ético de esta tecnología deberá estar presente en su desarrollo y uso, por lo que los seres humanos debemos conducir el devenir de la IA respetando los derechos humanos y las libertades de las personas.

Éstos principios han sido firmados por 1274 investigadores de los campos de la Inteligencia Artificial y la Robótica, así como por 2451 personas de otros ámbitos pertenecientes a varios países del mundo.

ebook inteligencia artifical

Autor: Adrián Rodríguez

Ha colaborado en el desarrollo de contenidos en la Revista Digital Universitaria, una de las primeras revistas digitales de la UNAM y en Ciencia y Desarrollo, versión electrónica del Conacyt. Le apasionan los temas de ciencia, tecnología e innovación.

Autor: Adrián Rodríguez

Ha colaborado en el desarrollo de contenidos en la Revista Digital Universitaria, una de las primeras revistas digitales de la UNAM y en Ciencia y Desarrollo, versión electrónica del Conacyt. Le apasionan los temas de ciencia, tecnología e innovación.