Seguritecnia 445
70 SEGURITECNIA Septiembre 2017 Artículo Técnico mente, para el beneficio de toda la humanidad. 16) Control humano: los seres huma- nos deberían escoger cómo y si de- legan decisiones a los sistemas de IA para completar objetivos escogidos previamente. 17) Sin subversión: el poder conferido por el control de sistemas de IA alta- mente avanzados debería respetar y mejorar, más que subvertir, los proce- sos sociales y cívicos de los que de- pende la salud de la sociedad. 18) Carrera armamentística: debería ser evitada cualquier carrera armamen- tística de armas autónomas letales. 19) Capacidad de precaución: al no ha- ber consenso, deberíamos evitar las asunciones sobre los límites superio- res de las futuras capacidades de la IA. 20) Importancia: la IA avanzada podría representar un profundo cambio en la historia de la vida en la Tierra, y de- bería ser planificada y gestionada con el cuidado y los recursos adecuados. 21) Riesgos: los riesgos asociados a los sistemas de IA, especialmente los ca- tastróficos o existenciales, deben es- tar sujetos a planificación y esfuerzos de mitigación equiparables a su im- pacto esperado. 22) Automejora recursiva: los sistemas de IA diseñados para automejorarse recursivamente o autoreplicarse de una forma que pudiera llevar al rápido incremento en su calidad o cantidad deben estar sujetos a unas estrictas medidas de control y seguridad. 23) Bien común: la superinteligencia de- bería ser desarrollada sólo en servicio de unos ideales éticos ampliamente compartidos y para beneficio de toda la humanidad, más que para un Es- tado u organización. 7) Transparencia en los fallos: si un sis- tema de IA ocasiona un daño debería ser posible determinar la causa. 8) Transparencia judicial: cualquier in- tervención de un sistema autónomo en una decisión debería estar acom- pañada por una explicación satisfac- toria y auditable por parte de una au- toridad humana competente. 9) Responsabilidad: los diseñadores y desarrolladores de sistemas avanza- dos de IA son depositarios de las im- plicaciones morales de su uso, mal uso y acciones, con la responsabili- dad y oportunidad de dar forma a di- chas implicaciones. 10) Alineación de valores: los sistemas de IA altamente autónomos deberían ser diseñados para que sus metas y comportamientos puedan alinearse con los valores humanos a lo largo de sus operaciones. 11) Valores humanos: los sistemas de IA deberían ser diseñados y operados para que sean compatibles con los ideales de dignidad humana, dere- chos, libertades y diversidad cultural. 12) Privacidad personal: la gente debe- ría tener el derecho de acceder, ges- tionar y controlar los datos que ge- neran, dando a los sistemas de IA el poder de analizar y utilizar esa infor- mación. 13) Libertad y privacidad: la aplicación de la IA a los datos personales no puede restringir de forma poco razo- nable la libertad, real o sentida, de las personas. 14) Beneficio compartido: las tecnolo- gías de IA deberían beneficiar y forta- lecer a tanta gente como sea posible. 15) Prosperidad compartida: la pros- peridad económica creada por la IA debería ser compar tida amplia- marco de la Unión Europea, así como establecer la baseline para la creación de un marco de referencia de “Derecho robótico” para Europa. Desde nuestro punto de vista, cual- quier legislación o desarrollo norma- tivo en materia de “Derecho robótico” y que, por tanto, tenga por objeto re- gular las relaciones robot-humano y sus posibles implicaciones, debería es- tar sustentado sobre las base de unos principios éticos y sociales sólidos que sirvieran para limitar, o al menos deli- mitar, las posibles implicaciones nega- tivas que pudieran derivarse de la in- corporación de la Inteligencia Artificial en nuestra vida cotidiana. Principios Los “23 Principios de Asilomar” han sido apoyados por más de 1.200 figu- ras relacionadas con la innovación tec- nológica y científica, como Stephen Hawking y Elon Musk, entre otros, y podrían ser un buen punto de partida para sentar los primeros cimientos de lo que en un futuro podría denomi- narse “Teoría o Filosofía del Derecho Robótico”, y que exponemos a conti- nuación: 1) Meta de la investigación: el objetivo de la investigación de la IA debería ser crear inteligencia beneficiosa. 2) Financiación de la investigación: la inversión en IA debería ir acompa- ñada de fondos para realizar estudios sobre aspectos éticos, sociales, lega- les y económicos. 3) Enlace entre ciencia y política: debe- ría haber un intercambio constructivo entre los investigadores de IA y los le- gisladores. 4) Cultura de la investigación: se debe- ría fomentar una cultura de coope- ración, confianza y transparencia en- tre los investigadores y desarrollado- res de IA. 5) Evitar las carreras: los desarrolladores de sistemas de IA deberían actuar de forma proactiva para evitar deficien- cias en los estándares de seguridad. 6) Seguridad: los sistemas de IA debe- rían garantizar la seguridad a lo largo de su vida operativa. La rapidez con la que se suceden los avances en Inteligencia Artificial va a requerir de un desarrollo normativo completo
Made with FlippingBook
RkJQdWJsaXNoZXIy MTI4MzQz