TRIBUNA
Riesgos de la inteligencia artificial |
Nick Bostrom, en su reciente libro Superinteligencia, plantea interesantes e inquietantes cuestiones. Desde el análisis calmado de la previsible llegada de la llamada Singularidad (V. Vinge, R. Kurzweil) y las posibles vías de cómo se alcanzará esa explosión de inteligencia hasta el tratamiento riguroso de escenarios para poder controlar dicha explosión, tan inevitable como posible. Está hablando de una superinteligencia artificial. En su última página hace un llamamiento al sentido colectivo común para que las mentes mejor preparadas se pongan en pie para establecer buenas prácticas, ahondar en las implicaciones sociales, económicas y existenciales que provocará esta singularidad, y definir mecanismos de control que garanticen la seguridad futura.
El reclamo no es trivial. De hecho, Elon Musk, tras su lectura, no pudo menos que enviar un mensaje a través de Twitter alertando sobre la necesidad de ser "supercautelosos" con la Inteligencia Artificial que, compara, es potencialmente más peligrosa que las armas nucleares. Por la prensa sabemos que tanto Stephen Hawking como Bill Gates se han manifestado en similares términos.
Afortunadamente, se han producido hechos recientes que parecen responder la llamada de Bostrom, al menos en el mundo occidental. Fue en octubre de 2016 cuando la Administración Obama emitió el National Artificial Intelligence Research and Development Strategic Plan recomendando la identificación de oportunidades, la coordinación de las iniciativas en investigación y el análisis de la fuerza laboral existente en el campo de la IA para implementar medidas que refuercen el conocimiento y la especialización en el país. Tres meses más tarde se desarrolló una cumbre de investigadores en Inteligencia Artificial junto a destacados especialistas en economía, derecho, ética y filosofía en Asilomar (California). Organizado por el Instituto Future of Life, emitieron un comunicado que se ha dado en llamar Los Principios de Inteligencia Artificial de Asilomar. Establece pautas para la investigación y resalta aspectos éticos relacionados con la seguridad, responsabilidad, privacidad, libertad o prosperidad compartida, así como alusiones a riesgos derivados de la carrera armamentística y otros tipos de catástrofes derivadas de un mal uso de la IA. En febrero de este año se aprobó en el Parlamento Europeo un informe consistente en un conjunto de propuestas relacionadas con la fijación de responsabilidades junto a una alerta sobre las consecuencias para el empleo en Europa debido al uso de la IA. A la vez, propone un código de conducta en la investigación que garantice que la IA cumpla una serie de estándares legales y éticos, respetando la dignidad de las personas. También propone la creación de una Agencia Europea de Robótica e Inteligencia Artificial, similar a la ya creada en EEUU. El año próximo habrá de ser votada esta iniciativa en la Comisión Europea. Finalmente, el mes pasado y ya en nuestro país, se organizó en Barcelona el evento Inteligencia Artificial: Sueños, riesgos y realidad, con presencia de expertos de todo el mundo. El resultado es un manifiesto que pretende sensibilizar a la sociedad de los riesgos y beneficios que supone. Igualmente, propone una serie de principios de transparencia, prudencia, etcétera.
No deja de ser significativo que en el transcurso de muy pocos meses se hayan movilizado iniciativas tanto en EEUU como en Europa para alertar, analizar y emitir recomendaciones alineadas con las tesis de Bostrom. Se trata de una gran noticia y es de esperar que la respuesta sea esa coordinación necesaria -como compleja- entre estados. Tenemos noticias constantes acerca de inversiones importantes en el campo de la IA, procedentes de empresas las tecnológicas que se han adherido a alguna de las iniciativas anteriores. Pero tampoco era de extrañar ya que algunas de ellas financian precisamente dichas iniciativas.
Menos sabemos de las inversiones realizadas por las agencias de Defensa de los distintos países. Y existen, ya que la IA confiere considerables ventajas en materia de defensa y ataque militar frente a las estrategias y el armamento convencional. La Agencia de Proyectos Avanzados en Defensa americana (DARPA) está licitando y adjudicando importantes contratos para desarrollos en armamento sofisticado, algunos de ellos dotados de IA con capacidad para matar de forma autónoma (es decir, el algoritmo decide). En el otro lado del mundo, el Ejército Popular de Liberación chino está mejorando la precisión en combate en el espacio y en el ciberespacio, aspecto este último en el que Rusia también destaca. Sin duda, el uso de la IA en estos países será bien diferente, dada las culturas tan divergentes que exhiben.
Es, pues, realmente imperioso tomar en serio estas iniciativas públicas y privadas e implementar las medidas ideadas. Pero a esto hay que unir necesariamente una mayor supervisión y transparencia de los gobiernos en esta materia si queremos darle un futuro más cierto y más humano a las próximas generaciones.
No hay comentarios:
Publicar un comentario