No le temamos a la inteligencia artificial

Ray Kurzweil da respuesta a las preocupaciones formuladas por Elon Musk y Stephen Hawking sobre los posibles peligros futuros a partir del desarrollo de la inteligencia artificial. Este artículo fue publicado en la revista Time en su sección Ideas.

Time-Dont-fear-artificial-intelligence-by-Ray-KurzweilStephen Hawking, físico prominente, dijo recientemente que una vez la inteligencia artificial supere a la inteligencia humana podría representar un peligro para la existencia de nuestra civilización.

Elon Musk, pionero del dinero digital, vuelos espaciales y vehículos eléctricos, ha levantado su voz señalando preocupaciones similares.

Si la inteligencia artificial se convierte en una amenaza para la existencia humana, no será la primera amenaza que tengamos. La existencia de la humanidad corrió un grave riesgo cuando yo era aún un niño sentado a mi escritorio en la década de 1950.

Desde entonces, ha existido la posibilidad de que un bioterrorista desarrolle algún virus para el cual nuestro cuerpo no tenga defensa alguna. La tecnología es una espada de doble filo, el fuego nos da calor pero también puede quemar poblados.

La típica película futurista distópica tiene uno o dos individuos o grupos peleando entre sí por el control de la “inteligencia artificial” (IA). O vemos a la misma IA combatiendo a los seres humanos por el dominio del mundo. Sin embargo, esa no es la manera en que la inteligencia artificial está integrada al mundo de hoy. La IA no está en una o dos manos, está en 1 ó 2mil millones de manos.

Un niño en África con un smartphone tiene un acceso más inteligente al conocimiento que el presidente de los Estados Unidos hace 20 años. A medida que la IA se hace más inteligente, su uso será aún mayor. La capacidad mental de prácticamente todas las personas será aún mayor con su ayuda en no más de una década.

Tendremos conflicto entre grupos de personas, cada uno de esos grupos con su propia IA. Esa es ya la situación. Sin embargo, podemos tener un poco de alivio si logramos una reducción profunda y exponencial de la violencia, como la documentó Steven Pinker en su libro Better Angels of Our Nature: Why Violence Has Declined, publicado en 2011. De acuerdo con Pinker, aunque las estadísticas varían dependiendo del lugar, el promedio de muerte en guerra se ha reducido varios cientos por ciento comparado con el de hace 600 años.

Desde ese mismo tiempo, los asesinatos también se han reducido substancialmente. La gente se sorprende con esto ya que tenemos la impresión que la violencia está al alza, sin embargo esta impresión se da a consecuencia de otra tendencia: exponencialmente tenemos mejor información que nos señala lo que no funciona en el mundo –otro desarrollo acompañado de IA.

Existen estrategias que podemos implementar para mantener tecnologías emergentes como IA en un nivel seguro. Consideremos la biotecnología, por ejemplo, que se encuentra unos 20 años adelante de la IA. La reunión Asilomar ­Conference on Recombinant DNA fue organizada en 1975 para determinar los peligros potenciales y dilucidar una estrategia para conservar su desarrollo en un nivel seguro.

La guía resultante de esta reunión, que ha sido revisada por la industria desde entonces, ha funcionado muy bien: no se han dado problemas significativos, accidentales o intencionales, en los últimos 39 años. Ahora vemos grandes avances en tratamientos médicos ya en práctica clínica y ninguno de los problemas previstos en esa época.

Las consideraciones sobre una guía ética para IA surgen ya en Isaac Asimov con sus Tres Leyes de la Robótica, incluidas en el cuento “Runaround” de 1942, ocho años antes de que Alan Turing introdujera el campo de Inteligencia Artificial en su artículo “Computing Machinery and Intelligence” en 1950.

La idea promedio en la actualidad entre los que desarrollamos IA es que nos faltan aún varias décadas para lograr un nivel de inteligencia humano. Yo soy más optimista y coloco la fecha en el 2029. De cualquier manera, tenemos tiempo para implementar un estándar ético.

Cuento "Runaround" de Isaac Asimov, incluído en la colección Robot Visions.

Cuento “Runaround” de Isaac Asimov, incluído en la colección Visiones de Robot.

Existen esfuerzos en empresas y universidades para desarrollar estrategias de seguridad y guías para la IA, algunas de las cuales están ya en uso. De manera similar a la guía de Asilomar, una idea es definir con claridad la misión de cada programa de IA y construir utilizando encriptación para prevenir usos no autorizados.

Ultimadamente, el método más importante que podemos implementar para conservar la IA segura es hacer funcionar hoy nuestros gobiernos e instituciones sociales. Somos ya una civilización humano-máquina.

La mejor manera de evitar un conflicto destructivo en el futuro es profundizar los ideales sociales, que ya han reducido en mucho la violencia.

La inteligencia artificial hoy ayuda a diagnosticar enfermedades, encontrar su cura, desarrollar energía renovable, limpiar el medio ambiente, proporcionar educación de alta calidad a todas las personas en cualquier parte del mundo, ayuda a los deshabilitados –incluyendo la voz actual de Hawking– y otros cientos de contribuciones más.

Tenemos la oportunidad en las décadas por venir de realizar grandes avances en los retos más importantes de la humanidad. La inteligencia artificial será la tecnología pivote para lograr este progreso. Tenemos el imperativo moral de llevar a buen término está promesa siempre y cuando controlemos el peligro que conlleva. No será la primera vez que tengamos éxito en realizarlo.

Las tres leyes de la robótica de Isaac Asimov

  1. Un robot no hará daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
  2. Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la 1ª Ley.
  3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la 1ª o la 2ª Ley.1

Artículo publicado en:
Don’t Fear Artificial Intelligence