La empresa Estudio Alfa, integrada en el PCTCLM, nos habla en este post de los beneficios y los riesgos de la inteligencia artificial.

Desde SIRI hasta los coches de conducción independiente, la inteligencia artificial está avanzando rápidamente. Mientras que la ciencia ficción normalmente representa la inteligencia artificial como robots con características humanas, la inteligencia artificial puede abarcar cualquier cosa. Desde los algoritmos de búsqueda de Google hasta el Watson de IBM y las armas autónomas.

¿Qué es la inteligencia artificial?

Hoy en día la inteligencia artificial se conoce como inteligencia artificial estrecha (o inteligencia artificial débil). Esto significa que está diseñada para realizar una tarea estrecha (p. ej. reconocimiento facial, búsqueda en internet o conducir un coche). Sin embargo, el objetivo a largo plazo de varios investigadores es crear una inteligencia artificial general (o inteligencia artificial fuerte). La inteligencia artificial estrecha podría superar a los humanos en cualquier tarea específica, como el ajedrez o la resolución de ecuaciones. Pero, la inteligencia artificial general superaría a los humanos en prácticamente cualquier tarea cognitiva.

¿Por qué investigar sobre la seguridad de la inteligencia artificial?

A corto plazo, el objetivo de mantener el impacto beneficioso de la inteligencia artificial en la sociedad instiga a la investigación en diferentes áreas. Desde la economía y el derecho, hasta temas técnicos como la verificación, la validez, la seguridad y el control. Si tu ordenador se rompe o lo hackean, eso solo será una pequeña molestia. Un sistema de inteligencia artificial hará lo que quieras al controlar tu coche, avión, marcapasos, sistema de negocio automatizado o tu red eléctrica. Otro problema es prevenir una carrera armamentística devastadora de armas autónomas.

A largo plazo, una cuestión importante es qué pasará si la búsqueda de una inteligencia artificial fuerte prospera y un sistema de inteligencia artificial se vuelve mejor que los humanos en todas las tareas cognitivas. Según dijo I.J. Good en 1965, el hecho de diseñar sistemas de inteligencia artificial más inteligentes es una tarea cognitiva.

Explosión de inteligencia

Un sistema de este tipo podría potencialmente experimentar una automejora recurrente. Podría desencadenar una explosión de inteligencia que dejaría al intelecto humano muy atrás. Al inventar nuevas tecnologías revolucionarias, dicha superinteligencia podría ayudarnos a acabar con la guerra, las enfermedades y la pobreza.

La creación de una inteligencia artificial fuerte podría ser el mayor acontecimiento de la historia de la humanidad.

Sin embargo, algunos expertos han expresado su preocupación de que también podría ser el último. A menos que aprendamos a alinear los objetivos de la inteligencia artificial con los nuestros, antes de que esta se vuelva superinteligente.

Hay quienes cuestionan si alguna vez se podrá obtener una inteligencia artificial fuerte. Otros insisten en que está garantizado que la creación de una inteligencia artificial superinteligente será beneficiosa.

Contemplamos ambas posibilidades, pero también reconocemos el potencial de que un sistema de inteligencia artificial cause, intencionalmente o no, un gran daño. Creemos que la investigación de hoy nos ayudará a prepararnos mejor y a prevenir tales consecuencias potencialmente negativas en el futuro, disfrutando así de los beneficios de la inteligencia artificial mientras evitamos los obstáculos.

¿Cómo puede la inteligencia artificial ser peligrosa?

La mayoría de los investigadores están de acuerdo en que es poco probable que una inteligencia artificial superinteligente muestre emociones humanas como el amor o el odio. Y que no hay razón para esperar que la inteligencia artificial se vuelva intencionalmente benévolo o malévolo. En cambio, cuando se piensa en cómo la inteligencia artificial podría convertirse en un riesgo, los expertos piensan en dos posibles escenarios:

  1. La inteligencia artificial está programada para hacer algo devastador: Las armas autónomas son sistemas de inteligencia artificial programados para matar. En las manos de la persona equivocada, estas armas podrían fácilmente causar bajas masivas. Además, una carrera armamentística de la inteligencia artificial podría llevar inadvertidamente a una guerra de inteligencia artificial, que también acabaría en bajas masivas. Para evitar ser frustradas por el enemigo, estas armas estarían diseñadas para ser extremadamente difíciles de “apagar”, por lo que los seres humanos podrían perder el control de la situación. Este riesgo está presente incluso con una inteligencia artificial estrecha, pero crece a medida que aumentan los niveles de inteligencia y autonomía.
  1. La inteligencia artificial está programada para hacer algo beneficioso, pero desarrolla un método destructivo para lograr su objetivo: Esto puede suceder cuando no alineamos completamente los objetivos de la inteligencia artificial con los nuestros, lo cual es sorprendentemente difícil. Si le pides a un coche inteligente obediente que te lleve al aeropuerto lo más rápido posible, puede que te lleve allí perseguido por helicópteros y cubierto de vómito, haciendo no lo que querías sino literalmente lo que pediste. Si a un sistema superinteligentese le asigna un ambicioso proyecto de geoingeniería, podría causar estragos en nuestro ecosistema como efecto secundario, y ver los intentos humanos de detenerlo como una amenaza a la que hay que hacer frente.

Una inteligencia artificial superinteligente será extremadamente buena

Como ilustran estos ejemplos, la preocupación por la inteligencia artificial avanzada no es la malevolencia sino la competencia. Una inteligencia artificial superinteligente será extremadamente buena en el cumplimiento de sus objetivos, y si esos objetivos no están alineados con los nuestros, tenemos un problema. Probablemente no seas un malvado anti-hormigas que pisa hormigas por malicia, pero si estás a cargo de un proyecto de energía verde hidroeléctrica y hay un hormiguero en la región que se va a inundar, qué pena por las hormigas. Un objetivo clave de la investigación sobre seguridad de la inteligencia artificial es nunca poner a la humanidad en la posición de esas hormigas.

¿Por qué el reciente interés en la seguridad de inteligencia artificial?

Stephen Hawking, Elon Musk, Steve Wozniak, Bill Gates y muchos otros grandes nombres de la ciencia y la tecnología han expresado recientemente su preocupación en los medios de comunicación y a través de cartas abiertas sobre los riesgos que plantea la inteligencia artificial, a los que se han unido muchos de los principales investigadores de la inteligencia artificial. ¿Por qué el tema aparece de repente en los titulares?

La idea de que la búsqueda de una inteligencia artificial fuerte finalmente tendría éxito se pensó durante mucho tiempo como ciencia ficción, a siglos o más de distancia.

Sin embargo, gracias a los recientes avances, muchos hitos de la inteligencia artificial, que los expertos consideraban que estaban a décadas de distancia hace apenas cinco años, se han alcanzado ahora, haciendo que muchos expertos se tomen en serio la posibilidad de la superinteligencia en nuestra vida. Mientras que algunos expertos todavía suponen que la inteligencia artificial a nivel humano está a siglos de distancia, la mayoría de las investigaciones de inteligencia artificial en la Conferencia de Puerto Rico del 2015 vaticinaron que sucedería antes del 2060. Dado que completar la investigación de seguridad requerida puede durar décadas, es prudente comenzarla ahora.

No tenemos una forma segura de predecir cómo actuará

Debido a que la inteligencia artificial tiene el potencial de convertirse en más inteligente que cualquier humano, no tenemos una forma segura de predecir cómo actuará. No podemos utilizar los desarrollos tecnológicos del pasado como base porque nunca hemos creado nada que tenga la capacidad de, consciente o inconscientemente, ser más inteligente que nosotros. El mejor ejemplo de lo que podríamos combatir puede ser nuestra propia evolución. La gente ahora controla el planeta, no porque seamos los más fuertes, rápidos o grandes, sino porque somos los más inteligentes. Si ya no somos los más inteligentes, ¿tenemos la seguridad de mantener el control?

La opinión de FLI es que nuestra civilización florecerá siempre y cuando ganemos la carrera entre el creciente poder de la tecnología y la sabiduría con la que la manejamos. En el caso de la tecnología de la inteligencia artificial, la posición de FLI es que la mejor manera de ganar esa carrera no es impedir la primera, sino acelerar la segunda, apoyando la investigación de seguridad de la inteligencia artificial.

Los mitos más conocidos de la inteligencia artificial avanzada.

Se está teniendo una conversación fascinante sobre el futuro de la inteligencia artificial y lo que significará/debería significar para la humanidad. Existen fascinantes controversias en las que los principales expertos del mundo no están de acuerdo. Por ejemplo: el futuro impacto de la inteligencia artificial en el mercado laboral; si se desarrollará la inteligencia artificial a nivel humano; si esto llevará a una explosión de inteligencia; y si esto es algo que debemos acoger o temer.

Pero también hay muchos ejemplos de pseudocontroversias aburridas causadas por personas que no se entienden ni se hablan entre ellas. Para ayudarnos a centrarnos en las controversias interesantes y las preguntas abiertas ( y no en los malentendidos) vamos a aclarar algunos de los mitos más comunes…

Continuar Leyendo el artículo completo