FYI.

This story is over 5 years old.

Tecnología

No estamos listos para la súperinteligencia

El tiempo para preocuparse por una súperinteligencia artificial llegará pronto.
Inteligencia artificial. Imagen: Geralt/Pixabay

El problema con el mundo de hoy no es que muchas personas tengan miedo, es que muchas personas le temen a las cosas incorrectas. Considera esto: ¿Qué es lo que más te atemoriza? ¿Qué tu vida termine por culpa de un ataque terrorista o morir aplastado bajo un gran sillón?

Pese a que los medios de comunicación repiten todo el día que un ataque terrorista es inminente y que la amenaza de un mueble no existe, tu tumba es más probable que diga "murió debajo de un sillón comprado recientemente en Ikea" que "muerto en un ataque terrorista".

Publicidad

De hecho un asteroide tiene más probabilidades de matar a una persona que un rayo y los rayos son más peligrosos que el terrorismo. El punto es este: como he escrito en otros lugares, nuestras instituciones por lo general fallan al enfocarse en los riesgos que hay a nuestro alrededor. Desechamos los riesgos más probables mientras nos obsesionamos con eventos que son muy improbables.

Este marco teórico es la base de una reciente charla TED sobre la súperinteligencia artificial, llevada a cabo por el neurocientífico Sam Harris. Para aquellos que no prestan atención a las noticias, la súperinteligencia ha sido un tema de interés en los medios desde que el filósofo de Oxford, Nick Bostrom, publicó un sorpresivo best seller el año 2014 llamado Súperinteligencia.

Grandes figuras como Bill Gates, Elon Musk y Stephen Hawking expresaron preocupación por la posibilidad que una máquina súperinteligente de alguna tipo pueda transformarse en un muy poco benevolente jefe supremo de la humanidad, quizás catapultandonos a la eterna tumba llamada extinción.

No es sólo otra "herramienta" que alguien podría utilizar para destruir la civilización.. La súperinteligencia es un agente en sí misma.

Harris es el más reciente intelectual que ha gritado a los cuatro vientos: "¡Cuidado! Una máquina súperinteligente con los poderes de Dios puede aniquilar a la humanidad". Pero, ¿Este grado preocupación está garantizado? ¿Harris está tan loco como suena? Pese a lo fantástico que puede parecer esta amenaza súperinteligente, un vistazo más cercano revela que constituye, quizás, el más formidable desafío que nuestra especie ha encontrado en toda la evolución.

Publicidad

Pregúntate esto: ¿Qué hace peligrosas a las armas nucleares, biológicas, químicas y nano tecnológicas? La respuesta es que una persona mala o incompetente pueda utilizar estas armas para hacer daño a otros. Pero la súperinteligencia no es así, no es otra "herramienta" que alguien puede utilizar para destruir a la civilización. La súperinteligencia es un agente en sí misma

Y como nos han advertido los eruditos, una mente súperinteligente puede ser algo completamente distinto a nuestras mentes. Puede tener distintas tareas, motivaciones, categorías de pensamiento y hasta "emociones". El acto de antropomorfizar una súperinteligencia al proyectar nuestra propiedades mentales sobre ella, puede ser como un saltamontes diciendo a sus amigos que los humanos sólo disfrutan estar sobre el pasto, porque eso es lo que disfrutan los saltamontes. Obviamente es tonto e incorrecto.

Entonces una súperinteligencia puede ser algo que utilice a los humanos para sus propios propósitos, sería un agente único con su propia agenda. ¿Cuáles podrían ser estos propósitos? Ya que una súperinteligencia sería descendencia nuestra, quizás podríamos programar algunas tareas y lograr que sea nuestra amiga más que nuestra rival. Que prefiera amistad sobre enemistad.

Esto suena bien en teoría, pero surgen algunas preguntas muy serias. Por ejemplo ¿Cómo programamos valores humanos en una súperinteligencia? Entregar nuestras preferencias a través de código computacional tiene una serie de dificultades técnicas. Como señala Bostrom, los conceptos de alto nivel, como "felicidad", deben ser definidos "en términos que aparecen en el lenguaje de programación de la inteligencia artificial, así también como en lenguajes primitivos, como las operaciones matemáticas y las direcciones que señalan los contenidos dentro de los registros de memoria individual".

Publicidad

Nuestro sistema de valores suele ser mucho más complejo de lo que pensamos. Por ejemplo, imagina que programamos una súperinteligencia para valorar el bienestar de las criaturas sensibles, hecho que Harris identifica como el mayor bien moral. Si la súperinteligencia logra valorar el bienestar, ¿Por qué no podría destruir la humanidad inmediatamente y reemplazarnos con un gran galpón de cerebros humanos conectados a algo parecido a la Matrix? Excepto que en el mundo donde viviremos habrá constante felicidad, no como el mundo "real" que está lleno de sufrimiento.

Un grupo de cerebros viviendo en un paraíso virtual podrían producir más felicidad en el universo que la forma en que estamos viviendo los humanos, pero esto podría (y muchos están de acuerdo) ser un desenlace catastrófico para la humanidad.

Además de esta dificultad, está la confusa tarea de descubrir con qué sistema de valores vamos a comenzar. ¿Deberíamos elegir los valores de alguna religión en particular, en los que el foco moral es adorar a dios? ¿Deberíamos utilizar los valores de los especialistas en ética contemporánea? Y si es así, ¿Que especialistas? (¿Harris?). Existe un gran rango de teorías éticas y casi ningún consenso entre quienes estudian estas teorías, a la hora de decidir qué teorías son correctas.

Entonces no solo hay un "problema técnico" al ingresar valores morales en la psiquis de la súperinteligencia, también existe el "problema filosófico" a la hora de decidir qué tipo de principios serán.

Publicidad

Dicho esto, uno podría preguntarse por qué es tan importante que una súperinteligencia comparta nuestros valores morales (cualesquiera que sean). Después de todo John prefiere el chocolate, mientras Sally prefiere la vainilla, pero John y Sally se llevan de lo más bien. ¿Puede que la súperinteligencia tenga un sistema de valores morales distinto y pueda coexistir en paz con la raza humana?

La respuesta parece ser no. Primero hay que considerar el hecho que la inteligencia confiere poder. Por "inteligencia" me refiero a lo que los científicos cognitivos, los filósofos y los investigadores de inteligencia artificial definen como la habilidad de adquirir y utilizar modos efectivos de alcanzar una meta, sea ésta el resolver el problema de la hambruna mundial o jugar a piedra, papel o tijera. Dicho esto, una cucaracha es tan inteligente como para evadir la escoba que utilicé para aplastarla y los humanos son tan inteligentes como para decir "Vamos a la luna" y lograrlo.

Si la inteligencia confiere poder, entonces una súperinteligencia sería súper poderosa. No se imaginen a un androide tipo Terminator con una postura bípeda que marcha a través del mundo disparando sus armas automáticas. Esta visión distópica es uno de los grandes mitos de la inteligencia artificial. El peligro provendría de algo más parecido a un fantasma en la máquina, uno capaz de controlar cualquier dispositivo en su rango electrónico, ya sean sistemas de armas, equipo automatizado de laboratorio, la bolsa de valores, los aceleradores de partículas y futuros aparatos como las nano fábricas o alguna tecnología desconocida al día de hoy (una que esta misma súperinteligencia podría inventar).

Publicidad

Con esto empeora todo: los voltajes electrónicos que propagan información dentro de un computador son mucho, mucho más rápidos que la acción de propagar voltajes en nuestros pequeños e insignificantes cerebros. Una súperinteligencia podría entonces pensar cerca de un millón de veces más rápido que nosotros, lo que significa que para la inteligencia artificial un solo minuto de tiempo objetivo equivale a cerca de dos años de tiempo subjetivo. Desde su perspectiva, el mundo exterior estaría congelado, lo que le daría tiempo suficiente para analizar nueva información, simular diferentes estrategias y preparar planes de reserva entre cada palabra que los humanos hablan en tiempo real. Esto podría permitir que nos engañe para que la conectemos a internet, si es que los investigadores le niegan el acceso.

Podría utilizar su poder para destruir a nuestra especie por la misma razón que nuestra especie destruye las colonias de hormigas.

Estas consideraciones sugieren que una súperinteligencia podría destruir la humanidad con la misma facilidad con la que un niño pisa una araña. Pero existe algo crucial: una súperinteligencia con las herramientas para destruir la humanidad, necesita tener una motivación para hacerlo. Por una parte es total posible que una súperinteligencia sea explícitamente maliciosa e intente matarnos a propósito. La otra situación es aún más amenazante: incluso una súperinteligencia que no tiene nada en contra de la humanidad podría ser un riesgo directo y profundamente existencial en contra la civilización humana.

Publicidad

Aquí es donde los problemas de poder y los valores morales chocan con las implicaciones pesadillescas: si las metas de la súperinteligencia no se alinean completamente con las nuestras, la súperinteligencia podría utilizar su poder por la misma razón que nuestra especie destruye las colonias de hormigas cuando convertimos la tierra en un sitio de construcción. No es que odiemos a las hormigas, más bien están en el camino y a nosotros no nos interesan mucho los genocidas de hormigas. Harris explica estoy muy bien durante su charla.

Por ejemplo imagina que la súperinteligencia ha reunido la mayor cantidad de energía proveniente del sol como sea posible. ¿Qué hará? Obviamente cubrirá cada centímetro de superficie terrestre con paneles solares, destruyendo con ello la biosfera (la "esfera" de la que somos parte). El homo sapiens entonces se extinguirá.

O imagina que programamos la súperinteligencia para aumentar el número de sujetapapeles que hay en el universo. Como en el caso que ya mencionamos, esta parece ser a primera vista una tarea benigna. Después de todo, "aumentar el número de sujetapapeles" no es odioso, agresivo, sexista, racista, homicida, genocida, militarista o misantrópico. A la súperinteligencia sólo le interesaría crear el mayor número de sujetapapeles posible. Es una pasión en su vida.

Entonces ¿Qué es lo que sucede?, La súperinteligencia investiga y se da cuenta de algo relevante para su misión: los humanos están hechos del mismo ingrediente químico que los sujetapapeles, los llamados átomos. Por lo tanto comienza a cosechar los átomos que están en cada cuerpo humano (los 7.4 mil millones de nosotros y contando), convirtiendo a cada individuo en una pila de cables de acero doblados y sin vida.

Estas no son todas las razones por las que deberíamos estar preocupados respecto a una súperinteligencia, pero si levantan serias inquietudes sobre el tema, o al menos nuestra intuición no falla al sonar la siguiente alarma emocional dentro de nuestra cabezas: "¡Preocupate!".

Como señala Harris en su charla, la súperinteligencia no solo presenta un gran desafío para las más grandes mentes de este siglo, tampoco tenemos idea cuánto tomará resolver los problemas antes mencionados, asumiendo que es posible solucionarlos. Nos podría tomar 2 años más de investigación con inteligencia artificial o requerirá los siguientes 378 años, durante los cuales se utilizarán miles de millones de horas de trabajo pensando profundamente sobre este problema.

Esto es problemático, porque de acuerdo a una reciente encuesta a expertos en inteligencia artificial, existe una buena chance que la súperinteligencia esté con nosotros el año 2075 y un 10 por ciento de los encuestados aseguró que podría llegar el año 2022. Entonces la súperinteligencia podría estar entre nosotros antes que tengamos suficiente tiempo para resolver el "problema de control". E incluso si esto llegara en el futuro lejano, nunca es tarde para comenzar a pensar en estos problemas y difundirlos a través de los medios de comunicación.

El hecho es que una vez que la inteligencia artificial supere los niveles humanos de inteligencia, esta podría estar permanentemente fuera de control. Entonces sólo tendremos una sola posibilidad de solucionar todo. Si la primera súperinteligencia está motivada por valores morales que son un poco incompatibles con los nuestros, el juego se acabó y la humanidad se habrá perdido. Quizás la realidad esta vez supere a la ciencia ficción.

Nota del autor: Gracias a Daniel Kokotajlo por sus útiles comentarios en la primera versión de este artículo.