Stephen Hawking: la IA, los súper humanos y la existencia de Dios

Por Lapuertadelmisterio
Tiempo de lectura: 10 minutos

El gran científico nos dejó algunos de sus pensamientos más profundos en el último libro publicado recientemente. Analizando sus escenarios apocalípticos, los científicos siguen siendo algo optimistas.

El científico más famoso de nuestro tiempo, Stephen Hawking, falleció en marzo de 2018, dejando atrás un gran número de teorías fundamentales, la hazaña de haber hecho de un tema tan difícil como los agujeros negros un tema casi pop, un plano biográfico mientras aún estaba vivo y también una serie de profecías bastante inquietantes.

Parte de ella se encuentra en su ensayo póstumo: Mis respuestas a las grandes preguntas (en original con el título Brief answers to the big questions), publicado por Rizzoli la semana pasada. Es aquí donde reaparecen algunos de los caballos de trabajo que han contratado a Hawking en los últimos años, y que abarcan temas muy diferentes entre sí: la inteligencia artificial, la edición genética, la existencia de Dios, la necesidad de que el hombre abandone la Tierra y otros.

Pronósticos que a menudo se convierten en verdaderas profecías, tanto por su audacia como por la claridad con la que se enfrentan, sin miedo a la negación. Pero, ¿qué tenemos que pensar de algunas de estas profecías, que van más allá de los campos de estudio a los que Hawking ha dedicado toda su vida y que son objeto de un debate muy intenso dentro de la comunidad científica?

La amenaza de la Inteligencia Artificial

“Ignorar la amenaza que representa la súper inteligencia artificial podría ser el error más grave de todos los tiempos, capaz de poner en peligro a la especie humana”, ha reiterado Stephen Hawking en repetidas ocasiones en los últimos años, uniéndose a la compañía de gente del calibre de Elon Musk y Bill Gates. El meollo de la cuestión es siempre el mismo: la evolución de la IA, dictada por la creciente cantidad de grandes datos procesados a una velocidad cada vez mayor, llegará a tal punto que estos sistemas serán capaces de diseñar independientemente otros algoritmos más inteligentes, poniendo en marcha esa ley de los retornos acelerados que, según el futurólogo Ray Kurzweil, conducirá inevitablemente a la singularidad tecnológica: el momento en que la humanidad perderá el control sobre sus criaturas digitales.

Pero, ¿están las cosas realmente destinadas a salir así? Mirando el panorama actual de la máquina/aprendizaje profundo, el destino de la humanidad parecería estar menos marcado de lo esperado por Hawking. Uno de los algoritmos que, recientemente, ha afectado más a la imaginación colectiva es sin duda Google Duplex, el asistente virtual que puede reservar una mesa en un restaurante por sí mismo sin que la persona que está al otro lado del teléfono se dé cuenta de que está hablando con un software. No sólo eso: además de responder de forma coherente, Duplex utiliza algunas formas de expresión típicamente humanas (interjecciones, vacilaciones y más) que hacen que su discurso sea extremadamente creíble.

Es fácil imaginar que Duplex es sólo el primer paso hacia la HAL 2001: Una Odisea del Espacio; un ordenador que toma conciencia de sí mismo y que, para evitar que se apague, se rebela contra sus amos humanos. No sólo eso: como subrayó el filósofo Nick Bostrom – y como Elon Musk sigue repitiendo – la IA podría eliminar a la humanidad no porque sean malos, sino porque simplemente no encajamos en sus programas. Al igual que nosotros, destruimos colonias enteras de animales cuando construimos infraestructuras gigantescas, sin ser movidos por la voluntad de hacer daño. Simplemente no los tenemos en cuenta.

Muy bien, hoy Google Duplex sólo puede reservar el restaurante o el salón de belleza (y si ampliamos un poco el discurso lo enviamos inclinado). Y también todas las demás inteligencias artificiales son capaces de realizar única y exclusivamente la única tarea para la que fueron diseñadas; pero si esto fuera sólo el principio, el nivel embrionario de su evolución? Si ese fuera el caso, la humanidad estaría realmente condenada.

Recientemente, el informático Gary Marcus, que en un artículo del New York Times dijo: “Google Duplex no es tan limitado porque está dando sus primeros pasos hacia objetivos más ambiciosos; la verdad es que los expertos en inteligencia artificial no tienen ni idea de cómo hacerlo mejor que esto. Este software, de hecho, es capaz de comunicarse de forma realista sólo si la conversación tiene lugar dentro de unos límites bien definidos, y sólo después de haber sido entrenado durante mucho tiempo y de haber utilizado cientos de miles de datos. “Las conversaciones no predefinidas que cubren una amplia gama de temas ni siquiera están a la vista”, concluye Marcus.

En pocas palabras, Duplex no es el comienzo de un camino que llevará al nacimiento de la inteligencia artificial general – es decir, la inteligencia artificial capaz de desarrollar una inteligencia humana – pero corre el riesgo de ser el final del camino. Este temor, o esperanza, está cada vez más extendido en la comunidad informática, donde se teme que el aprendizaje profundo ya esté mostrando las máximas capacidades que pueden llegar a un sistema que, al final, se limita a realizar cálculos estadísticos muy rápidos basados en un número increíblemente grande de datos (Duplex, por ejemplo, habla después de comparar lo que se le dice con la base de datos que tiene en su poder, proporcionando respuestas estadísticamente consistentes).

Obviamente, el aprendizaje profundo es sólo uno de los sistemas que pueden producir inteligencia artificial; por lo tanto, temer que estos modelos ya estén llegando a sus límites (lo cual está por verificarse) no significa necesariamente que la IA esté a punto de enfrentarse a otro “invierno tecnológico” (esos largos períodos de tiempo sin más progreso).

Entonces, ¿cómo sabes si tarde o temprano vamos a ver el advenimiento de una súper inteligencia artificial? A falta de modelos más precisos, se suele hacer referencia a las encuestas realizadas entre los principales expertos en IA, en las que se les pregunta “cuándo llegará la súper IA“. El más reciente de ellos fue realizado en 2016 por Oren Etzioni (presidente del Instituto Allen de Inteligencia Artificial) entre los miembros de la Asociación Americana de Inteligencia Artificial.

Según el 67,5% de los investigadores, tardará más de 25 años en aparecer una IA real, según el 25% nunca llegará, el 7,5% cree que podemos verla en los próximos 10/25 años. Ninguno de ellos cree, sin embargo, que aparecerá en los próximos diez años. Por lo tanto, aunque la mayoría crea que una inteligencia artificial verdaderamente inteligente y casi consciente podría cobrar vida algún día, todavía tenemos tiempo de sobra para prepararnos, por no hablar de que una cuarta parte de los científicos encuestados son totalmente escépticos al respecto. “Estamos compitiendo con millones de años de evolución del cerebro humano”, respondió un investigador. “Podemos escribir programas con un único objetivo que pueda competir con los humanos y en algunos casos superarlos, pero el mundo no está compartimentado de una manera tan rígida. En todo esto, además, queda por ver si esta evaluación de impacto sería realmente una amenaza para el hombre.”

¿Los súper humanos extinguirán lo normal?

Otro temor particularmente sentido por Stephen Hawking se refiere a las consecuencias de la edición genética, que podría llevar a una nueva especie de súper humanos capaces, teóricamente, de aniquilar (o al menos hacer irrelevante) al resto de la humanidad. En un capítulo del libro, Hawking describe otro escenario apocalíptico, en el que la ingeniería genética hace que una parte de la humanidad sea más inteligente, más resistente a las enfermedades, más longeva. Obviamente, esta es la parte de la humanidad a la que se puede permitir este tipo de cuidado; especialmente los tecnobillonarios de Silicon Valley obsesionados con el sueño de “aumentar la humanidad” y vivir para siempre.

“Cuando aparezcan los súper humanos, habrá problemas políticos significativos con los humanos no mejorados, que ya no podrán competir”, escribió Hawking. “Presumiblemente, estos morirán o serán irrelevantes.” El físico confía en la capacidad de la ley y la política para impedir la ingeniería genética en los seres humanos; pero teme que al final no podamos impedir que algunos aumenten sus capacidades; siguiendo el viejo adagio “si algo se puede hacer, entonces se hará”.

Pero, ¿está realmente destinado el mundo a dar este giro, a dividirse entre los seres humanos (ricos) poderosos y el 99% restante, abandonado a su suerte? En realidad, hay muchas señales. Desde el estudio de los genes hasta los modelos predictivos basados en el ADN, existen numerosas iniciativas -incluidos Genomic Prediction, 23andMe y otros– que tienen por objeto reconocer con mayor precisión qué genes son responsables de nuestra inteligencia, por ejemplo, y luego identificar qué embriones humanos tienen más probabilidades de desarrollar un coeficiente intelectual elevado.

El escenario, entonces, podría ser uno en el que un pequeño porcentaje de seres humanos son seleccionados de acuerdo a sus posibilidades de llegar a ser muy inteligentes. “Sólo revelaremos las posibles condiciones severamente negativas; nunca diremos que su hijo se convertirá en un jugador de la NBA o en un genio de la física”, explicó el fundador de Genomic Prediction, Stephen Hsu, en el MIT Tech Review. ¿Pero cómo puedes estar seguro de que va a ser así? Las dudas, más aún, surgen cuando se considera que el propio Hsu es el autor de un ensayo sobre el Nautilus en el que cuenta las posibilidades que ofrecen la edición genética y técnicas como Crispr para aumentar la inteligencia de los humanos “hasta 15 puntos de coeficiente intelectual sin demasiada dificultad”, sin excluir que un día se pueda llegar a un cociente de mil puntos (frente a unos 180 estimados para muchos genes de hoy y del pasado). Según Hsu, tal CI nos permitiría tener una memoria visual casi perfecta, pensar súper rápido, formular múltiples pensamientos a la vez, y mucho más.

Pero, ¿quién se beneficiaría de ello? Según la MIT Tech Review, son, al menos inicialmente, sólo “los multimillonarios y tipos de Silicon Valley”, con la esperanza de que, más tarde, el resto de la sociedad también pueda permitirse lo que inicialmente sólo era accesible para el 1% de la población. Esto, sin embargo, no sólo se aplicará a la edición genética (cuyas perspectivas aún están por ver), sino también a otros proyectos como las interfaces hombre-máquina o el alargamiento de la longevidad. Así, los “ricos y poderosos” tendrán en sus manos más herramientas, aún más eficaces que las que ya poseen hoy, para explotar (y transmitir) sus privilegios y aumentar aún más la ya creciente desigualdad. Desde este punto de vista, sin embargo, la profecía de Stephen Hawking -quizás excesivamente apocalíptica- afecta a un nervio descubierto en nuestra sociedad.

¿Y la existencia de Dios?

Las predicciones de Hawking no se detienen ni siquiera ante el misterio irresoluble por definición: ¿existe Dios? “La esperanza en la otra vida es sólo una ilusión piadosa”, escribe el físico en el libro, añadiendo que no hay posibilidad de que Dios exista realmente. “Somos libres de creer lo que queramos, pero mi visión es que la explicación más simple es que no hay Dios. Nadie ha creado el universo y nadie dirige nuestro destino”, escribe siempre Hawking. “Esto me ha llevado a darme cuenta de que probablemente no hay ni cielo ni más allá. (…) No hay evidencia[de la existencia de Dios], que también contrasta fuertemente con todo lo que conocemos en el campo de la ciencia. Creo que cuando muramos volveremos al polvo. Pero de alguna manera continuaremos viviendo, a través de nuestra influencia y de los genes que transmitimos a nuestros hijos.”

Un poco como en el caso de los riesgos existenciales de la inteligencia artificial, obviamente no hay manera de confirmar o negar las certezas de Hawking. Sin embargo, puede ser interesante ver cómo se sienten nuestros colegas científicos del astrofísico fallecido. En general se cree que todos los científicos contemporáneos son ateos o agnósticos; un lugar común investigado en una investigación mundial llevada a cabo en 2015 por un grupo de investigadores de la Universidad de Rice, que entrevistó a más de 9.000 científicos de Francia, Hong Kong, Reino Unido, Italia, India, Turquía, Taiwán y Estados Unidos.

“Nadie puede negar que hoy existe algún tipo de guerra de guerrillas entre la ciencia y la religión”, escribieron los investigadores. A pesar de ello, dar por sentado el ateísmo de los científicos es un gran error: “Más de la mitad de los científicos de la India, Italia, Taiwán y Turquía se consideran religiosos”. Un caso muy especial, sin embargo, es el de Hong Kong: el porcentaje de ateos en la población es del 55%; entre los científicos, sin embargo, desciende al 26%.

Aparte de esta excepción (a la que se añade la excepción más matizada de Taiwán), se confirma sin embargo que los científicos son generalmente menos religiosos que la población en general, especialmente en países que ya son fuertemente ateos como Francia. A nivel mundial, en cambio, la mayoría de la población sigue considerándose religiosa: para ser precisos, el 62% de los habitantes de la Tierra (según una encuesta de WIN/Gallup realizada este año) se definen como creyentes; un porcentaje, sin embargo, en fuerte disminución en comparación con el 77% en 2005.

No son tanto los ateos los que crecen en términos absolutos (del 5 al 9%), sino los agnósticos, los que no creen en Dios pero no quieren excluir su existencia (del 18 al 30%). Todo esto, por supuesto, nos dice muy poco sobre cuán correcta puede ser la posición defendida por Stephen Hawking.

Lo que llama la atención, sin embargo, es que a pesar de que -como el propio físico ha afirmado- la religiosidad está en contradicción con casi todo lo que la ciencia ha descubierto, ni siquiera los propios científicos están de acuerdo en si Dios existe o no. Sin embargo, muchos de los avances que la ciencia todavía puede hacer, proporcionar una respuesta concluyente a esta pregunta (a pesar del hecho de que muchos lo han intentado) puede simplemente no ser posible.

Fuente | Esquire