Revista Ciencia

Diez razones por las que la inteligencia artificial no se convertiría en maligna (Parte 1/2)

Publicado el 13 mayo 2014 por Cosmonoticias @Cosmo_Noticias
Crédito: io9

Crédito: io9

La ciencia ficción está llena de historias en las que las computadoras, con sus procesadores veloces como la luz y sus sistemas de conexión con otras máquinas se rebelan contra los humanos y comienza el “día del juicio final”. ¿Podría esto ocurrir en la realidad? Acá tenemos las cinco primeras razones psicológicas con las que se quiere demostrar que la súper-inteligencia no se volverá maligna.

10. Costos hundidos

Antes de comenzar a dar este punto, vale la pena aclarar qué significan los costos hundidos. En la economía se denominan así a los costos retrospectivos, es decir, que incurrieron en el pasado y ya no pueden ser recuperados.

Ya entrando en el tema, dos de las franquicias más exitosas en las que las máquinas se hacen las dueñas absolutas del mundo son “Terminator” y “Matrix”. En “Terminator” las máquinas desatan varias bombas atómicas y luchan para destruir a la humanidad. En “Matrix”, son los humanos los que han causado un invierno nuclear para intentar acabar con las máquinas, pero ellas se contentan con dejar a los humanos llevar unas miserables vidas.

En general, es más creíble el comportamiento de ambas partes en “Matrix”. Las emociones pueden llevarnos a terribles errores, como perseguir metas destructivas debido a los costos hundidos. Los humanos seguirán persiguiendo metas que no pueden alcanzar porque no pueden admitir que su inversión inicial fue un desperdicio. Es por esto que se ven noticias en las que banqueros internacionales caen por 419 fraudes. Una vez pagan un poco al sistema, ellos seguirán pagando, incapaces de aceptar su derrota.

Lamentamos que si la inteligencia artificial (IA) está divorciada de las emociones, no respetará la vida humana. Es posible. También es posible que sea mucho mejor que los humanos realizando lo que sea necesario para evitar la extinción de los humanos. Las máquinas no quieren venganza y no tienen la necesidad de recomponer errores para alcanzarla. Una súperinteligente IA puede ser convencida de no ir a la guerra en vez de tener una.

9. Ideas extremistas

Las máquinas sin emociones también pueden diferenciarse de nosotros al tener un mejor sentido de proporción que nosotros. ¿Alguna vez se han encontrado defendiendo con mayor ahínco un argumento mientras se dan cuenta que ese argumento pierde fuerza? La mayoría de nosotros lo hacemos en un momento, en parte porque somos incapaces de hacer una distinción, emocionalmente, entre que nuestro argumento está equivocado a que nuestro ser está equivocado.

Está bien ser defensivo, porque muchas veces la gente no diferencia entre dos personas que hacen algo malo o estúpido; y entre la gente mala y estúpida (también va en sentido contrario; defendemos golpear gente o movimientos que no debemos defender porque son buenos y por lo tanto no pueden hacer nada malo). Nuestro pensamiento tiende a estar en un extremo, especialmente cuando se trata de alguien o algo que no conocemos muy bien. Una IA que no puede sentirse defensiva, o vengativa, es probablemente más segura para poner en el poder que una persona.

8. Pendientes resbaladizas

Recientemente, mucho se ha dicho y hecho sobre “detectores humanos de mentiras” (gente que  puede detectar mentiras). Pero no son siempre confiables. En algunos casos los detectores humanos de mentiras aciertan el 60% de las veces. Los estudios varían, pero el nivel de confianza permanece alto, tanto como en los detectores de mentiras como en las personas que leen sus libros y hacen cursos. Entre más lo hacen, mayor es la seguridad de que están en lo correcto.

Una cosa similar sucede con los médicos. Entre más se adhieren a un sistema, más seguros son de que están en lo correcto, sin importar si su sistema es acertado o no. Hemos sido enseñados a temer a las frías y metódicas tácticas de las computadoras o de la IA, pero ¿por qué? Un sistema que siempre pueda escanear todo, que considere todos los puntos de vista, que siempre revise los resultados en relación a la predicción, sería menos posible que cayera en una pendiente resbaladiza moral que los humanos, quienes cada vez se convencen más de que están en lo correcto, aun si no confirman su decisión.

7. Necesidad de la incorrecta clase de eficiencia

Muchas películas sobre IAs malignas se basan en el miedo de la eficiencia. Pongan computadores a cargo y ellos les cortarán sus piernas y las reemplazarán con máquinas más eficientes. Ellas restringirán a los humanos a vivir en cubos porque es más eficiente que crear belleza y arte. Ellas sacrificarán todo para hacer que un proyecto avance más rápido… ¿pero por qué harían esto? La gente siempre muere, pero los programas de computadoras no deben hacerlo. En cualquier caso, tienen mucho más tiempo que nosotros, así que deberían tomarse las cosas con calma.

Además, hacer las cosas más rápido no es el único tipo de eficiencia. Es más eficiente, en el largo plazo (concepto al parecer complicado para los humanos), darse cuenta qué tan extenso puede ser un proyecto y realizar un plan para esa cantidad de tiempo, en vez de intentar forzar el proyecto en el menor tiempo posible. Los humanos somos terribles haciendo esto. Pregúntenle a cualquier persona cuanto tiempo se va a tardar, ya sea calcular impuestos o darle forma a algo, y ella les dará un tiempo bastante optimista, aun si han hecho esa tarea antes y saben cuánto se toman exactamente. Una máquina puede reconocer un patrón y realizar un plan. La eficiencia puede significar más tiempo para que los humanos crezcan y cambien, no menos.

6. Reactancia

Así como en el punto 10, antes de entrar en  materia veamos qué es la reactancia. Para entenderlo sencillamente se puede recurrir a un ejemplo: pongan un letrero de «¡Pintura fresca, no tocar!» y verán cuánta gente se mancha los dedos. La gente es contradictoria, aun cuando esa contrariedad lleva a la gente a problemas ¿las máquinas? No tanto.

Fuente: io9


Volver a la Portada de Logo Paperblog

Revista