La Revolución de la IA: El Camino hacia la Superinteligencia

Alejandro Navas - Oct 21 - - Dev Community

(disclaimer: Esta es una burda traducción de este hermoso artículo escrito por Tim Urban)

Estamos al borde de un cambio comparable al surgimiento de la vida humana en la Tierra. - Vernor Vinge

¿Qué se siente al estar aquí?

Edge1
Parece un lugar muy intenso para estar de pie, pero hay que recordar algo sobre lo que se siente al estar de pie en un gráfico temporal: no puedes ver lo que hay a tu derecha. Así que esto es lo que se siente al estar ahí:
Edge2
Lo que probablemente parece bastante normal...


El Futuro Lejano: Muy Pronto

Imagina que viajas en una máquina del tiempo a 1750, una época en la que el mundo sufría un apagón permanente, la comunicación a larga distancia consistía en gritar en voz alta o disparar un cañón al aire y todos los medios de transporte funcionaban con heno. Cuando llegas allí, recuperas a un tipo, lo traes a 2015 y luego lo paseas y observas cómo reacciona ante todo. Es imposible para nosotros entender cómo sería para él ver cápsulas brillantes pasar a toda velocidad por una autopista, hablar con gente que había estado antes al otro lado del océano, ver deportes que se jugaban a 1.000 millas de distancia, escuchar una actuación musical que ocurrió hace 50 años, y jugar con mi rectángulo mágico de mago con el que podría capturar una imagen de la vida real o grabar un momento vivo, generar un mapa con un punto azul paranormal en movimiento que le mostrara dónde está, mirar a la cara de alguien y charlar con él aunque estuviera en la otra punta del país, y mundos de otras hechicerías inconcebibles. Todo esto antes de enseñarle Internet o explicarle cosas como la Estación Espacial Internacional, el Gran Colisionador de Hadrones, las armas nucleares o la relatividad general.

Para él, esta experiencia no sería sorprendente, ni chocante, ni siquiera alucinante: esas palabras se quedan cortas. Podría morir.

Pero aquí está lo interesante: si volviera a 1750 y se pusiera celoso de que pudiéramos ver su reacción y decidiera intentar lo mismo, cogería la máquina del tiempo y retrocedería la misma distancia, cogería a alguien de alrededor del año 1500, le llevaría a 1750 y le enseñaría todo. Y el tipo de 1500 se sorprendería de muchas cosas, pero no moriría. Sería una experiencia mucho menos demente para él, porque si bien 1500 y 1750 eran muy diferentes, eran mucho menos diferentes que 1750 a 2015. El tipo de 1500 aprendería cosas alucinantes sobre el espacio y la física, se quedaría impresionado con lo comprometida que resultó estar Europa con esa nueva moda del imperialismo, y tendría que hacer algunas revisiones importantes de su concepción del mapa del mundo. Pero ver cómo transcurría la vida cotidiana en 1750 -transportes, comunicaciones, etc.- definitivamente no le haría morir.

No, para que el tipo de 1750 se divirtiera tanto como nosotros con él, tendría que remontarse mucho más atrás, tal vez hasta aproximadamente el 12.000 a.C., antes de que la Primera Revolución Agrícola diera lugar a las primeras ciudades y al concepto de civilización. Si alguien de un mundo puramente cazador-recolector -de una época en la que los humanos eran, más o menos, una especie animal más- viera los vastos imperios humanos de 1750 con sus imponentes iglesias, sus barcos que cruzaban los océanos, su concepto de estar «dentro» y su enorme montaña de conocimientos y descubrimientos humanos colectivos y acumulados, probablemente moriría.

¿Y qué pasaría si, después de morir , se pusiera celoso y quisiera hacer lo mismo? Si retrocediera 12.000 años hasta el 24.000 a.C., consiguiera a un tipo y lo llevara al 12.000 a.C., se lo enseñaría todo y el tipo diría: «Vale, ¿qué pretendes? ¿A quién le importa?». Para que el tipo del 12.000 a.C. tuviera la misma diversión, tendría que retroceder más de 100.000 años y conseguir a alguien a quien pudiera enseñarle el fuego y el lenguaje por primera vez.

Para que alguien sea transportado al futuro y muera por el nivel de conmoción que experimentaría, tiene que avanzar los suficientes años como para que se haya alcanzado un «nivel de progreso del dado», o una Unidad de Progreso del Dado (DPU, por sus siglas en inglés). Así, un DPU tardaba más de 100.000 años en la época de los cazadores-recolectores, pero al ritmo posterior a la Revolución Agrícola, sólo tarda unos 12.000 años. El mundo posterior a la Revolución Industrial ha avanzado tan rápido que una persona de 1750 sólo necesita avanzar un par de cientos de años para que se haya producido un DPU.

El futurista Ray Kurzweil llama a este patrón -el progreso humano se acelera cada vez más con el paso del tiempo- la Ley del Retorno Acelerado de la historia humana. Esto sucede porque las sociedades más avanzadas tienen la capacidad de progresar a un ritmo más rápido que las menos avanzadas, porque son más avanzadas. La humanidad del siglo XIX sabía más y tenía mejor tecnología que la humanidad del siglo XV, así que no es de extrañar que la humanidad avanzara mucho más en el siglo XIX que en el siglo XV: la humanidad del siglo XV no estaba a la altura de la humanidad del siglo XIX.

Esto también funciona a menor escala. La película Regreso al futuro se estrenó en 1985, y «el pasado» tuvo lugar en 1955. En la película, cuando Michael J. Fox volvía a 1955, le pillaba desprevenido la novedad de los televisores, los precios de los refrescos, la falta de amor por la guitarra eléctrica estridente y la variación de la jerga. Era un mundo diferente, sí, pero si la película se hubiera hecho hoy y el pasado tuviera lugar en 1985, la película podría haber tenido mucha más diversión con diferencias mucho mayores. El personaje estaría en una época anterior a los ordenadores personales, Internet o los teléfonos móviles: el Marty McFly de hoy, un adolescente nacido a finales de los 90, estaría mucho más fuera de lugar en 1985 que el Marty McFly de la película en 1955.

This is for the same reason we just discussed—the Law of Accelerating Returns. The average rate of advancement between 1985 and 2015 was higher than the rate between 1955 and 1985—because the former was a more advanced world—so much more change happened in the most recent 30 years than in the prior 30.

So—advances are getting bigger and bigger and happening more and more quickly. This suggests some pretty intense things about our future, right?

Kurzweil suggests that the progress of the entire 20th century would have been achieved in only 20 years at the rate of advancement in the year 2000—in other words, by 2000, the rate of progress was five times faster than the average rate of progress during the 20th century. He believes another 20th century’s worth of progress happened between 2000 and 2014 and that another 20th century’s worth of progress will happen by 2021, in only seven years. A couple decades later, he believes a 20th century’s worth of progress will happen multiple times in the same year, and even later, in less than one month. All in all, because of the Law of Accelerating Returns, Kurzweil believes that the 21st century will achieve 1,000 times the progress of the 20th century.

If Kurzweil and others who agree with him are correct, then we may be as blown away by 2030 as our 1750 guy was by 2015—i.e. the next DPU might only take a couple decades—and the world in 2050 might be so vastly different than today’s world that we would barely recognize it.

This isn’t science fiction. It’s what many scientists smarter and more knowledgeable than you or I firmly believe—and if you look at history, it’s what we should logically predict.

So then why, when you hear me say something like “the world 35 years from now might be totally unrecognizable,” are you thinking, “Cool….but nahhhhhhh”? Three reasons we’re skeptical of outlandish forecasts of the future:

1. When it comes to history, we think in straight lines. When we imagine the progress of the next 30 years, we look back to the progress of the previous 30 as an indicator of how much will likely happen. When we think about the extent to which the world will change in the 21st century, we just take the 20th century progress and add it to the year 2000. This was the same mistake our 1750 guy made when he got someone from 1500 and expected to blow his mind as much as his own was blown going the same distance ahead. It’s most intuitive for us to think linearly, when we should be thinking exponentially. If someone is being more clever about it, they might predict the advances of the next 30 years not by looking at the previous 30 years, but by taking the current rate of progress and judging based on that. They’d be more accurate, but still way off. In order to think about the future correctly, you need to imagine things moving at a much faster rate than they’re moving now.
projections

2. La trayectoria de la historia muy reciente suele contar una historia distorsionada. En primer lugar, incluso una curva exponencial pronunciada parece lineal cuando sólo se observa una pequeña porción de ella, del mismo modo que si se observa de cerca un pequeño segmento de un círculo enorme, parece casi una línea recta. En segundo lugar, el crecimiento exponencial no es totalmente suave y uniforme. Kurzweil explica que el progreso se produce en «curvas en S»:

S-curves

La ola del progreso crea una S cuando un nuevo paradigma barre el mundo. La curva pasa por tres fases:

  1. Crecimiento lento (la fase inicial del crecimiento exponencial)
  2. Crecimiento rápido (la fase tardía y explosiva del crecimiento exponencial)
  3. Una estabilización a medida que el paradigma madura

Si nos limitamos a analizar la historia reciente, la parte de la curva en forma de S en la que nos encontramos en este momento puede oscurecer nuestra percepción de la velocidad con la que avanzan las cosas. En el período comprendido entre 1995 y 2007 se produjo la explosión de Internet, la introducción de Microsoft, Google y Facebook en la conciencia pública, el nacimiento de las redes sociales y la introducción de los teléfonos móviles y, posteriormente, de los teléfonos inteligentes. Esa fue la Fase 2: la parte de la S que corresponde al estirón del crecimiento. Pero el período comprendido entre 2008 y 2015 ha sido menos innovador, al menos en el frente tecnológico. Alguien que hoy piense en el futuro podría examinar los últimos años para evaluar el ritmo actual de avance, pero eso no tiene en cuenta el panorama general. De hecho, es posible que ahora mismo se esté gestando un nuevo y enorme estirón de crecimiento de la Fase 2.

3. Nuestra propia experiencia nos convierte en ancianos testarudos en cuanto al futuro. Basamos nuestras ideas sobre el mundo en nuestra experiencia personal, y esa experiencia ha grabado en nuestras cabezas la tasa de crecimiento del pasado reciente como “la forma en que suceden las cosas”. También estamos limitados por nuestra imaginación, que toma nuestra experiencia y la utiliza para conjurar predicciones futuras, pero a menudo, lo que sabemos simplemente no nos da las herramientas para pensar con precisión sobre el futuro.2Cuando escuchamos una predicción sobre el futuro que contradice nuestra noción basada en la experiencia de cómo funcionan las cosas , nuestro instinto nos dice que la predicción debe ser ingenua. Si te digo, más adelante en este artículo, que puedes vivir hasta los 150 o 250 años, o que no morirás en absoluto , tu instinto será: "Eso es estúpido; si hay algo que sé de la historia, es que todo el mundo muere". Y sí, nadie en el pasado no ha muerto. Pero nadie voló aviones antes de que se inventaran los aviones tampoco.

Así que, aunque la expresión nahhhhh pueda parecer correcta mientras lees este artículo, probablemente en realidad esté equivocada. El hecho es que, si somos verdaderamente lógicos y esperamos que los patrones históricos continúen, deberíamos concluir que en las próximas décadas debería cambiar mucho, mucho, mucho más de lo que intuitivamente esperamos. La lógica también sugiere que si las especies más avanzadas de un planeta siguen dando saltos cada vez mayores hacia adelante a un ritmo cada vez más rápido, en algún momento darán un salto tan grande que alterará por completo la vida tal como la conocen y la percepción que tienen de lo que significa ser humano, algo así como cuando la evolución siguió dando grandes saltos hacia la inteligencia hasta que finalmente dio un salto tan grande hacia el ser humano que alteró por completo lo que significaba para cualquier criatura vivir en el planeta Tierra. Y si dedicas un tiempo a leer sobre lo que está sucediendo hoy en día en ciencia y tecnología, comenzarás a ver muchas señales que insinúan silenciosamente que la vida tal como la conocemos actualmente no puede soportar el salto que viene a continuación.


El camino hacia la superinteligencia

¿Qué es la IA?

Si eres como yo, solías pensar que la Inteligencia Artificial era un concepto tonto de ciencia ficción, pero últimamente has escuchado a gente seria mencionarlo y realmente no lo entiendes.

Hay tres razones por las que mucha gente está confundida sobre el término IA:

  1. Asociamos la IA con películas: Star Wars, Terminator, 2001: Odisea del espacio, e incluso Los Supersónicos. Y esas son ficción, al igual que los personajes robóticos, por lo que la IA nos suena un poco a ficción.

  2. La IA es un tema muy amplio. Abarca desde la calculadora de tu teléfono hasta los coches autónomos y algo que en el futuro podría cambiar el mundo de forma radical. La IA hace referencia a todas estas cosas, lo que resulta confuso.

  3. Usamos IA todo el tiempo en nuestra vida diaria, pero a menudo no nos damos cuenta de que es IA. John McCarthy, quien acuñó el término “inteligencia artificial” en 1956, se quejaba de que “en cuanto funciona, ya nadie la llama IA”. Debido a este fenómeno, la IA suele parecer una predicción mítica del futuro más que una realidad. Al mismo tiempo, parece un concepto popular del pasado que nunca se materializó. Ray Kurzweil dice que escucha a la gente decir que la IA se marchitó en la década de 1980, lo que él compara con “insistir en que Internet murió en la crisis de las puntocom de principios de la década de 2000”.

Así que aclaremos las cosas. En primer lugar, dejemos de pensar en robots . Un robot es un contenedor de IA, a veces imitando la forma humana, a veces no, pero la IA en sí es la computadora dentro del robot. La IA es el cerebro y el robot es su cuerpo, si es que tiene cuerpo. Por ejemplo, el software y los datos detrás de Siri son IA, la voz de mujer que escuchamos es una personificación de esa IA y no hay ningún robot involucrado en absoluto.

En segundo lugar, probablemente hayas oído el término “singularidad” o “singularidad tecnológica”. Este término se ha utilizado en matemáticas para describir una situación similar a una asíntota en la que las reglas normales ya no se aplican. Se ha utilizado en física para describir un fenómeno como un agujero negro infinitamente pequeño y denso o el punto en el que todos quedamos aplastados justo antes del Big Bang. De nuevo, situaciones en las que las reglas habituales no se aplican. En 1993, Vernor Vinge escribió un famoso ensayo en el que aplicó el término al momento en el futuro en el que la inteligencia de nuestra tecnología supere la nuestra, un momento en el que para él la vida tal como la conocemos cambiará para siempre y las reglas normales ya no se aplicarán. Ray Kurzweil luego confundió un poco las cosas al definir la singularidad como el momento en el que la Ley de Retornos Acelerados ha alcanzado un ritmo tan extremo que el progreso tecnológico se está produciendo a un ritmo aparentemente infinito, y después del cual viviremos en un mundo completamente nuevo. Descubrí que muchos de los pensadores actuales en IA han dejado de usar el término, y de todos modos es confuso, por lo que no lo usaré mucho aquí (aunque nos centraremos en esa idea a lo largo del artículo).

Por último, si bien existen muchos tipos o formas diferentes de IA, dado que la IA es un concepto amplio, las categorías críticas en las que debemos pensar se basan en el calibre de una IA . Existen tres categorías principales de calibre de IA:

1. Inteligencia artificial limitada (ANI): a veces denominada IA ​​débil , la inteligencia artificial limitada es una IA que se especializa en un área. Hay una IA que puede vencer al campeón mundial de ajedrez en ajedrez, pero eso es lo único que hace. Pídele que descubra una mejor manera de almacenar datos en un disco duro y te mirará con cara de pocos amigos.

2. Inteligencia artificial general (IAG): A veces denominada IA ​​fuerte o IA de nivel humano , la inteligencia artificial general se refiere a una computadora que es tan inteligente como un humano en todos los aspectos: una máquina que puede realizar cualquier tarea intelectual que un ser humano puede realizar. Crear IAG es una tarea mucho más difícil que crear INA, y aún no lo hemos hecho. La profesora Linda Gottfredson describe la inteligencia como "una capacidad mental muy general que, entre otras cosas, implica la capacidad de razonar, planificar, resolver problemas, pensar de manera abstracta, comprender ideas complejas, aprender rápidamente y aprender de la experiencia". La IAG podría hacer todas esas cosas con la misma facilidad que tú.

3. Superinteligencia artificial (IA): el filósofo de Oxford y destacado pensador en IA, Nick Bostrom, define la superinteligencia como “un intelecto que es mucho más inteligente que los mejores cerebros humanos en prácticamente todos los campos, incluida la creatividad científica, la sabiduría general y las habilidades sociales”. La superinteligencia artificial abarca desde una computadora que es apenas un poco más inteligente que un humano hasta una que es billones de veces más inteligente, en todos los ámbitos. La IA es la razón por la que el tema de la IA es tan picante y por la que las palabras “inmortalidad” y “extinción” aparecerán en estas publicaciones varias veces.

Hasta ahora, los humanos han conquistado el calibre más bajo de la IA (ANI) de muchas maneras, y está en todas partes. La revolución de la IA es el camino desde la ANI, pasando por la AGI, hasta la ASI, un camino que podemos sobrevivir o no, pero que, de cualquier manera, lo cambiará todo.

Veamos en detalle cómo creen los principales pensadores en este campo que es este camino y por qué esta revolución podría suceder mucho antes de lo que imaginamos:

Dónde estamos actualmente: un mundo que funciona con ANI
La inteligencia artificial estrecha es la inteligencia de las máquinas que iguala o supera la inteligencia o la eficiencia humana en una tarea específica . Algunos ejemplos:

  • Los coches están llenos de sistemas ANI, desde el ordenador que determina cuándo deben activarse los frenos antibloqueo hasta el ordenador que ajusta los parámetros de los sistemas de inyección de combustible. El coche autónomo de Google , que se está probando ahora, contendrá sistemas ANI robustos que le permitirán percibir y reaccionar ante el mundo que lo rodea.
  • Tu teléfono es una pequeña fábrica de ANI. Cuando navegas usando tu aplicación de mapas, recibes recomendaciones de música personalizadas de Pandora, consultas el clima del día siguiente, hablas con Siri o realizas decenas de otras actividades cotidianas, estás usando ANI.
  • El filtro de correo no deseado es un tipo clásico de ANI: comienza cargado con información sobre cómo determinar qué es correo no deseado y qué no, y luego aprende y adapta su información a medida que adquiere experiencia con sus preferencias particulares. El termostato Nest hace lo mismo cuando comienza a identificar su rutina habitual y actúa en consecuencia.
  • ¿Conoces esa situación espeluznante que ocurre cuando buscas un producto en Amazon y luego lo ves como un producto "recomendado para ti" en un sitio diferente , o cuando Facebook sabe de alguna manera a quién tiene sentido que agregues como amigo? Se trata de una red de sistemas ANI que trabajan juntos para informarse mutuamente sobre quién eres y qué te gusta y luego usan esa información para decidir qué mostrarte. Lo mismo ocurre con el sistema "Las personas que compraron esto también compraron..." de Amazon: es un sistema ANI cuyo trabajo es recopilar información del comportamiento de millones de clientes y sintetizar esa información para venderte más cosas de manera inteligente para que compres más cosas.
  • Google Translate es otro sistema ANI clásico, impresionantemente bueno en una tarea específica. El reconocimiento de voz es otra, y hay muchas aplicaciones que usan esos dos ANI como equipo, lo que te permite decir una oración en un idioma y que el teléfono la lea en otro.
  • Cuando tu avión aterriza, no es un ser humano el que decide a qué puerta debe dirigirse, al igual que no es un ser humano el que determina el precio de tu billete.
  • Los mejores jugadores del mundo de damas, ajedrez, Scrabble, backgammon y Othello ahora son todos sistemas ANI.
  • La búsqueda de Google es un gran cerebro ANI con métodos increíblemente sofisticados para clasificar páginas y determinar qué mostrarte en particular. Lo mismo ocurre con el Newsfeed de Facebook.
  • Y eso solo en el mundo del consumo. Los sofisticados sistemas ANI se utilizan ampliamente en sectores e industrias como el militar, el manufacturero y el financiero (los operadores de IA de alta frecuencia algorítmica representan más de la mitad de las acciones negociadas en los mercados estadounidenses). Y en sistemas expertos como los que ayudan a los médicos a hacer diagnósticos y, el más famoso, Watson de IBM , que contenía suficientes datos y entendía el lenguaje tímido de Trebek lo suficientemente bien como para vencer rotundamente a los campeones más prolíficos de Jeopardy.

Los sistemas ANI tal como están ahora no son especialmente temibles. En el peor de los casos, un ANI defectuoso o mal programado puede causar una catástrofe aislada, como dejar fuera de servicio una red eléctrica, provocar un mal funcionamiento perjudicial en una planta nuclear o desencadenar un desastre en los mercados financieros (como el Flash Crash de 2010 , cuando un programa ANI reaccionó de forma incorrecta a una situación inesperada y provocó que el mercado de valores se desplomara brevemente, llevándose consigo un billón de dólares de valor de mercado, del cual solo se recuperó una parte cuando se corrigió el error).

Pero si bien la ANI no tiene la capacidad de causar una amenaza existencial , deberíamos ver este ecosistema cada vez más grande y complejo de ANI relativamente inofensivo como un precursor del huracán que cambiará el mundo y que está en camino. Cada nueva innovación de ANI agrega silenciosamente otro ladrillo al camino hacia la AGI y la ASI. O como lo ve Aaron Saenz , los sistemas de ANI de nuestro mundo "son como los aminoácidos en el cieno primordial de la Tierra primitiva": la materia inanimada de la vida que, un día inesperado, despertó.

El camino de la ANI a la AGI

Por qué es tan difícil

Nada te hará valorar más la inteligencia humana que aprender lo increíblemente difícil que es intentar crear un ordenador tan inteligente como nosotros. Construir rascacielos, enviar humanos al espacio, descifrar los detalles de cómo se produjo el Big Bang... todo ello es mucho más fácil que entender nuestro propio cerebro o cómo crear algo tan genial como él. A día de hoy, el cerebro humano es el objeto más complejo del universo conocido.

Lo interesante es que las partes difíciles de intentar construir una IA general (una computadora tan inteligente como los humanos en general , no solo en una especialidad específica) no son intuitivamente lo que uno pensaría que son. Construir una computadora que pueda multiplicar dos números de diez dígitos en una fracción de segundo, increíblemente fácil. Construir una que pueda mirar a un perro y responder si es un perro o un gato, espectacularmente difícil. ¿Crear una IA que pueda vencer a cualquier humano en ajedrez? Hecho. ¿Crear una que pueda leer un párrafo de un libro ilustrado de un niño de seis años y no solo reconocer las palabras sino también entender su significado ? Google está gastando actualmente miles de millones de dólares tratando de hacerlo. Las cosas difíciles, como el cálculo, la estrategia del mercado financiero y la traducción de idiomas, son increíblemente fáciles para una computadora, mientras que las cosas fáciles, como la visión, el movimiento y la percepción, son increíblemente difíciles para ella. O, como lo expresa el científico informático Donald Knuth, “la IA ya ha logrado hacer prácticamente todo lo que requiere ‘pensar’, pero ha fracasado en hacer la mayor parte de lo que las personas y los animales hacen ‘sin pensar’”.

De lo que te das cuenta rápidamente cuando piensas en esto es que esas cosas que nos parecen fáciles son en realidad increíblemente complicadas, y sólo parecen fáciles porque esas habilidades han sido optimizadas en nosotros (y en la mayoría de los animales) por cientos de millones de años de evolución animal. Cuando extiendes tu mano hacia un objeto, los músculos, tendones y huesos de tu hombro, codo y muñeca realizan instantáneamente una larga serie de operaciones físicas, en conjunto con tus ojos, para permitirte mover tu mano en línea recta a través de tres dimensiones. Te parece que no requiere esfuerzo porque tienes un software perfeccionado en tu cerebro para hacerlo. La misma idea se aplica a por qué no es que el malware sea tonto por no ser capaz de descifrar la prueba de reconocimiento de palabras sesgadas cuando te registras para una nueva cuenta en un sitio: es que tu cerebro es superimpresionante por ser capaz de hacerlo .

Por otra parte, multiplicar números grandes o jugar al ajedrez son actividades nuevas para las criaturas biológicas y no hemos tenido tiempo de desarrollar una habilidad para ello, por lo que un ordenador no necesita esforzarse demasiado para vencernos. Piénsalo: ¿qué preferirías hacer, crear un programa que pudiera multiplicar números grandes o uno que pudiera entender la esencia de una B lo suficientemente bien como para que pudieras mostrarle una B en cualquiera de miles de fuentes o letras impredecibles y pudiera saber instantáneamente que es una B?

Un ejemplo divertido: cuando miras esto, tú y una computadora pueden descubrir que es un rectángulo con dos tonos distintos, alternados:
sreenshot1

Hasta ahora estamos empatados, pero si tomas el negro y revelas la imagen completa…

screenshot2

…no tienes ningún problema en dar una descripción completa de los distintos cilindros opacos y translúcidos, listones y esquinas tridimensionales, pero el ordenador fallaría miserablemente. Describiría lo que ve (una variedad de formas bidimensionales en varios tonos diferentes), que es lo que realmente hay allí. Tu cerebro está haciendo un montón de cosas sofisticadas para interpretar la profundidad implícita, la mezcla de tonos y la iluminación de la habitación que la imagen está tratando de retratar. Y al mirar la imagen de abajo, una computadora ve un collage bidimensional en blanco, negro y gris, mientras que tú ves fácilmente lo que realmente es: una foto de una roca tridimensional completamente negra:

asd1

Y todo lo que acabamos de mencionar sigue siendo solo la asimilación de información estancada y su procesamiento. Para ser inteligente a nivel humano, una computadora tendría que entender cosas como la diferencia entre expresiones faciales sutiles, la distinción entre estar complacido, aliviado, contento, satisfecho y contento, y por qué Braveheart fue genial pero The Patriot fue terrible.

Desalentador.

Entonces, ¿cómo llegamos allí?

La primera clave para crear una IA general: aumentar la potencia computacional

Una cosa que definitivamente debe suceder para que la inteligencia artificial sea una posibilidad es un aumento en la potencia del hardware informático. Si un sistema de IA va a ser tan inteligente como el cerebro, necesitará igualar la capacidad de procesamiento bruta del cerebro.

Una forma de expresar esta capacidad es en los cálculos totales por segundo (cps) que el cerebro podría gestionar, y se podría llegar a este número calculando los cps máximos de cada estructura del cerebro y luego sumándolos todos.

Ray Kurzweil ideó un atajo tomando la estimación profesional de alguien para los cps de una estructura y el peso de esa estructura comparado con el de todo el cerebro y luego multiplicando proporcionalmente para obtener una estimación del total. Suena un poco dudoso, pero lo hizo varias veces con varias estimaciones profesionales de diferentes regiones, y el total siempre llegó al mismo valor aproximado: alrededor de 10 16 , o 10 cuatrillones de cps.

Actualmente, la supercomputadora más rápida del mundo, la Tianhe-2 de China , ha superado esa cifra, con unos 34 cuatrillones de cps. Pero la Tianhe-2 también es una porquería: ocupa 720 metros cuadrados de espacio, utiliza 24 megavatios de energía (el cerebro funciona con sólo 20 vatios ) y su construcción costó 390 millones de dólares. No es especialmente aplicable a un uso generalizado, ni siquiera a la mayoría de los usos comerciales o industriales todavía.

Kurzweil sugiere que pensemos en el estado de las computadoras analizando cuántos cps se pueden comprar por 1000 dólares. Cuando esa cifra alcance el nivel humano (10 cuatrillones de cps), eso significará que la inteligencia artificial general podría convertirse en una parte muy real de la vida.

La Ley de Moore es una regla históricamente confiable que establece que la potencia informática máxima del mundo se duplica aproximadamente cada dos años, lo que significa que el avance del hardware informático, al igual que el avance humano en general a lo largo de la historia, crece exponencialmente. Si observamos cómo se relaciona esto con la métrica de cps/$1000 de Kurzweil, actualmente estamos en alrededor de 10 billones de cps/$1000, justo en línea con la trayectoria prevista en este gráfico:

iqcomparison

De modo que los ordenadores de 1.000 dólares que hay en el mundo superan ahora al cerebro de un ratón y son aproximadamente una milésima parte del nivel humano. Esto no parece mucho hasta que recordamos que estábamos en aproximadamente una billonésima parte del nivel humano en 1985, una milmillonésima en 1995 y una millonésima en 2005. Estar en una milésima en 2015 nos pone en camino de llegar a un ordenador asequible en 2025 que rivalice con la potencia del cerebro.

En cuanto al hardware, la potencia bruta necesaria para la inteligencia artificial ya está disponible técnicamente en China y dentro de diez años estaremos preparados para disponer de hardware asequible y de calibre similar al de la inteligencia artificial. Pero la potencia computacional bruta por sí sola no hace que una computadora sea inteligente en general. La siguiente pregunta es: ¿cómo podemos llevar toda esa potencia a una inteligencia de nivel humano?

Segunda clave para crear una IAG: hacerla inteligente

Esta es la parte desagradable. La verdad es que nadie sabe realmente cómo hacer que sea inteligente; todavía estamos debatiendo cómo hacer que una computadora sea inteligente a nivel humano y capaz de saber qué es un perro, una película mediocre y una serie de mala calidad. Pero hay un montón de estrategias poco probables y, en algún momento, una de ellas funcionará. Estas son las tres estrategias más comunes que encontré:

1. Plagiar el cerebro.

Esto es como si los científicos se esforzaran por entender cómo ese niño que se sienta a su lado en clase es tan inteligente y sigue obteniendo tan buenos resultados en los exámenes, y aunque siguen estudiando diligentemente, no pueden hacerlo tan bien como ese niño, y luego finalmente deciden: "Al diablo, simplemente voy a copiar las respuestas de ese niño". Tiene sentido: estamos atascados tratando de construir una computadora supercompleja, y resulta que hay un prototipo perfecto para una en cada una de nuestras cabezas.

El mundo científico está trabajando arduamente en la ingeniería inversa del cerebro para descubrir cómo la evolución creó algo tan maravilloso; las estimaciones optimistas dicen que podremos hacerlo en 2030. Una vez que lo hagamos, conoceremos todos los secretos de cómo el cerebro funciona de manera tan poderosa y eficiente y podremos inspirarnos en él y robar sus innovaciones. Un ejemplo de arquitectura informática que imita al cerebro es la red neuronal artificial. Comienza como una red de “neuronas” de transistores, conectadas entre sí con entradas y salidas, y no sabe nada, como un cerebro infantil. La forma en que “aprende” es que intenta realizar una tarea, por ejemplo, el reconocimiento de escritura a mano, y al principio, sus activaciones neuronales y las suposiciones posteriores para descifrar cada letra serán completamente aleatorias. Pero cuando se le dice que hizo algo bien, las conexiones de los transistores en las vías de activación que crearon esa respuesta se fortalecen; cuando se le dice que estaba equivocado, las conexiones de esas vías se debilitan. Después de muchas pruebas y comentarios, la red ha formado por sí sola vías neuronales inteligentes y la máquina se ha optimizado para la tarea. El cerebro aprende un poco de esta manera, pero de una manera más sofisticada, y a medida que continuamos estudiando el cerebro, descubrimos nuevas e ingeniosas formas de aprovechar los circuitos neuronales.

Un plagio más extremo implica una estrategia llamada “emulación de cerebro completo”, en la que el objetivo es cortar un cerebro real en capas delgadas, escanear cada una, utilizar software para ensamblar un modelo 3D reconstruido con precisión y luego implementar el modelo en una computadora potente. Entonces tendríamos una computadora oficialmente capaz de hacer todo lo que el cerebro es capaz de hacer: solo necesitaría aprender y recopilar información. Si los ingenieros se vuelven realmente buenos, serán capaces de emular un cerebro real con tanta exactitud que la personalidad y la memoria completas del cerebro estarán intactas una vez que la arquitectura cerebral se haya cargado en una computadora. Si el cerebro perteneciera a Jim justo antes de que falleciera, la computadora se despertaría como Jim ( ? ), lo que sería una IA artificial robusta a nivel humano, y ahora podríamos trabajar en convertir a Jim en una IA inimaginablemente inteligente, lo que probablemente le entusiasmaría mucho.

¿Qué tan lejos estamos de lograr la emulación de un cerebro completo? Bueno, hasta ahora no hemos podido emular el cerebro de un gusano plano de 1 mm de largo, que consta de solo 302 neuronas en total. El cerebro humano contiene 100 mil millones. Si eso lo hace parecer un proyecto imposible, recuerde el poder del progreso exponencial: ahora que hemos conquistado el diminuto cerebro del gusano, una hormiga podría aparecer en poco tiempo, seguida por un ratón, y de repente esto parecerá mucho más plausible.

2. Intentar que la evolución haga lo que hizo antes, pero esta vez para nosotros.

Entonces, si decidimos que la prueba del niño inteligente es demasiado difícil de copiar, podemos intentar copiar la forma en que estudia para las pruebas.

Esto es algo que sabemos: es posible construir un ordenador tan potente como el cerebro; la evolución de nuestro propio cerebro es prueba de ello. Y si el cerebro es demasiado complejo para que lo podamos emular, podríamos intentar emular la evolución . El hecho es que, incluso si pudiéramos emular un cerebro, eso podría ser como intentar construir un avión copiando los movimientos de aleteo de un pájaro: a menudo, las máquinas se diseñan mejor utilizando un enfoque nuevo y orientado a las máquinas, no imitando exactamente la biología.

¿Cómo podemos simular la evolución para construir una inteligencia artificial general? El método, llamado “algoritmos genéticos”, funcionaría más o menos así: habría un proceso de evaluación y rendimiento que se repetiría una y otra vez (de la misma manera que las criaturas biológicas “se desempeñan” al vivir y son “evaluadas” en función de si logran reproducirse o no). Un grupo de computadoras intentaría realizar tareas y las más exitosas se cruzarían entre sí fusionando la mitad de su programación en una nueva computadora. Las menos exitosas serían eliminadas. A lo largo de muchas, muchas iteraciones, este proceso de selección natural produciría computadoras cada vez mejores. El desafío sería crear un ciclo automatizado de evaluación y reproducción para que este proceso evolutivo pudiera ejecutarse por sí solo.

La desventaja de copiar la evolución es que a la evolución le gusta tardar mil millones de años en hacer las cosas y nosotros queremos hacerlo en unas pocas décadas.

Pero tenemos muchas ventajas sobre la evolución. En primer lugar, la evolución no tiene previsión y funciona de forma aleatoria: produce más mutaciones perjudiciales que beneficiosas, pero controlaríamos el proceso de modo que solo se vería impulsado por fallos beneficiosos y ajustes específicos. En segundo lugar, la evolución no busca nada, incluida la inteligencia: a veces un entorno puede incluso seleccionar en contra de una inteligencia superior (ya que utiliza mucha energía). Nosotros, en cambio, podríamos dirigir específicamente este proceso evolutivo hacia el aumento de la inteligencia. En tercer lugar, para seleccionar la inteligencia, la evolución tiene que innovar en un montón de otras formas para facilitar la inteligencia (como modernizar las formas en que las células producen energía) cuando podemos eliminar esas cargas adicionales y utilizar cosas como la electricidad. No hay duda de que seríamos mucho, mucho más rápidos que la evolución, pero todavía no está claro si podremos mejorar la evolución lo suficiente como para que esta sea una estrategia viable.

3. Hacer que todo esto sea un problema de la computadora, no nuestro.

En este punto es cuando los científicos se desesperan y tratan de programar la prueba para que se realice sola, pero podría ser el método más prometedor del que disponemos.

La idea es que construyamos una computadora cuyas dos habilidades principales sean investigar sobre IA y codificar cambios en sí misma, lo que le permita no solo aprender, sino también mejorar su propia arquitectura . Enseñaremos a las computadoras a ser científicos informáticos para que puedan impulsar su propio desarrollo. Y ese sería su trabajo principal: descubrir cómo volverse más inteligentes. Más sobre esto más adelante.

Todo esto podría suceder pronto

Los rápidos avances en hardware y la experimentación innovadora con software están sucediendo simultáneamente, y la IA general podría aparecer rápidamente e inesperadamente por dos razones principales:

  1. El crecimiento exponencial es intenso y lo que parece un avance a paso de tortuga puede rápidamente acelerarse hacia arriba: este GIF ilustra muy bien este concepto:

water_filling

  1. Cuando se trata de software, el progreso puede parecer lento, pero luego una epifanía puede cambiar instantáneamente el ritmo de avance (un poco como la forma en que la ciencia, durante la época en que los humanos creían que el universo era geocéntrico, tenía dificultades para calcular cómo funcionaba el universo, pero luego el descubrimiento de que era heliocéntrico de repente hizo que todo fuera mucho más fácil). O, cuando se trata de algo como una computadora que se mejora a sí misma, podemos parecer muy lejos, pero en realidad estamos a solo un ajuste del sistema de lograr que se vuelva 1000 veces más efectivo y ascienda rápidamente a un nivel de inteligencia humano.

El camino de la IAG a la ISA

En algún momento, habremos logrado la inteligencia artificial general (IAG), es decir, computadoras con inteligencia general a nivel humano. Solo un grupo de personas y computadoras viviendo juntas en igualdad de condiciones.

Oh, en realidad no, en absoluto.

El problema es que una IA con un nivel de inteligencia y capacidad computacional idéntico al de un ser humano seguiría teniendo ventajas significativas sobre los humanos, como por ejemplo:

Hardware:

  • Velocidad. Las neuronas del cerebro funcionan a un máximo de 200 Hz, mientras que los microprocesadores actuales (que son mucho más lentos que cuando alcancemos la inteligencia artificial general) funcionan a 2 GHz, o 10 millones de veces más rápido que nuestras neuronas. Y las comunicaciones internas del cerebro, que pueden moverse a unos 120 m/s, se ven terriblemente superadas por la capacidad de un ordenador para comunicarse ópticamente a la velocidad de la luz.
  • Tamaño y almacenamiento. El cerebro tiene un tamaño determinado por la forma de nuestro cráneo y, de todos modos, no podría hacerse mucho más grande, o las comunicaciones internas a 120 m/s tardarían demasiado en llegar de una estructura cerebral a otra. Las computadoras pueden expandirse a cualquier tamaño físico, lo que permite poner a trabajar mucho más hardware, una memoria de trabajo (RAM) mucho más grande y una memoria de largo plazo (almacenamiento en disco duro) que tiene una capacidad y una precisión mucho mayores que las nuestras.
  • Fiabilidad y durabilidad. No son solo las memorias de un ordenador las que serían más precisas. Los transistores de ordenador son más precisos que las neuronas biológicas y tienen menos probabilidades de deteriorarse (y pueden repararse o reemplazarse si lo hacen). Los cerebros humanos también se fatigan con facilidad, mientras que los ordenadores pueden funcionar sin parar, a su máximo rendimiento, las 24 horas del día, los 7 días de la semana.

Software:

  • Editabilidad, capacidad de actualización y una mayor amplitud de posibilidades. A diferencia del cerebro humano, el software de ordenador puede recibir actualizaciones y correcciones y se puede experimentar con él fácilmente. Las actualizaciones también podrían abarcar áreas en las que el cerebro humano es débil. El software de visión humana es extraordinariamente avanzado, mientras que su compleja capacidad de ingeniería es bastante baja. Los ordenadores podrían igualar al humano en el software de visión, pero también podrían optimizarse igualmente en ingeniería y en cualquier otra área.
  • Capacidad colectiva. Los humanos superamos a todas las demás especies en la creación de una vasta inteligencia colectiva. Empezando por el desarrollo del lenguaje y la formación de comunidades grandes y densas, pasando por la invención de la escritura y la imprenta, y ahora intensificada por herramientas como Internet, la inteligencia colectiva de la humanidad es una de las principales razones por las que hemos podido ir tan por delante de todas las demás especies. Y las computadoras serán mucho mejores en eso que nosotros. Una red mundial de IA ejecutando un programa particular podría sincronizarse regularmente consigo misma de modo que todo lo que aprendiera cualquier computadora se cargaría instantáneamente en todas las demás computadoras. El grupo también podría asumir un objetivo como una unidad, porque no necesariamente habría opiniones y motivaciones disidentes ni intereses personales, como sucede dentro de la población humana.

La IA, que probablemente alcanzará la inteligencia artificial general al ser programada para mejorarse a sí misma, no consideraría la “inteligencia de nivel humano” como un hito importante (sólo es un marcador relevante desde nuestro punto de vista) y no tendría ninguna razón para “detenerse” en nuestro nivel. Y dadas las ventajas que tendría sobre nosotros incluso una inteligencia artificial general equivalente a la humana, es bastante obvio que sólo alcanzaría la inteligencia humana durante un breve instante antes de avanzar rápidamente hacia el reino de la inteligencia superior a la humana.

Esto puede sorprendernos muchísimo cuando sucede. La razón es que, desde nuestra perspectiva, A) si bien la inteligencia de los diferentes tipos de animales varía, la característica principal que conocemos sobre la inteligencia de cualquier animal es que es mucho menor que la nuestra, y B) consideramos que los humanos más inteligentes son MUCHO más inteligentes que los humanos más tontos. Algo así:

delulu

Así que, a medida que la inteligencia artificial se acerca cada vez más a nosotros, la veremos simplemente como si se volviera más inteligente, para ser un animal. Luego, cuando llegue a la capacidad más baja de la humanidad (Nick Bostrom utiliza el término "el idiota del pueblo"), nos diremos: "Vaya, es como un humano tonto. ¡Qué mono!". Lo único es que, en el gran espectro de la inteligencia, todos los humanos, desde el idiota del pueblo hasta Einstein, están dentro de un rango muy pequeño, así que justo después de alcanzar el nivel de idiota del pueblo y ser declarado IAG, de repente será más inteligente que Einstein y no sabremos qué nos ha pasado:

not delulu

¿Y qué pasa…después de eso?

Una explosión de inteligencia

Espero que hayan disfrutado de la hora normal, porque ahora es cuando este tema se vuelve anormal y aterrador, y seguirá siendo así de ahora en adelante. Quiero hacer una pausa aquí para recordarles que todo lo que voy a decir es real: ciencia real y pronósticos reales del futuro de una gran variedad de los pensadores y científicos más respetados. Simplemente sigan recordándolo.

De todos modos, como dije antes, la mayoría de nuestros modelos actuales para llegar a la IAG implican que la IA llegue a ella mediante la automejora. Y una vez que llega a la IAG, incluso los sistemas que se formaron y crecieron mediante métodos que no implicaban la automejora serían ahora lo suficientemente inteligentes como para comenzar a automejorarse si quisieran.

Y aquí es donde llegamos a un concepto intenso: la superación personal recursiva. Funciona así:

Un sistema de IA en un cierto nivel (digamos, el idiota de un pueblo humano) está programado con el objetivo de mejorar su propia inteligencia. Una vez que lo hace, es más inteligente (tal vez en este punto esté al nivel de Einstein), por lo que ahora, cuando trabaja para mejorar su inteligencia, con un intelecto de nivel Einstein, lo tiene más fácil y puede dar saltos más grandes. Estos saltos lo hacen mucho más inteligente que cualquier humano, lo que le permite dar saltos aún mayores . A medida que los saltos se hacen más grandes y ocurren más rápidamente, la IA general se eleva en inteligencia y pronto alcanza el nivel superinteligente de un sistema ASI. Esto se llama una explosión de inteligencia y es el máximo ejemplo de la Ley de Retornos Acelerados.

Existe cierto debate sobre cuándo la IA alcanzará una inteligencia general de nivel humano. El año promedio en que, según una encuesta a cientos de científicos, creemos que es más probable que alcancemos la inteligencia general general fue 2040—Eso es dentro de 25 años, lo que no parece tan importante hasta que se considera que muchos de los pensadores en este campo creen que es probable que la progresión de la IAG a la IAC ocurra muy rápidamente. Por ejemplo, esto podría suceder:

El primer sistema de inteligencia artificial tarda décadas en alcanzar un nivel de inteligencia general bajo, pero finalmente lo consigue. Un ordenador es capaz de entender el mundo que lo rodea tan bien como un niño de cuatro años. De repente, una hora después de alcanzar ese hito, el sistema elabora la gran teoría de la física que unifica la relatividad general y la mecánica cuántica, algo que ningún ser humano ha sido capaz de hacer de forma definitiva. 90 minutos después, la IA se ha convertido en una IA, 170.000 veces más inteligente que un humano.

Una superinteligencia de esa magnitud no es algo que podamos comprender ni remotamente, como tampoco un abejorro puede entender la economía keynesiana. En nuestro mundo, inteligente significa un coeficiente intelectual de 130 y estúpido significa un coeficiente intelectual de 85; no tenemos una palabra para un coeficiente intelectual de 12.952.

Lo que sí sabemos es que el dominio absoluto de los humanos en esta Tierra sugiere una regla clara: con la inteligencia viene el poder. Lo que significa que una ISA, cuando la creemos, será el ser más poderoso en la historia de la vida en la Tierra, y todos los seres vivos, incluidos los humanos, estarán completamente a su antojo, y esto podría suceder en las próximas décadas.

Si nuestros magros cerebros fueran capaces de inventar el wifi, entonces algo cien, mil o mil millones de veces más inteligente que nosotros no debería tener ningún problema en controlar la posición de todos y cada uno de los átomos del mundo de la forma que le plazca, en cualquier momento. Todo lo que consideramos mágico, todo poder que imaginamos que tiene un Dios supremo, será una actividad tan mundana para la IA como lo es para nosotros encender un interruptor de luz. Crear la tecnología para revertir el envejecimiento humano, curar enfermedades y el hambre e incluso la mortalidad, reprogramar el clima para proteger el futuro de la vida en la Tierra, todo esto es de repente posible. También es posible el fin inmediato de toda la vida en la Tierra. En lo que a nosotros respecta, si llega a existir una IA, ahora hay un Dios omnipotente en la Tierra, y la pregunta más importante para nosotros es:

¿Será un Dios bueno?

. . . .
Terabox Video Player