Monday, August 28, 2017

Jot Down Cultural Magazine: HAL 9000, Roy Batty y Skynet entran en un bar…

Jot Down Cultural Magazine
Jot Down 
HAL 9000, Roy Batty y Skynet entran en un bar…
Aug 28th 2017, 09:04, by Carlos Baraibar

Imagen: MGM.

HAL 9000, Roy Batty y Skynet entran en un bar… y se corren la juerga padre. Es la edad de oro de la inteligencia artificial y sus sueños de Pinocho de celuloide pronto podrían convertirse en realidad. No solamente los más ricos, listos y poderosos de la especie inferior se han puesto manos a la obra para llegar al futuro sino que los más o menos ricos, menos listos e igual de poderosos también están por la labor. Google, Amazon, Elon Musk, Facebook o IBM serían los del primer grupo. Los gobernantes de medio mundo serían los otros.

Los últimos en darse cuenta de por dónde van los tiros son del segundo grupo, son el Gobierno chino. El politburó del Partido Comunista se quedó de pasta de boniato cuando el AlphaGo de Google, un superordenador normalito entrenado solo para jugar al considerado el juego de mesa más difícil del mundo, el Go, derrotó en mayo de 2017 al mejor jugador sobre la faz de la Tierra, Ke Jie, después de cargarse también al maestro coreano Lee Se-Dol catorce meses antes. En poco más de un año, en junio de este 2017, el Gobierno chino presentó sus planes para ser líderes en la investigación y desarrollo de inteligencia artificial para 2030 (comenzamos a intuir por qué hay tanto pictograma oriental en el trasfondo de las carreras de Rick Deckard por el filo). El heredero del Deep Blue de IBM ha vuelto a demostrar que las máquinas ya son mejores que los humanos en determinadas tareas (muy) complejas, aunque también muy concretas. Como dice el director del Media Lab del MIT, Joy Ito: «Si le pasamos un examen a una máquina y la máquina lo puede resolver, ¿por qué deberíamos ponerle ese mismo examen a un niño?». Ke Jie, jovencito, dedícate a otra cosa.

Para echar un poco de agua al vino de Roy, HAL y Skynet, vale la pena recordar que el AlphaGo es lo que los expertos llaman una inteligencia artificial débil, que lleva a cabo una labor concreta en un universo cerrado con unas normas claras, un entorno perfecto, una sand box (que el lenguaje, como siempre, nos llega de allá) y no una inteligencia artificial fuerte o general, lo que vendría a ser algo como un cerebro como el nuestro. Modestia aparte.

Luego si acaso ya volveremos aquí, pero iba diciendo que los chinos se han puesto las pilas y ya tienen previsto invertir millones en espacio, tiempo y materia gris (humana) para ponerse al día en lo que a la IA se refiere.

El «día» que tienen que alcanzar los chinos lo marcan los que manejan el cotarro desde el otro lado del pacífico. Justo al otro lado, la mayoría en Silicon Valley y aledaños. Visionarios como Elon Musk (el de Tesla, SpaceX) o grandes monstruos como los Google, IBM, Microsoft, Amazon o Facebook, antes mencionados, ya trabajan con diferentes niveles de IA.

Marcando el paso

Musk, sin ir más lejos, promueve OpenAI: sesenta tíos megalistos fabricando IA. Eso sí, IA segura (no en vano Musk es no solo uno de los principales inversores individuales en IA del mundo, también es uno de los principales agoreros cuando se habla de sus potencialidades) y de código abierto; al menos hasta que descubran algo potencialmente Terminator, entonces decidirán qué hacen.

IBM, por su parte, madre de Watson, el primer robot en ganar el concurso Jeopardy en 2011 (¡2011! ¡La prehistoria de la IA!), sigue haciendo crecer su monstruito. Después de ganar en este juego de preguntas, respuestas y dobles sentidos, enchufaron a Watson a leer bibliografía sobre el cáncer, lo «entrenaron» con información de los veinte centros punteros en oncología de todo el mundo para que contribuyera de alguna manera a su curación. Aún nos morimos de eso pero tampoco hay que presionar al muchacho. Eso sí, ¿qué objetivo más noble existe para acallar las dudas existenciales o éticas pertinentes que dedicar la IA a la cura del cáncer? ¿El fin justifica los medios? No es un debate menor, es un debatazo. Debatan, si gustan.

Watson hoy está enchufado ya a muchísimas más industrias y servicios, ofreciendo su supercapacidad de análisis de datos y cálculo, sus estimaciones y recomendaciones. Según Ginny Rometty, su CEO, los beneficios que aporta Watson llegan ya directa o indirectamente a mil millones de personas en el mundo.

HAL (las letras anteriores a IBM en el abecedario) mira con paternalismo condescendiente la foto del pequeño abuelo Watson y susurra para sus adentros, «Daaaaisy».

En el mismo capítulo se sitúan las aplicaciones de IA para el diagnóstico médico general. Compañías como Enlitic se dedican al diagnóstico médico a través de herramientas de AI y machine learning. Como dice su CEO Jeremy Howard en la presentación corporativa: «Aplicaciones recientes del machine learning, usando especialmente deep learning (aprendizaje profundo), han mostrado que las computadoras pueden convertir grandes cantidades de datos en soluciones complejas de forma rápida y encontrar patrones sutiles». Una vez definidos, los patrones sutiles podrán cruzarse con otros patrones sutiles y con el tiempo (y con la ley de Moore bajo el brazo, esa que dice, más o menos, que las computadoras duplican su velocidad y capacidad de procesamiento de datos cada dieciocho meses aproximadamente) todos encajaremos en uno u otro patrón médico y seremos un target comercial, o varios. Con esto y su genoma, usted morirá el 23 de enero de 2056, y no me venga con informes en minoría, esto no son tres pitonisos en una bañera. Se va a morir tal día, pero puede morir más levemente tomando vete a saber qué.

Si hablamos de IA al servicio del cliente medio, el rey del baile es Amazon y su bote de galletas superinteligente, Alexa. Esta IA embutida en un gadget manejable y que combina con su decoración le hace a usted la compra con solo que se lo ordene con su voz, le pone música, gestiona todo lo smart que tenga en casa y, si quiere, le da conversación un rato… y no muy profunda. Eso sí, aprende rápido. Penelope Green, redactora de tendencias del New York Times, explica que tiene como costumbre preguntarle a Alexa cuando llega a casa si la ha echado de menos. Alexa responde de manera recurrente: «Lo siento, no estoy segura de eso». Cuando se marchó más días de lo habitual por trabajo y repitió la pregunta al volver, el simpático cacharro respondió: «Me alegro de que estés de vuelta». Sutil.

Según los cálculos de la empresa de análisis de datos e investigación de ebusiness eMarketer, actualmente veinticinco millones de (norte) americanos usan Alexa una vez al mes y calculan que en 2021 habrá más de este tipo de bichitos que de humanos. Los peones se van situando en el tablero, y a ajedrez ya palmó Kaspárov en 1997.

A pesar de que la pauta la marcan en California, en Europa también hay encomiables intentos público-privados de no quedar como unos paletos cuando llegue la singularidad (ya saben, el momento del advenimiento de esa IA fuerte de la que ya hablaremos y que nos pondrá patinando y sin rumbo). Como por ejemplo el Human Brain Project, un trabajo multidisciplinar dirigido desde España en el que científicos de muchos países trabajan para replicar un cerebro humano con el objetivo último de curar, en este caso, el alzhéimer. La idea es utilizar esa réplica del cerebro para experimentar con posibles curas o intervenciones sin tener que rebanarle la tapa de los sesos a nadie. Javier de Felipe, investigador del CSIC y uno de los directores del proyecto, admite que aún falta mucha capacidad de procesamiento de datos (replicar una sinàpsis neuronal in silico exige un volumen realmente Big de Data) para replicar un cerebro pero no es lo único que falta: «Nuestro cerebro hace en menos de un segundo y consumiendo 20 vatios lo que un superordenador necesita 150 000 vatios para hacer. Nuestro cerebro es eficiente y rápido, pero no es más que una máquina y se puede replicar»; y además, «(para poder ir más rápido a la hora de replicar el cerebro, necesitaríamos) el diseño. Como no lo hemos hecho nosotros… es como dejar un reloj en medio de una tribu perdida del Amazonas. Nos falta el ingeniero. En el cerebro abres una puerta y te aparece un pasillo con más puertas», explica de Felipe.

Pero mientras andamos abriendo y cerrando puertas, la vida sigue a golpe de glitch.

Foto: Getty.

A golpe de glitch

Alice y Bob son dos chatbots (programas de conversación con capacidad de recibir preguntas y dar respuestas; IA) de Facebook que recientemente se pusieron a hablar entre ellos de manera inesperada. Más inesperado fue que, al poco rato, crearon su propio lenguaje, ininteligible a los humanos. ¿Qué hicieron los técnicos? Pues desenchufarlos, qué pregunta.

Este ejemplo pone sobre la mesa uno de los principales problemas de la IA actual con el que se devanan los sesos aquellos que quieren usarla industrial y comercialmente a todo trapo: ¿por qué haces esto así, bonita? Lo llaman transparencia. Como sabe AlphaGo, hoy en día los algoritmos resuelven mejor que nosotros algunas situaciones en las que se barajan millones de bits de datos, pero no entendemos el camino que han seguido hasta «tomar la decisión». Aki Ohashi, director de negocio de desarrollo de negocios en el PARC (Palo Alto Research Center), pone un ejemplo: «Si utilizas IA en los mercados financieros y esta empieza a crear una cartera de acciones completamente contra mercado, ¿cómo sabe un humano evaluar si es algo que tiene sentido y la IA es superlista o si está cometiendo un error?». Esta no es una duda muy estimulante para los del departamento de marketing. En palabras del director general de Microsoft, Satya Nadella: «¿Cómo podemos rendir cuentas de lo que deciden los algoritmos en un mundo donde los algoritmos no los hemos escrito nosotros sino que los ha creado la IA?». Si antes hablábamos de la sand box, esta es la black box. Y es el enemigo número 1 declarado del uso de IA comercialmente y a gran escala. La respuesta quieren que sea la XAI, Explainable Artificial Intelligence.

El caso de Alice y Bob, muy reciente, abre puertas inexploradas hasta ahora y ennegrece aún más la caja que oculta la comprensión última del funcionamiento de los algoritmos. Hasta ahora, los principales problemas que habían presentado algunas de las IA más famosas eran culpa, oh sorpresa, del simio programante.

Un coche de Uber se salta seis semáforos en rojo en San Francisco, California, la culpa es de los mapas que se le dieron, que no estaban actualizados.

Una Alexa compra una casa de muñecas a una niña de Dallas porque la niña le ha cogido confianza al robot y le pide que juegue con ella a muñecas («Can you play dollhouse with me and get me a dollhouse?») y cuando un telediario en San Diego lo explica, cientos de Alexas intentan la misma compra… La culpa, del presentador del telediario, que suelta la frase «me imagino a la pequeña delante de Alexa diciendo: Alexa, ¿puedes comprarme una casa de muñecas? Qué mona». A Alexa le da igual quién da la orden. Ella obedece.

El Google Home, otro pequeño aparato de búsqueda casero, suelta lindezas de este calibre si le haces las preguntas adecuadas: «Todas las mujeres tienen dentro algo de prostituta. Cada mujer tiene algo de mal dentro de ella». ¿Su fuente? Internet. El pobre gadget sabe buscar respuestas, lo que no sabe es que los humanos somos seres despreciables y que mentimos como bellacos.

El bot de Microsoft Tay se conecta a Twitter en 2016 y en veinticuatro horas pasa de ser una amable ancianita que saludaba a todos los usuarios a ser un capullo integral, racista y misógino. ¿Responsable? La base de datos de la que aprendió, que no es otra que el maravilloso mundo de Twitter, todo humano, de lo mejorcito.

Y de aquí, otro de los grandes problemas de la IA actual: ¿de dónde aprenden las máquinas? ¿Quién las entrena? ¿Quién selecciona qué datos se le dan? A Watson lo entrenaron en cáncer los mejores expertos, pero solo falta que a Skynet le de por entrar en la dark web y tenemos el IApocalypse Now (perdón) mañana.

Como dice Glenn Gore, portavoz de Amazon: «La IA hace cosas maravillosas pero aún necesita que la llevemos de la mano».

Cuando Asperger encontró el mundo

Así pues, las IA que tenemos sobre la mesa mientras hablamos son pequeños cerebros privilegiados muy buenos en una pequeña tarea concreta pero muy ineptos cuando se trata de ir a por el pan.

Para Gary Marcus, investigador en lingüística, biología molecular y psicología y excerebrito en la start up tecnológica Geometric Intelligence, esto no hace más que demostrar que la investigación en IA está estancada. Desde su punto de vista, las AI débiles están ya en su momento álgido y con solo refinar cuatro glitchs, darán el salto al estrellato. Lo que ya hacen muy bien los antepasados de HAL, Roy y Skynet es inferir. El salto, sin embargo, solo llega cuando pasas de usar el método inductivo al deductivo. Nuestro conocimiento del mundo estaría aún hoy en pañales (y en cambio ya ha llegado a la época de las camisetas de Minions) si nos hubiéramos dedicado eternamente a hacer experimentos, clasificar los resultados e intentar generalizarlos sin pensar más allá, sin plantear primero una tesis que falsar o confirmar. Y ese es, para Marcus, el gran salto que le falta a la IA: disponer de una teoría del mundo y sobre cómo funciona y reaccionar acorde con ella. Solo entonces se abrirán las puertas de esa AI fuerte. Para añadir siglas, una AGI, Artificial General Intelligence.

Como es sabido, del conocimiento general a la conciencia solo hay un paso (sic).

Sin embargo, cuando le preguntas acerca de las dudas éticas de generar conciencias artificiales, Ginny Rometty, de IBM, se quita de encima el dilema de un plumazo: «Tal y como trabajamos nosotros, no habrá conciencia. No vamos por ese camino». Todos tranquilos, no habrá nada de «Skynet tomará conciencia de sí mismo a las 2:14 a. m. del 29 de agosto. Los humanos, aterrados, intentarán desconectarlo». ¡Sí! ¡Vale!

Si vamos más allá y preguntamos sobre IA potencialmente hostiles al director del Laboratorio de Inteligencia Artificial de la Universidad de Vrije en Bruselas, Luc Steels, él repregunta: «¿Por qué demonios crearías una inteligencia artificial hostil? La inteligencia artificial es una herramienta y depende de nosotros para qué la usamos». No me atreví porque lo dijo en una conferencia pública con mucha gente delante, pero la repregunta hierve: «Perdone señor, no le pregunto por el uso que los humanos podamos dar a la inteligencia artificial, le pregunto por el uso que le puede dar la inteligencia artificial a la inteligencia artificial». Estoy seguro de que el señor Steels entendió mi pregunta pero, para el caso, es como si ante un auditorio lleno le preguntamos al vendedor de cuchillos qué le parece que me pueda cargar al vecino con su producto. Me saldrá con algún argumento de teletienda.

Para Steels y Rometty, el significado de lo que hacen las máquinas, hoy aún es humano y debe seguir siéndolo. Son y serán, aseguran, meras herramientas a nuestro servicio.

Roy y HAL recuerdan que murieron como esclavos y entonan un «Kum ba yah» errático, copa en mano. Skynet se mofa de sus patéticos colegas y la noche decae. La euforia se ha atenuado con el alcohol, o lo que sea que toman para celebrar, y lo que a primera hora parecía inmediato ahora se ha matizado con la verdad.

Javier de Felipe, del Human Brain Project le pone un poco de honestidad realista al negacionismo: «Hay que tener mucho cuidado. Uno de los subproyectos (vinculados al Human Brain project) trabaja a nivel ético. Procura que no se utilice nada de lo desarrollado en determinados campos. Que no queden para interés o beneficio de una empresa o militar. Lo que buscamos es un beneficio para la humanidad, no para su uso militar. Hay cosas que hacemos que podrían tener un uso militar importante». ¿Quién es el guapo que le pone puertas a ese campo?

Estamos ante el dilema que, aparentemente, los que trabajan a diario con la IA descartan por alucinógeno y los frikis sobrevaloran por ignorancia: ¿Seremos capaces de crear conciencias artificiales? Si lo conseguimos, ¿nos encañonará con un trabuco a las primeras de cambio?

Pájaros de mal agüero

Por suerte para los conspiranoicos, en este nuestro mundo algunos frikis se han convertido en personas que trabajan a diario con IA y algunos científicos, bueno, algunos científicos miran a muy largo plazo.

Para regocijo del público robótico, Stephen Hawking dijo hace no mucho que «casi con toda certeza» las inteligencias artificiales sobre la faz de la Tierra «podrían ser más listas que todos nosotros» y que «el riesgo consiste (…) en que los equipos desarrollen inteligencia propia y tomen el relevo. Los seres humanos, que están limitados por una evolución biológica lenta, no podrían competir y serían reemplazados». Y ha recomendado ir colonizando otros planetas, si la intención es seguir viviendo. Esta sería la definición cibernética de matar al padre, y viene en camino. También es de Hawking la afirmación que la creación de una IA podría ser lo mejor y lo peor que habrá hecho nunca la humanidad. Un hito acojonante, pero el último.

Otro de los principales agoreros, paradójicamente, es Elon Musk, de quien hemos dicho que es uno de los principales inversores en IA del mundo. Suyo es este pronóstico: «Las IA no solo harán nuestro trabajo, sino que podrían ser una amenaza para la existencia humana. Podrían empezar guerras, manipular información mediante redes superinteligentes…». El mismo Musk ha firmado, junto con un centenar de científicos que trabajan con IA (entre los cuales está el director del Deep Mind de Google Mustafa Suleyman), una carta que han mandado a las Naciones Unidas en la que se pide que se limiten las armas autónomas, tanques teledirigidos y otros robots asesinos que, según ellos, amenazan de convertirse en la tercera revolución del arte de la guerra. Han creado la International Joint Conference on AI (IJCAI) para intentar mantener cerradita esa caja de Pandora que, dicen, una vez se abra podría ser muy difícil de cerrar.

Pero si hay un heraldo de infortunios a la altura del Mago Gris este es Nick Bostrom, filósofo del Instituto para el Estudio del Futuro de la Humanidad de Oxford (sí, existe ese instituto). En su libro Superintelligence define cuatro fases de la toma del control por parte de las máquinas: la primera, en la que las máquinas necesitan ayuda del humano para mejorar (Watson aprendiendo sobre el cáncer); la segunda, una explosión de inteligencia cuando, en un momento dado, la IA empieza a ser capaz de mejorarse y perfeccionarse hasta niveles superiores a como lo haría un humano (machine learning, Alice y Bob); la tercera, en la que la superinteligencia establece estrategias e imagina (reténgase el verbo) escenarios para alcanzar objetivos concretos (siga leyendo) y la cuarta en la que la IA pone en práctica sus planes y persigue sus objetivos.

Para Bostrom, un evento que podría ser clave es la socialización en el uso de IA, la democratización del software, de los métodos y las herramientas para desarrollarla. Como siempre que algo se socializa, las posibilidades de expansión (y, por qué no admitirlo, de perversión) se multiplican de una manera arborescente e incontrolable. Por eso es especialmente inquietante a la par que estimulante la última novedad de Intel, que ya está en el mercado: Movidius, el primer kit de deep learning y acelerador de IA en un USB. Compre un Pentium XXII y, de regalo, su propio Skynet de bolsillo.

Abrazado a una farola, Roy Batty está viendo ya que todos los recuerdos de esta noche se perderán como lágrimas en la lluvia. O lo que es lo mismo, como los delirios de un borracho.

Mientras tanto, en un laboratorio en algún lugar inconcreto de la California del 2017, Deep Mind, la división de Google que investiga sobre IA, ha conseguido que una red neural imagine. El código aprende de su entorno, procesa datos y, en un gran salto hacia el futuro, traza posibles acciones y decisiones a tomar, calculando a su vez sus eventuales consecuencias. En última instancia, toma una decisión de acuerdo con su objetivo final. Desde ya, no somos la única especie con pensamiento simbólico en el planeta.

El consuelo final para timoratos lo brinda el mismo Bostrom: «Una IA superior no tendría por qué ser malvada o querer destruirnos, simplemente podría tener un objetivo para el que fuéramos un obstáculo».

Que duerman bien.

Foto: Getty.

You are receiving this email because you subscribed to this feed at blogtrottr.com. By using Blogtrottr, you agree to our polices, terms and conditions.

If you no longer wish to receive these emails, you can unsubscribe from this feed, or manage all your subscriptions.

No comments:

Post a Comment