La industria tecnológica lleva años en el desarrollo de inteligencia artificial y ya hemos visto los primeros resultados, por ejemplo Siri y los asistentes virtuales. Más recientemente hemos visto otros maravillosos logros, como la partida perfecta de Ms. Pac-Man y la victoria de AlphaGo sobre el mejor jugador de Go del mundo.

Sin embargo, lo que queda claro es que a la humanidad aún le queda mucho por conocer en este casi inexplorado ámbito y una de las muestras más fervientes de ello se cuenta en un reporte de Facebook sobre una prueba entre chatbots.

Sin embargo, lo que queda claro es que a la humanidad aún le queda mucho por conocer en este casi inexplorado ámbito y una de las muestras más fervientes de ello se cuenta en un reporte de Facebook sobre una prueba entre chatbots.

Una prueba que acabó en resultados inesperados

Inteligencia Artificial Facebook
Facebook, siendo una de las principales empresas que han comenzado a invertir en este ámbito, cuenta con un laboratorio de investigación de inteligencia artificial y durante una prueba en donde se utiliza machine learning para enseñar a sus “agentes de diálogo” a negociar, dos chatbots entablaron una plática que desembocó en la creación de su propio lenguaje.

Llegado este punto, los investigadores tuvieron que detener la conversación y cambiar el modelo que usaban en dicha prueba pues no podían seguir la conversación que estaban teniendo.

Este acontecimiento es por si solo impresionante. Es decir, si las inteligencias artificiales son lo suficientemente desarrolladas para poder negociar con personas, esta muestra de evolución revela solo una parte de lo que está por venir en este ámbito de la industria. Como mencionamos, la humanidad aún tiene mucho por ver en esta área.
FastCo reportó que, cuando Facebook hizo que dos de estos semiinteligentes “bots” hablen entre ellos, los programadores cayeron en la cuenta de que cometieron un error: no haber incentivado a los chatbots a que se comuniquen según las reglas de un inglés comprensible para los humanos. En su intento por aprender el uno del otro, los “bots” conversaban entre ellos en abreviaturas que creaban —que se ve perturbador, pero solo es eso—.

“Los agentes dejarán de lado el lenguaje comprensible e inventarán sus palabras en código” dijo el investigador visitante del FAIR, Dhruv Batra. “Es como si yo dijese ‘el’ cinco veces; tú interpretarías que quiero cinco copias de este ítem. No es tan distinta de la forma en que las comunidades humanas crean abreviaturas”.

Es cierto que Facebook apagó la IA, pero no porque entrasen en pánico por haber liberado a un posible Skynet sacado del universo de Terminator. Mike Lewis, un investigador del FAIR, declaró para FastCo que solo habían decidido que “nuestro interés era diseñar dos ‘bots’ que pudiesen hablar con la gente”, no que lo hiciesen eficientemente entre ellos, así que decidió más bien exigirles que se escriban entre ellos de forma legible.

Pero en mundo de telecomunicaciones no muy distinto de lo que los “bots” estaban haciendo, esta historia pasó de ser un estudio controlado de las implicaciones a corto plazo de la tecnología de aprendizaje en máquinas a convertirse en una esquizofrénica predicción apocalíptica.

Hay buenas razones para no permitir que las máquinas inteligentes desarrollen su propio lenguaje, uno cuyo significado los humanos no serían capaces de entender. Sin embargo, los “bots” de Facebook solo son un ejemplo de lo que ocurre cuando a dos máquinas inteligentes se les permite aprender de la otra. Es más, cuando las abreviaturas de los “bots” llegan a ser explicadas, la conversación se hace más comprensible y deja de ser espeluznante.

Como señala FastCo, es possible que esta clase de máquinas permitan en el futuro que dispositivos o sistemas inteligentes se comuniquen entre ellos de manera más eficiente. No obstante, esos beneficios podrían traer algunos problemas —imaginen cuán difícil debe ser depurar un sistema que funciona mal—. Sin embargo, esos percances, por lo pronto, no tienen nada que ver con liberar una inteligencia artificial que termine controlando a toda la raza humana.

En este caso, lo único que los chatbots fueron capaces de hacer fue encontrar una forma más eficiente de pasarse la pelota entre ellos.

La tecnología de aprendizaje automático puede ser muy beneficiosa. Por ejemplo, puede mejorar los diagnósticos médicos; sin embargo, también también tiene usos potencialmente nocivos, como el software de predicción de disturbios que la policía podría usar para justificar la represión en las protestas. Al fin y al cabo, se trata de compilar y analizar cantidades enormes de datos, y por el momento los riesgos recaen solo en cómo los humanos elegimos distribuir y manejar esa información.
Ojalá que seamos lo suficientemente listos como para no conectar programas experimentales de aprendizaje automático en campos que resulten realmente peligrosos, como un ejército de androides con armas láser o un reactor nuclear. Pero si alguien lo hace y se produce un desastre, será fruto de la negligencia y estupidez humana, y no porque los robots hayan tenido una revelación filosófica sobre cuán perversos somos los humanos.

Al menos no por ahora. El aprendizaje automático no está todavía cerca de la verdadera inteligencia artificial, sino que está dando sus primeros pasos. Sin embargo, si hay alguien que de verdad tiene razones para alarmarse con noticia como esta, serían los negociadores profesionales, quienes más pronto de lo que creen podrían quedarse sin trabajo. [Fastco Design]