Porqué no estamos listos para la Inteligencia Artificial
Ya no es un tema de ciencia ficción, y exige con urgencia una discusión pública sobre los numerosos problemas morales que los autómatas tendrán que enfrentar en los años venideros.
Actualizacion (13/06/2014): La noticia protagonizada por Eugene Goostman no es precisamente el hito que esperábamos. He aquí las razones de por qué deberíamos haber sido más cuidadosos en reportar este evento.
*
Este lunes, el diario The Guardian informó de un acontecimiento extraordinario, aunque largamente esperado por la comunidad de investigadores que estudian el área de la Inteligencia Artificial (I.A.): un superordenador logró superar, por primera vez, el test de Turing, la famosa prueba diseñada en 1950 por el precursor de la informática moderna, Alan Turing, para determinar si una máquina es capaz de tener pensamiento propio.
El evento tuvo lugar el domingo pasado en la Royal Society de Londres y fue protagonizado por Eugene Goostman, un programa diseñado para responder, por medio de mensajes escritos, a preguntas improvisadas como si fuera un adolescente de 13 años. Eugene tuvo un desempeño tan bueno que por primera vez en la larga historia de estas pruebas, un tercio de los interrogadores no lograron detectar que en realidad estaban conversando con una máquina. Curiosamente, este hito ha tenido lugar durante el 60 aniversario del fallecimiento de Turing, un detalle que, sin duda, está contribuyendo a otorgarle a la noticia un cierto carácter de profecía cumplida, sugiriendo el inicio de una nueva edad dorada de la informática, marcada por la coevolución de la inteligencia humana y la artificial.
Ahora bien, más allá de los encendidos debates filosóficos que ha suscitado el test de Turing como una medida de la inteligencia, cabe mencionar que la noticia cae precisamente en un momento en el que la I.A. parece estar a puertas de ingresar en muchos de los ámbitos de la vida cotidiana contemporánea: pensemos por ejemplo en iniciativas como la de Google Car, el automóvil sin conductor que el gigante de las búsquedas por Internet pretende lanzar al mercado próximamente, y que es probado en las pistas de diversas ciudades estadounidenses desde hace varios años.

Toyota Prius modificado para funcionar como vehículo autoconducido durante una prueba. fuente: Wikipedia.org
La pregunta, por lo tanto, ha dejado de ser: "¿cuándo llegará la inteligencia artificial", para volverse: "de qué manera y hasta qué punto la vida humana será modelada por su coexistencia con la I.A. en las próximas décadas?". La respuesta a esta interrogante merece ser evaluada lo antes posible, en la mayor cantidad de foros y con la mayor transparencia, pero lo cierto es que, desgraciadamente, estamos muy lejos de esa situación. Tan lejos, por cierto, que el científico británico Stephen Hawking, una de las mentes más brillantes de nuestro tiempo, ha llegado a afrimar hace poco que la I.A. podría convertirse en "el peor error que podría cometer la humanidad".

stephen hawking. Fuente: io9.com
El artículo completo se puede leer en inglés aquí, pero me parece oportuno citar un extracto de las polémicas, aunque siempre lúcidas declaraciones de Hawking:
"Aunque el impacto a corto plazo de un sistema de inteligencia artificial depende de quien lo controla, la cuestión a largo plazo es si un sistema así puede ser controlado por seres humanos. (...) Es lógico pensar que los científicos están tomando todas las precauciones para asegurar el mejor resultado posible, ¿verdad? Pues no es así. ¿Si una civilización del espacio exterior nos enviara un mensaje diciendo: "Llegamos en unos años", nuestra respuesta sería: "¡Ok! Avisadnos cuando estéis llegando para dejar las luces encendidas"? Probablemente no, pero eso es más o menos lo que está ocurriendo con la inteligencia artificial. Aunque sabemos que la I.A. tiene el potencial para ser el mayor acierto, o el peor error de la humanidad, no se están investigando seriamente sus implicaciones."
La atmósfera general en el mundo de las inversiones, sin embargo, es de entusiasmo y casi de impaciencia por dar el salto lo antes posible. Hace solo unos días, Marc Andreesen, quizás el inversionista en startups más famoso de Silicon Valley (es co-creador del primer browser, Mosaic, y fundador de Netscape) lanzó, por ejemplo, un tweet diciendo "Los carros que se manejan solos son un imperativo moral", y enlazando la noticia del reciente accidente automovilístico del actor y comediante Tracy Morgan.
La idea de la I.A. aplicada a la solución de problemas de tráfico y a la reducción de accidentes automovilísticos suena efectivamente como la panacea universal, pero solo hasta que uno se pone a pensar en el tipo de problemas morales que un sistema tal, aplicado a gran escala, tendrá que resolver a diario, y de manera instantánea. Tomemos un momento para pensar, por ejemplo, en lo siguiente: ¿un carro robótico de Google sacrificaría a su pasajero por salvar a muchos?
Podemos suponer que los autos sin conductor estarán programados para defender, ante todo, la vida de sus usuarios. ¿Pero qué estarán programados para hacer cuando no uno sino muchos de estos carros robot estén sueltos en las calles, y estén conectados en red? Cuando eso suceda, la directiva primordial bien podría ser: "Minimizar la cantidad de daño a los seres humanos en general", y nada impide que una directiva de este tipo pueda hacer que un auto particular sacrifique a sus pasajeros con el fin de evitar una carnicería mayor.

un fotograma de la película "yo, robot", que explora el tema de la seguridad en un entorno poblado por autómatas Fuente: imagenespedia.com
Imaginemos por ejemplo que un peatón cruza de forma inesperada una calle muy transitada. Los autos robóticos alrededor de él se comunican rápidamente e idean algorítmicamente un plan para salvarle la vida al precio de causar que dos carros sufran un accidente leve, pero sólo si el carro que me lleva a mí se estrella intencionalmente contra una pared de concreto, con un 95% de posibilidades de matarme. Supongamos que todos los demás planes tengan peores resultados, donde "peor" se refiere a una escala en la que se miden lesiones y muertes humanas, y daños monetarios.
Esta situación, que parece sacada de una novela de Isaac Asimov, podría ser en realidad mucho más corriente de lo que pensamos en las décadas venideras; tomemos en cuenta, por otro lado, que los autos conectados en red son solo uno de los tantos ámbitos en los que la I.A., de ser aplicada a gran escala, implicará que sus programadores se enfrenten a decisiones morales complejas que, presumiblemente, apoyarán alguna forma de utilitarismo que trate de minimizar el daño colectivo. ¿Estamos preparados para ese debate o lo dejaremos a fin de cuentas en manos de programadores y lobbyistas? Vale la pena empezar a pensarlo, ¿verdad?
Escrito por
Escribo en La Mula.
Publicado en
Aquí se publican las noticias del equipo de redacción de @lamula, que también se encarga de difundir las mejores notas de la comunidad.