viernes, 15 de agosto de 2008

Inteligencia artificial y computadoras capaces de especular

Michael Kearns, Vasant Dhar y otros herederos de Alan Turing sueñan con la inteligencia artificial (IA). Pero su sesgo es poco tranquilizador: la ponen al servicio de la especulación financiera, no de la economía real ni la sociedad.



Trabajando para Lehman Brothers, por ejemplo, Kearns –explica una investigación de Bloomberg, recién actualizada en su sitrio- intenta desde hace tiempo que una computadora haga algo hasta ahora casi imposible: pensar como un operador de Wall Street, pero manejando miles de transacciones sin perder de vistas sutiles cambios en los mercados.

En un sentido, la futura “máquina de sacar ganancias” parece una mutación muy peligrosa de un proyecto japonés, conocido hace más de veinte años: los ordenadores de quinta generación. Por motivos nunca bien claros (el trabajo de la agencia no dice una palabra al respecto), la idea quedó sepultada en los archivos. Ahora, ingenieros de sistemas y matemáticos la desentierran –sin mencionar su origen-, pero orientada a afinar instrumentos para grandes intermediarios financieros y bursátiles.



Naturalmente, el concepto de IA remite a la “prueba de Turing” (1951) para reconocer la inteligencia cibernética. Su epónimo, Alan Turing, se suicidó en 1954 y, recién en 1956, surgió el término “inteligencia artificial”. A los dos años, se creó el programa Lisp, un lenguaje de IA, substituido en 1964 por computadoras capaces de entender lenguaje humano básico, suficiente para resolver problemas algebraicos. Por fin, en 1965, aparece Eliza, un programa interactivo capaz de dialogar en inglés neutro y esquemático sobre cualquier tópico.

Ahí arrancan las innovaciones que desembocarán en los presentes ensayos de “IA financiera”. En 1968, un cineasta versado en esos temas, Stanley Kubrick, imagina –partiendo de Arthur Clarke- en “2001” un ordenador inteligente de tipo holístico, HAL-9000. A su vez, el escritor se inspiraba en el antepasado de la computación, Charles Babbage (1792/1871), que concibió -pero no construyó- el ordenador de fichas perforadas. Mucho después, en 1987/8, las operaciones automáticas computadas ayudaron a provocar un crac bursátil global.

Ello no impide que diversas aplicaciones de IA (“máquinas que aprenden”) invadan todo tipo de sectores y, al fin, Internet. En 1999, Sony presenta un perro robot que, como sus versiones “humanas”, sólo parece servir para que los japoneses se diviertan. En 2001, “Inteligencia artificial”, un producto mediocre de Steven Spielberg (astuto, pero nunca un Kubrick) se candidatea para un Oscar que no obtiene.

Kearns es un optimista clásico y sostiene que “la AI cambiará Wall Street primero y después, el mundo”. Olvida que gurúes de la efímera “nueva economía”, como Nicholas Negroponte o Abigail Cohen (Goldman Sachs) prometían lo mismo hace casi diez años. Tampoco advierte que, en el mundillo académico, “AI” tiene una traducción irónica, “aventuras imposibles”. Sea como fuere, un ejército de analistas cuantitativos (AC) y graduados terciarios desafía a operadores financieros convencionales.

Por supuesto, hace decenios que bancas de inversión, fondos de cobertura y otros segmentos usan AC para detectar relaciones y tendencias subyacentes. El objeto consiste en explotar esos datos en veloces transacciones computadas. Los AC pretenden excluir móviles humanos –miedo, codicia-, pero ocurre que sus empleadores y los medios ven la codicia como virtud teologal.

Pese a esa contradicción, apóstoles de la AI como Kearns, Vasant Dhar o Kathleen McKeown creen que el tiempo está de su lado. Algunos tienen una meta nada modesta: construir un Warren Buffett cibernético, capaz de procesar todo tipo de interrogante financiero, económico, geopolítico, etc., que afecte al mercado. Por el contrario, muchos científicos, empresarios o ejecutivos prefieren –como el difunto Peter Drucker, que conoció a Turing-no tocar el tema. En verdad, la AI nunca satisfizo las ilusiones de los años 60 y 70.

Existe una razón objetiva, bellamente expuesta en “2001” (la novela, no tanto la película), “Solyaris” –el filme de Andryéi Tarkovskiy- o el ciclo “Fundación” de Isaac Asìmov. Tiene que ver con una situación ya clásica: un ordenador derrota a eximios ajedrecistas, pero no puede predecir el decurso de una sola acción relevante. ¿Por qué? Porque el tablero de ajedrez –aun el tridimensional- en un sistema cerrado, con cierto límite de piezas y movida. Al revés, el mercado es un sistema abierto, con una masa ilimitada o cambiante de operadores y otra similar de eventos, vínculos, situaciones e imponderables. Por ello, una computadora no parece capaz de ganar una partida de póker ni la guerra en Irak.

Obviamente, según apunta Brian Hamilton (Raleigh), los programas tipo AI pueden resolver problemas específicos según parámetros finitos. Así, en febrero Intel anunció haber desarrollado un microprocesador tamaño uña capaz de procesar un billón de cálculos por segundo. En los años 90, lo mismo exigía 10.000 semiconductores. Los creyentes en la AI como absoluto sostienen que esto recién empieza. Pero ante ellos se yergue otro campo muy difícil: el procesamiento de lenguajes naturales (PLN). Puesto en términos fáciles, la posibilidad de que un ordenador entienda un idioma humano, pueda usarlo y hasta aplicarlo a decisiones financieras. Esto supera a HAL 9000 (“2001”) o a los sistemas de “Viaje a las estrellas” series II a IV.

Una firma norteamericana, Collective Intellect, emplea ya programas elementales tipo PLN que “peinan” 55 millones de sitios web en pos de datos que generen utilidades a fondos de cobertura. Esto es, especulación sobre futuros y opciones vía derivados. Otro campo de AI, las redes neurales, implica replicar con “nanochips” el esquema de la corteza cerebral (los mecanismos que guían la razón).

Su objeto: que los cibersistemas imiten las neuronas naturales, piensen como operadores financieros y entiendan que el mundo no viene en blanco y negro, sino en un espectro de grises. Pero, a diferencia de un programa tipo AI, esos grises pueden no tener límite. Cuantificarlos equivale, como decían los presocráticos o Agustín de Hipona, a definir los alcances del poder celeste.

Sin pretender tanto, los analistas cuantitativos (AC o “quants” en la jerga del oficio) sólo quieren llegar al “hiperprotagonismo” en los mercados. Pero esta meta no carece de riesgos. Por ejemplo, por ahora ni los programas más complejos de AI muestran sentido común u olfato. A diferencia de los operadores humanos, en situaciones críticas pueden ocasionar catástrofes (confiesan Kearns y Dhar).

Seguramente por todo eso, “muchos investigadores en AI prefieren por el momento aspirar a menos y lograr más en materia de máquinas capaces de aprender”. Eso señala Thomas Mitchell, docente universitario experto en el tema. En esta línea menos “fundamentalista”, varias firmas financieras comienzan a desplegar programas básicos orientado a “máquinas que aprenden”. Mediante algoritmos, analizan a la inversa horizontes probables y definen medidas a adoptar en cada fase de una operación. Pero nada más.

Sin duda, el lenguaje seguirá constituyendo una vasta brecha entre inteligencia humana y artificial. “Cerrarla requiere enormes inversiones por parte de Wall Street y otras plazas”, afirma Dhar con notable ingenuidad. Este extremista concibe los mercados especulativos como “gigantescos bancos de pruebas para la AI”.

En medio de los nuevos debates, julio termina con otra novedad espectacular: avanzan estudio sobre cómo el cerebro descifra (no “decodifica”, como señalan algunos medios) el lenguaje escrito. Sucede que, en la evolución de la sociedad –partiendo del paleolítico, unos 500.000 atrás-, la escritura recién surge hace unos seis mil años.

Ello si se aceptan como primeras formas el sistema cuneiforme sumerio y los jeroglìficos egipcios. Pero el nexo directo entre sonidos y letras recién data de hace unos 3.500 años. Obviamente, es muy poco para generar cambios evolutivos en el hombre, pero algo ocurrió para que las redes neurales hayan podido detectar signos y grupos fonéticos cada vez más complejos.

Durante los siglos –XIII/X, los griesgos comenzaron a separar en vocales y consonantes las sílabas provenientes del alfabeto cananeo (siglos –XV/XIV). ¿Cómo hizo el cerebro para desarrollar la aptitud de leer las casi ilimitadas combinaciones gráficas del lenguaje natural?, se preguntan en la facultad de ciencias exactas y naturales –vaya nombre anacrónico-, universidad de Buenos Aires. La hipótesis inicial partía de un presupuesto lógico: la readaptación de circuitos existentes a nuevas funciones.

Al principio, había un factor propicio. En las lenguas semíticas, originaria del silabario cananeo, los datos semánticos residen en raíces triconsonánticas. Las neuronas las descifraron pero, siendo un silabario, no precisaban interpolar las vocales. Todavía, el árabe o el hebreo moderno e idiomas emparentados usan silabarios, no alfabetos, salvo para educar a extranjeros. La etapa final aparece con los primeros alfabetos de inspiración: a diferencia de los idiomas semíticos, los indoeuropeos otorgan valor semántico a las vocales y sus combinaciones, sean cuales fueren las consonantes.

En el plano informático, la tarea que afrontan los cultores de la AI es inversas: no encuentran neuronas adaptables y deben organizar redes partiendo de lenguajes naturales tan sintéticos e ilógicos como el inglés. En efecto, la representación escrita de este idioma casi no tiene nexos estables con los sonidos (al revés que en castellano, para tomar un caso).

http://www.mercado.com.ar/mercado/vercanal_nota.asp?id=357500

No hay comentarios: