La Teoría de la Información, la Inteligencia Artificial

Dos grandes hitos se registran en la ciencia del siglo XX: la culminación del Proyecto Manhattan y el descubrimiento de la estructura molecular del DNA (ADN, ácido desoxirribonucleido). El primero representa el paradigma de la química y la física; el segundo el paradigma de la biología.

D.H. Freedman en su fascinante obra Los Hacedores de Cerebros (1994) se refiere a la arrogante atmósfera intelectual que reinaba en la década de 1950 provocada por el triunfo de las ciencias “duras”, las ciencias rigurosas la química y la física- y sus exitosas aplicaciones que culminaron en el Proyecto Manhattan. Parecía por entonces que la biología se quedaba empantanada entre misterios y complejidades. (Lea también: La Teoría de la Información, Información Versus Conocimiento)

En tal ambiente del triunfo de la física, la química y las matemáticas, nació la nueva ciencia de la inteligencia artificial.

El punto de partida de la lA generalmente se lo asocia con una pequeña conferencia celebrada en Darmouth College con el auspicio de la Fundación Rockefeller, The Darmouth Summer Research Project on Artificial lntelligence, en el verano de 1956 (McCorduck 1(91), propuesta por lohn McCarthy, Marvin Minsky, Claude Shanon y Nathaniel Rochester.

Participaron diez personajes importantes, provenientes de diversas disciplinas, en el reparto de este drama llamado inteligencia Artificial (McCorduck 1(91). Minsky, McCarthy y Edward Feigenbaum anunciaron confiadamente el advenimiento de la era de las máquinas que piensan, y pronosticaron su rápido desarrollo, en no más de 20 años. Hoy reconocemos tal predicción cronológica como algo ingenuo (Freedman 1994).

Pero en 1953 James D. Watson y Francis H.C. Crick con su trascendental descubrimiento de la estructura de la molécula del DNA en los Laboratorios Cavendish de Cambridge, abrían el esplendoroso campo de la nueva biología, el de la biología molecular. En 1962 se otorgó el Premio Nobel en Medicina y Fisiología a Crick, Watson y Maurice H.F. Wilkins, en reconocimiento al más significativo logro desde Mendel. Y con ello “se disparó” el avance de la biología.

¿Qué se entiende por lA? ¿Cómo se la define? Maureen Caudill en su libro In Our Own Image (Oxford University Press, 1992) ofrece algunas definiciones adecuadas: “La lA puede ser definida como el esfuerzo por reproducir el comportamiento del ser humano a través de procesos (aquí se podría añadir de inferencia) secuenciales sucesivos.

La lA busca maneras de hacer a los computadores más inteligentes en su comportamiento aprovechando su capacidad deliberada y secuencial de ejecución de procesos a fin de simular el proceso secuencial del razonamiento lógico”.

Caudil expresa que “definir la lA es difícil, por cuanto son muchas las aplicaciones que cubre la sombrilla de la lA. Sin embargo, una manera de describir la lA es a través de los problemas que intente resolver. Existen dos categorías de problemas en lo referente a lA: asuntos fundamentales y aplicaciones finales”.

La lista de aplicaciones de la lA incluye asuntos tales como robótica, comprensión del lenguaje natural (comprensión del significado más allá del idioma coloquial), comprensión correcta del idioma (comprensión correcta de los sonidos como una secuencia de palabras y frases), visión, aprendizaje mecánico, planeación de la resolución de problemas generales y una variedad de asuntos similares (Caudill 1992).

Una dificultad principal para el rápido desarrollo de la lA es poder representar el conocimiento de manera adecuada en un programa inteligente. En efecto, el computador tiene una capacidad inmensa de almacenar datos, pero sólo puede accesarlos si se le indica con exactitud dónde se encuentran. Otro aspecto fundamental es el del uso de la lógica para resolver un problema.

También Caudill sc refiere a ello: casi todos los sistemas implementan una forma de lógica llamada lógica del predicamento, la cual expresa hechos pertinentes a sujetos como predicamentos en una frase.

“Todos los hombres son mortales” es un ejemplo, en el cual “son mortales” es un predicamento de “todos los hombres”. Se ha desarrollado un programa especial de lenguaje denominado Prolog (de programming logic) que representa los programas de computador como una serie de predicamentos y que sigue las reglas de la lógica para resolver tales predicamentos durante la ejecución del programa.

El cerebro humano no es realmente un computador, porque en realidad no “computa” y tampoco sigue instrucciones secuenciales de ejecución, sino que es un mecanismo cibernético complejo que responde a estímulos externos o internos, físicos o abstractos, en forma integral e inteligente.

El computador digital, por el contrario es una máquina que ejecuta funciones definidas y limitadas mediante el uso de dos componentes principales: la memoria y la unidad central de procesamiento (CPU). Ahora se realiza un esfuerzo por crear redes neuronales, que son mímica de la estructura del cerebro, y específicamente de la corteza cerebral (Tank & Hpfield 1(87). Ya comienzan a tener aplicación práctica en el trabajo médico (Kattan & Beck 1995).

Tal vez la dcfinición más práctica que enuncia Caudill cs una muy simple: “lA es el esfuerzo por convertir en inteligencia cl comportamiento de los computadores, particularmente frente las situaciones del mundo rcal”. El libro de Caudill cs una excelentc revisión sobre la construcción dc una persona artificial, y a él me refiero más adelante.

Difíciles fueron los comienzos de la inteligencia artificial. La lA convencional de los primeros decenios se fundamentó en la tecnología de semiconductores, los principios de la psicología cognoscitiva y el desarrollo de la informática. Y lento fue su avance, hasta el punto de aparecer como encallada.

Pero ahora se registra un nuevo movimiento, derivado en gran parte del progreso de la biología molecular, el de la lA basada en la naturaleza. Esto significa un abordaje de la lA siguiendo los mismos caminos de la naturaleza, o sea un enfoque cibernético biológico.

La lA basada en la naturaleza utiliza el lenguaje y los mecanismos biológicos de control y mando de los fenómenos cerebrales, y se fundamenta en la biología molecular, la neurociencia y los sistemas adaptables complejos.

En cuanto a máquinas que “sepan”, o sea que almacenen enormes volúmenes de información y que la analicen, a la manera del cerebro humano en su función de inteligencia, es mucho lo que se ha avanzado en lo relativo a capacidad de memoria.

Desde un punto de vista de informática práctica, se debe reconocer como algo trascendental el desarrollo del Cic (como en enciclopedia), un computador equipado con todo el conocimiento general y el sentido común de un adulto ordinario.

Freedman se refiere al Cic y comenta que su creador, Doug Lenat, de Stanford y ahora de la Microelectronics and Computer Technology Corporation de Austin, Texas, creada por Xerox, Kodak, Apple y Digital, entre otros, “predice que cuando Cic inunde las bibliotecas devorando libros para ampliar su base de datos, éstos en parte se almacenarán en computadores de todo el mundo, y estarán al alcance de todos a través de líneas telefónicas y ondas radiales. Su inteligencia fluirá como electricidad por una gigantesca y ubicua red de conocimiento”.

El nuevo enfoque de la lA basada en la naturaleza, establece que para comprender cómo funciona algo en el ser humano se trate de comprenderlo primero en un animal más simple, cuya inteligencia es fundamentalmente de reflejos y no de razonamiento.

Freedman cita a Stewart Wilson, del Instituto Roland, vecino de MIT, quien decidió duplicar la inteligencia animal y creó criaturas artificiales, que denominó “animats”. Pronto Rodney Brooks, también citado por Freedman, comenzó a pensar en los insectos, que poseen una inteligencia navegacional destinada a “esquivar cosas”, cuya visión les indica “donde no están las cosas”.

La notable ventaja de esta arquitectura diseñada por Brooks es que evita el razonamiento abstracto y la cartografía propios de los programas de navegación robótica. Brooks “adopta un enfoque exactamente opuesto al que ha impulsado la lA por 40 años: quiere que sus sistemas sepan menos, que estén libres de hasta los rudimentos del razonamiento; en su esquema el reflejo lo es todo, el conocimiento y la planificación son distractores”. (Freedman 1994).

Esta es la denominada arquitectura de subunción, que basa la acción en la información sensorial, la cual posee la ventaja adicional de requerir muy poca energía para su operación.

El prototipo del grupo de Brooks es el conocido Atila, el insecto robótico con este tipo de arquitectura. Los descendientes de Atila son los robots mosquitos, de promisorio uso en medicina. En efecto, gracias a la miniaturización de los chips de silicio, se está logrando construir estos mecanismos semiinteligentes de I mm de ancho, tallados en un pedacito de silicio – cerebro,motor y todo-, los cuales tendrán un costo de apenas unos centavos.

Provistos de minúsculos escalpelos y aditamentos similares, los robots mosquitos podrán circular por el ojo, por la circulación coronaria o cerebral, y realizar cirugía endovascular de carácter terapéutico.

La conjunción de la biología molecular y de la tecnología de los microprocesadores de silicio ya permite la creación de computadores orgánicos, con memoria basada en moléculas proteicas, los cuales tendrán una capacidad gigantesca y un tamaño 50 veces menor que los computadores convencionales que emplean chips de silicio.

Al contemplar la lA en esta perspectiva de casi infinita miniaturización, hasta llegar al tamaño de moléculas y átomos, se vislumbra un panorama sobrecogedor: mientras la biología se ve limitada por el conocimiento actual y las leyes de la vida, la nanotecnología aparece libre de límites y, consecuentemente, con un mayor y más rápido potencial de desarrollo. ¿Progresará más la lA que la inteligencia humana en el próximo milenio, y será la lA el siguiente eslabón en el desarrollo cósmico?

P. Russell en su libro La Tierra Inteligente coincide con Collins y otros, al afirmar que sólo falta un pequeño paso para llegar a las MUI (Máquinas Ultra Inteligentes), las cuales podrán funcionar tan bien, o mejor, que un cerebro humano en cualquier campo relacionado con el procesamiento de la información.

¿El incremento exponencial de la inteligencia artificial es tal, y los computadores han llegado a ser tan inteligentes que pueden tomar el lugar de la humanidad para convertirse en los guardianes de la evolución, quedando la humanidad obsoleta? Collins (1994) asegura que tales máquinas inteligentes podrían representar un verdadero peligro para la supervivencia misma de la humanidad, y como Chaisson en su Cosmic Dawn, se pregunta si la inteligencia artificial podría ser la nueva etapa en la evolución cósmica.

La Inteligencia Médica

Los párrafos anteriores son perfectamente aplicables a lo que debe ser la definición y la estructuración una “inteligencia médica”. Aparece evidente que para el médico el computador se convierte en un instrumento de amplificación intelectual por excelencia, al permitir disponer de una memoria anexa, de inmediato y fácil acceso, que es la información. Información biológica, información epidemiológica, información socioeconómica, etc.

El médico la debe procesar, intelectual o mecánicamente, para convertir en conocimiento, y mediante el proceso de integración lógica de los conceptos, convertir tal conocimiento en inteligencia médica.

En la década de 1970 se desarrollaron sistemas expertos para aplicación en medicina, tal como el popular MYCIN para la selección de antibióticos. El análisis de los resultados de la “toma de decisiones” de MYCIN en casos de enfermedades infecciosas revelaron que MYCIN lo hacía tan bien o mejor que un médico especialista, tanto en lo referente al diagnóstico como a la escogencia del régimen terapéutico (Buchanan & Shortlife 1984; y et al 1979).

Otro muy conocido fue CADUCEUS, desarrollado en la Universidad de Pittsburgh, que pretendía simular el trabajo diagnóstico de un internista. En un amplio rango de categorías de diagnóstico, CADUCEUS fue, en su momento, más exacto que los médicos humanos (Kurzweil 1994).

Como los anteriores, son ya muchos los sistemas expertos desarrollados y en pleno uso médico. Los sistemas expertos aplicados a la medicina han sido muy influyentes para el pensamiento actual sobre inteligencia artificial (Kurzweil 1994).

Como los anteriores, son ya muchos los sistemas expertos desarrollados y en pleno uso médico.

Los sistemas expertos aplicados a la medicina han sido muy influyentes para el pensamiento actual sobre inteligencia artificial (Kurzweil 1994).

Caos y Complejidad

Los investigadores dedicados al estudio de la Complejidad (Lewin 1992), una nueva ciencia, que es diferente de Caos (Gleick 1987), entre ellos el grupo del Santa Fe Institute (New Mexico, USA), los llamados “complejólogos”, pueden estar en desacuerdo sobre lo que están estudiando, pero concuerdan en cómo lo hacen: mediante computadores.

Así se expresa John Horgan, escritor senior de Scientific American, en un reciente y ameno artículo titulado “De la Complejidad a la Perplejidad” (Horgan 1995). En este artículo, el autor toca el tema de la vida artificial, al plantear que la fe en los computadores es epitetomizada por la vida artificial, un campo derivado de la complejidad, algo que ha llamado, de por sí mismo, una gran atención.

El computador es el microscopio de quienes se adentran en estas nuevas “ciencias” que tratan de la dinámica de los sistemas no lineares. Los sistemas lineares obedecen a la física gravitacional y cuántica, y son enteramente predecibles. Los no lineares, como el clima, por ejemplo, son impredecibles. Así lo son también los ecosistemas, las entidades económicas, los embriones en desarrollo y, sobre todo, el cerebro. Todos son ejemplos de una complejidad dinámica que desafía cl análisis matemático y la simulación (Lewin 1992).

A través del computador, los investigadores de Complejidad y de Caos escudriñan el mundo, tanto cl real como el abstracto, mientras Caos y Complejidad dan vueltas, uno alrededor del otro, tratando de establecer si son la misma o diferente cosa.

¿Qué es esta pretendida y controvertida ciencia emergente, la complejidad? La teoría de la complejidad plantea que en la raíz de la totalidad de los sistemas complejos, desde el comportamiento de las moléculas hasta la acción de las naciones y los estados y el equilibrio dc la naturaleza, se encuentra un cuerpo de reglas que cuando puedan ser identificadas darán lugar a la gran unificación de las ciencias naturales (Lewin 1992, Otero Ruiz, 1988).

Caos, igualmente una novel y controvertida ciencia, ofrece una perspectiva de orden y de patrones donde previamente se observaba sólo lo aleatorio, lo errático y lo impredecible, es decir lo caótico. La teoría Caos ha creado técnicas especiales para el uso de los computadores y formas especiales de graficar imágenes, imágenes que capturan una fantástica estructura subyacente a la Complejidad.

Para algunos físicos Caos es una ciencia de proceso, más que de estado; de transformación, más que de existencia. Caos está expresado en el comportamiento del clima, en el de un avión en pleno vuelo, en el de los automóviles que se concentran en una autopista, en el del petróleo que fluye por los oleoductos.

Caos trata de la universidad de la complejidad. Los creyentes en la teoría especulan sobre el determinado y el libre albedrío, sobre la evolución, sobre la naturaleza de la inteligencia consciente. Ellos consideran que están revirtiendo una tendencia de la ciencia hacia el reduccionismo, hacia el análisis de los sistemas en términos de sus partes constitutivas: quarks, cromosomas, neuronas. Ellos creen que enfocan más bien el todo (Glcick 1987).

¿Qué tanto avanzado en su aceptación cestas dos teorías? Para algunos ya han fallado y apenas exhiben modestos descubrimientos. Pero porque son investigadas y analizadas en el computador, se mantienen vivas y todavía vigentes en el ciberespacio.

CLIC AQUÍ Y DÉJANOS TU COMENTARIO

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *