Inteligencia Artificial y Neurología: II Parte

IA vs. IR

Doctor Mario Camacho Pinto.
Académico de Número

Algunos comentarios sobre la primera parte me han inducido a ampliar las bases de este trabajo mediante la presentación de aspectos comunes y conceptos disímiles sobre la hipotética relación entre inteligencia artificial (lA) e inteligencia humana(IH). El tema es tan complejo que un intento por resumirlo de por sí ya es atrayente además de necesario.

Microhistoria de la lA. Ciñéndome a una cruda realidad la lA nació en la Conferencia de Darmouth, año 1956, cuando John McCarthy, profesor de ciencia de computador en Stanford Un. acuñó el término de lA.

Sin embargo, especulando un poco podemos decir que cierta inquietud existió desde la antigüedad, mucho antes de los computadores y aún de la electrónica (1) cuando el ser humano irresistiblemente mostraba inquietud por crear I fuera del cerebro humano.

Se encuentran algunos ejemplos en la Mitología griega: Hefestos. dios del fuego y de los metales, confeccionaba creaciones semihumanas en su forja. Pigmalión desencantado de las mujeres modeló su propia ninfa en mármol y para poder casarse con ella imploró suplicante hasta conseguir que Afrodita le diera vida.

En la Europa medioeval al papa Silvestre II (apodado el hechicero por su sabiduría, año 909 D.C.) se le atribuye que construía cabezas parlantes. En el siglo XVI Para celso clamó haber inventado un homúnculo. Y el rabino checo Jundo ben Loew esculpió un hombre en arcilla, José Golem, y lo constituyó espía en Praga.

En 1854 el matemático británico George Boole propuso un sistema para describir lógica (2) -las leyes del pensamiento en términos matemáticos: “álgebra booliana”, “mathematical logics” que representa procesos lógicos con dos dígitos, 9 y 1.

En 1937 Alan Turing demostró que una máquina binaria podía ser programada para realizar cualquier tarea algorítmica. Esta máquina de Turing sólo podía ejecutar dos acciones: dibujar y borrar.

En el mismo año Claude Shannon, graduado en el MIT, descubrió que era posible lograr resultados similares con relés eléctricos que integró en circuitos al sistema binario de almacenamiento de información, lo que dio la medida para que en 1943 se construyera el primer computador digital Harvard Mark I para computación matemática con los dígitos O y 1.

En 1945 el matemático americano John Von Newman informó sobre su diseño EDV AC (Electronic Discrete Variable Computer) de estructura lógica para procesar información y hoy en día se conserva su variable de procesamiento secuencial a la que últimamente se ha agregado otra imitada del cerebro, que es el procesamiento paralelo de que hablé en la primera parte y que ha dado en manos en Brattle Research Co. “velocidad fantástica en procesamiento” (3).

En 1948 Wiener del MIT corrigió a Newton porque desde su tiempo los científicos estaban concentrados en un modelo de energía cuya transferencia explicaba eventos y procesos. Wiener cambió este concepto por el de transferencia de información y control denominando este enfoque Cibernética (4).

Por intercambio de información dedujo la existencia de similaridades funcionales entre humanos y máquinas, noción invaluable en las tempranas investigaciones sobre IA.

Con los progresos de la tecnología electrónica Eniac reemplazó los relés de Mark I por tubos al vacío y denominó su computador primera generación (1). La segunda generación fue la basada en el transistor semiconductor. La tercera en los circuitos integrados (IC’s).

La cuarta en los circuitos de muy grande escala de integración (VLSI), de los cuales una sola capa delgada o “chip” puede contener cientos de miles de circuitos on and off, O ó 1, lo que significa mejor tecnología pero el concepto permanece el mismo.

En el verano de 1956 se celebró una conferencia en la sede del Darmouth College, New Hampshire, entre una docena de “revolucionarios” matemáticos, neurólogos, psicólogos e ingenieros eléctricos, eruditos usuarios de computadores que tenían en común el empeño de simular varios aspectos de la IH; decidieron unificar esfuerzos pero no se ponían de acuerdo en la denominación de la nueva ciencia.

Hasta cuando J ohn McCarthy sugirió el término de lA, bautizando así esta rama de la ciencia computada. Organizaron esta conferencia (5) McCarthy de Stanford, Marvin Minsky de Harvard, ambos graduados en Princeton y fundadores de la AAAI (American Association for Artificial Intelligence); Nataniel Rochester de IBM y Claude Shannon de Lab. Bell.

La quinta generación de computadores es (6) la del proyecto japonés que comenzó en 1982 y comprende 10 años de investigación a un costo de un billón de dólares entre el sector público y el privado. El gobierno japonés aportó de inmediato U.S.$450.000.000.

Su meta central es desarrollar computadores diseñados especialmente para investigación y aplicaciones en Inteligencia Artificial y su lema es “Conocimiento es Poder”. Proclaman ellos que el mundo está evolucionando hacia un tipo de sociedad post-industrial en que la riqueza de las naciones no será medido en oro o petróleo sino en términos de información.

También en 1982, para dar respuesta coordinada a este desafío japonés, representantes de las más grandes compañías norteamericanas de alta tecnología se reunieron para discutir la propuesta de William Morris de unir esfuerzos y combinar recursos.

Así fundaron la MCC (Micro Electronic and Computer Technology Corporation) que comenzó operaciones en 1983 con 21 grandes empresas solidarias (1). .

¿Saldrá de esta colosal empresa la VI generación, más bien que de la idea (sugerida por Stevens y comentada en la primera parte por mí) de un computador basado en “modelos neurológicos”?

Randy Davis, director de lA del MIT, en un reportaje reciente (7) ante la pregunta de si para que un programa sea considerado como de lA deba resolver sus problemas empleando salamente técnicas que simulen la IH, responde que no porque hay por lo menos dos diferentes estrategias, a saber.

Una cercana a lo que los científicos cognoscitivos están tratando de hacer, que es entender cómo la gente resuelve los problemas; y la otra, más orientada hacia lo que llamamos inteligencia de máquina, que quiere resolver el problema de una manera razonable sin “casarse” con el cerebro humano.

Jean Dominique Werner en su libro Computer and Human Intelligence (8) dice: “cómo desarrollar y emplear los computadores es hoy más que nunca un interrogante abierto y no sólo debe contemplarse su utilidad sino también sus posibles efectos dañinos”, porque sólo procesa datos; y aun cuando es cierto que almacenan en sus memorias mecánicas sin la inevitable deformación de la memoria humana, también lo es que la escritura es más confiable y sobre todo permite almacenar la expresión del pensamiento humano.

Con éste preámbulo empiezo por preguntarme si la lA alcanza a ser un ente de razón diferenciado, es sólo un concepto complementario, o es una noción convencional explotable.

IA VS. IH

La definición previa es imprescindible a fin de circunscribir áreas de especulación. En mi modo de pensar, el correcto planteamiento del tema comienza porque se dehe marginar el término “inteligencia natural”, que considero expresión ambigua que sólo puede sostenerse como contraposición al de lA.

Así que para expresarme con propiedad hablaré sólo de IH, sin que ésto quiera decir ignorancia de mi parte pues consciente estoy de la advertencia de W.K Estes, (9) de Harvard, de que también hay que hacer distinción entre IH e I animal, modalidad ésta última que se concentra principalmente según él, en la información aprendida en cuanto se refiere a problemas que los seres no humanos confrontan para la inmediatez.

Es decir, I frustra, carente de prospección y que yo comento diciendo que es innegable que en el reino animal se observa algún grado de I manifestada en capacidad de organización gregaria, en alguna capacidad de aprendizaje, cualidades que a mi modo de ver tienen más bien relación con resultados de “condicionamiento operante” en el sentido skineriano.

El solo hecho de pronunciar y más aún de escribir la palabra inteligencia suscita reserva expectante, pues éste vocablo ha estado y está en el léxico corriente de todo el mundo en sentido general, más o menos restringido en unos, desbordado en aspectos circunstanciales en otros, impregnado de filosofía y aún teología en muchos, pero en un alto porcentaje conceptualmente indefinido y carente de la auténtica identidad que se requiere en los ámbitos académico y científico.

Y en especial si se plantea su evaluación con fines pragmáticos bajo los diferentes puntos de vista cualitativos, cuantitativos, comparativos, de escolaridad, médico-clínicos, etc.

Así el concepto se va complicando más y más en superficie, por ampliación y fragmentación, y en profundidad por el estudio de sus variables y de sus probables mecanismos neurofisiológicos subyacentes en las oquedades encefálicas.

Pues cuando se trata de una “medición”, o mejor evaluación Neuropsicológica, en terminología moderna, realizamos su complejidad, pero también observamos su inconsistencia en las respuestas, explicable si se tiene en cuenta la gama tan amplia de funciones que explora, que van desde las concretas simplemente asociativas, perceptuales, mnésicas, pasando a través de la atención y concentración hasta las altamente superiores abstractas, conceptuales, de análisis, síntesis, pensamiento inductivo deductivo, imaginación, lenguaje, etc.

En la práctica su aplicación se utiliza en especial en las áreas de I académica o de aptitud para escolaridad, selección vocacional, rehabilitación, etc.

Estoy tratando este tema de las inteligencias porque lo he venido encontrando relacionado con mi especialización médica; ha sido mi “hobby” iniciado desde mi Tesis de grado que versó sobre un aspecto del comportamiento humano anormal.

Hoy en día algunos autores como Anastasi (10) consideran la 1 como una de las manifestaciones del comportamiento humano normal, de tipo adaptativo y Charles M. Fair (11) en su libro The Physical Foundations ofthe Psyche la define como la “capacidad para modificar reacciones por la experiencia, capacidad que puede permanecer latente si no es activada por experiencias emocionales”.

Continúo mi comentario inicial diciendo que el teorizar sobre I obviamente es una actividad connatural al hombre, practicada ad libitum desde los albores de la humanidad por algunos, por otros bajo el conocimiento legado por tradición, por la observación o inducido por la introspección; ha sido y es en resumen lugar común. (Vea también: Algunas Consideraciones Relativas al Hábito de Fumar en los Hospitales)

Mas sin embargo hay un aspecto exclusivo y moderno que es el biológico, neurofisiológico para ser más preciso, que constituye el enfoque al que mi formación profesional y mi información me llevan por vis a tergo.

Es lógico y consecuente que me aleje de toda digresión filosófica, psicológica o de cualquiera otra naturaleza no biológica.

A mi modo de ver uno de los interrogantes más difíciles de abordar y de responder es el de su origen filogénico, planteado cuando quiera que con criterio evolucionista se medita sobre los comienzos de la vida misma, milenios de milenios hace, cuando forzando la imaginación y acudiendo a los recursos intuitivos quisiéramos “entrever” en qué “momento” ese ser viviente ya dotado de movimiento intencionado (¿instintivo?).

Es decir con las características instintivas de un animal, fue tomando conciencia de sí mismo, adquiriendo autonomía de comportamiento responsable e ideando los recursos para preservar su integridad ante un ambiente hostil y peligroso, para superar los escollos, satisfacer hambre y sueño, es decir prever y proveer.

Procrear para no extinguirse, asimilar tanto el fracaso como el éxito formando experiencia almacenable como memoria, adquiriendo capacidad de aprendizaje, solución de problemas, utilización de conocimientos para indagar posibilidades, calmar la ansiedad surgida de sus emociones primarias neurovegetativas.

Todo lo cual daría lugar a la integración lenta, paulatina, progresiva de su personalidad-mente que lo distanciaría de los seres vivientes que permanecieron animales y daría vigencia y plastúidad a esa función de discernimiento espontáneo de cuya calidad depende la actividad creativa denominada inteligencia humana.

Hago uso del vocablo momento en la dimensión biológica pre-histórica evolutiva que significaría el transcurrir de milenios suficientes para adquirir las innumerables funciones inteligentes y para ir configurando en forma paulatina y progresiva, genotípica y fenotípicamente, esa estructura biológica, neurofisiológica, jerarquizada y perfecta que es el cerebro humano actual.

Éste ha ido adquiriendo funciones en escala ascendente a partir de la primigenia reunión-agrupación de elementos atómicos, moleculares, celulares, de órganos, hasta llegar a conformar el organismo humano que aún en su fase actual durante la embriogénesis continúa en evolución, puesto que demostrado está que en tal estado hay factores que la pueden alterar favorablemente o en desfavor como lo viene probando la genética.

Hoy en día es noción convencional que la capacidad mental de una persona está determinada genéticamente, pero la medida en que esta capacidad hereditaria se desarrolla está determinada por influencias ambientales, enseñanza y experiencia.

Las células en general y la neurona en particular, contienen la organización molecular de actividad biofísica y bioquímica básica que constituye la energía vital cuya conversión, procesamiento, transporte, distribución y recuperación han llegado a constituir características que dieron a las neuronas actuales el inconmensurable poder que tienen y que ahora el hombre, estimulado por logros científicos y tecnológicos inverosímiles como el alunizaje, la biología molecular, los microprocesadores computacionales, etc., aspira a remedar irreverentemente en su complejidad estructural, organizacional y funcional en forma de lA, aprovechando los progresos y avances de la tecnología, del “hardware” y del “software”.

Mas la tarea realizada por la naturaleza evolutiva no se agota ahí en lo eléctrico, que hasta podría llegar a simularse, sino aparece cada día más enigmática y compleja (12) a medida que se va conociendo mejor y descubriendo intimidades en sus mecanismos inigualables, como el bioquímico de los neurotransmisores, aminoácidos y péptidos (encefalinas), neuroreceptores, neuromoduladores, neurohormonas, etc.

Bien demostrada está su condición de imprescindibles elementos para el normal funcionamiento de la mente, puesto que sus alteraciones por desvíos de las neuronas monoaminérgicas dan por resultado serias anomalías psíquicas (psicosis afectivas y esquizofrénicas) (13). En caso tal, ¿sin ellos obtendríamos una lA distorsionada?

Algunos autores con información parcial consideran la neurona como una unidad electroquímica (14) aserción comentada por mí en otro escrito diciendo que cualquiera de los estímulos capaces de iniciar una actividad mental determinada originan en la neurona un proceso complejo con movimiento de iones Na y K dentro y fuera de ella y a través de su membrana(bomba iónica).

Creando así alteraciones de sus cargas eléctricas (despolarización y repolarización) para decodificar una información previamente codificada y almacenada, al tiempo que desencadena la síntesis de los neurotransmisores excitatorios (glutamato), refractarios o inhibidores (gaba) encargados de transportar o no información por las sinapsis (15) en donde lo así elaborado se completa con el procesamiento asociativo multineuronal a fin de que siga su curso hacia los neuro-receptores efectores.

Como lo anota alguna autoridad en biología molecular, sería en este nivel físico-químico en donde posiblemente un buen día se llegue a descifrar el enigma de la relación materia-pensamiento. Nivel que dio para la memoria la noción de codificación química en las macromoléculas.

El aforismo clásico en Neurofisiología comparada (34) de que la función crea el órgano no parece decir mucho en lo referente a la evolución de la l natural y quizás en este caso concreto paradójicamente pudo funcionar en discordia, puesto que si realmente su ejercicio fue creando un cerebro, éste no evolucionó en el sentido de progreso psíquico sino para una sola especie animal, la del Horno sapúms.

Si decimos que en un momento dado de la existencia primigenia se completó y estructuró la organización de un cerebro inteligente -encefalización de las funciones neuronales de Hughling Jackson- (alambrado o hardware) y las neuronas llegaron a adquirir capacidad de almacenar suficiente información (teoría celular) (16) y capacidad de procesamiento (teoría molecular, código molecular que involucra el DN A portador del mensaje hereditario o genética molecular) (17) ante los innumerables estímulos y vitales exigencias que requerían acción inteligente.

Y que a su vez ese desempeño inteligente fuese el autor de nuevos circuitos cerebrales y perfeccionamiento de los elementos neuronales (genética de la especie, origen de los genes) ¿estaremos ante una hipótesis banal, remedo del idealismo que esgrimían en el pasado los agrobiólogos soviéticos, o esbozando una teoría seria? Personalmente creo lo segundo, pues a través de una bibliografía copiosa se consigue hoy en día inclinar la balanza en favor de este magno aserto.

Desde Johannsen a comienzos de siglo quedó demostrado que la evolución se realiza a través de cambios genéticos y así el gen vino a ser como la unidad elemental de la herencia con sus atributos peculiares de recombinación, mutación, duplicación (cromosomas), etc.

También se estableció la noción de que los cambios por factores ambientales no se heredan. Después de siglos y más siglos, en la actualidad las especies animales logran adaptarse a un nuevo medio ambiente con dificultad y sólo si artificiosamente se les proporcionan las condiciones ambientales propicias, de lo contrario se extinguen.

En cambio el hombre puede conseguir su adaptación a cualquier ambiente, inclusive el extraterrestre, por su propio esfuerzo, porque tiene la capacidad conciente para poner en juego los mecanismos conducentes al exitoso logro. Esto es lo que constituye para mí la esencia de la IH y conforma mi personal definición.

Considero como origen o nacimiento de la I el “momento” de la existencia primigenia que definió absoluta y definitivamente el animal racional y que algunos biólogos hoy en día interpretan como “sub-producto del alambrado cerebral”, expresión ya popularizada entre nosotros, y lo que con avidez escalofriante, tecnología asombrosa y genial inteligencia persiguen los ingenieros inmersos en su mundo alucinante de la informática (18), ahora asociada a los avances de las neurociencias como la neurobiología y en especial la neurofisiología, en busca del paraíso de la lA.

Ronald J. Lukas, neurobiólogo del BNI (19) comenta: “La sofisticación y complejidad de los organismos superiores está fundada sobre las características morfológicas y funcionales de sus elementos celulares constitutivos.

Las manifestaciones de estas propiedades diferenciales y diversificadas son una consecuencia de la expresión celular específica fenotípica. Las neuronas diferenciadas adquieren morfología característica y desarrollan patrones de segregación y conectividad.

En su estado maduro tienen capacidades distintivas de síntesis y utilizan sustancias químicas como neurotransmisores y en sus membranas limitantes se organizan formaciones moleculares que funcionan como receptores de las señales químicas. Todas las neuronas cuentan con material genético modulado epigenéticamente; los aportes temporales y espaciales, las bases moleculares constituyen motivos de investigación permanente”.

W.K. Estes, antes citado, comenta que el estatismo en los conceptos sobre IH en los últimos sesenta años empieza a cambiar y anticipa que se necesita una reorientación radical que, como no llega del lado de la Psicología convencional de donde se espera, hay que buscarlo en otra dirección.

Sobre tal nuevo rumbo dice: “Me parece potencialmente fructífero el que apunta hacia la lA, otra disciplina que concierne con problemas teóricos de I pero que deriva de una diferente tradición intelectual, porque mientras que el psicólogo parte de la premisa de que la I existe como un atributo de la mente humana y trata de medirla y definirla in situ, los investigadores en lA parten de la base de la ciencia de computador, admiten sólamente que la I caracteriza todos los procesadores de información, animados o inanimados, que ejecutan tareas de conocimiento. Se proponen probar la validez de sus ideas construyendo sistemas inteligentes”.

Al afirmar que el rápido desarrollo de la lA en los últimos años no nos ha traído una teoría general satisfactoria de la función inteligente, admite que hay un acuerdo sustancial en la existencia de algunos constituyentes comunes de interrelación entre lA e IH que expone así: ”

a) capacidad para evaluar situaciones en condiciones alternas;

b) para manipular símbolos;

y c) para rebuscar a través de sus secuencias con la guía del conocimiento y de principios heurísticos”;

y prosigue: “hay un agudo contraste entre el papel del conocimiento en la psicometría y en el abordaje computacional de la lA: en el primero el conocimiento de los hechos o significado de las palabras es considerado como un índice de 1.

En el último el conocimiento es mirado como un ingrediente esencial de la 1, no simplemente una correlación más de algunas características abstractas”, hecho que refleja evolución y variación a nivel fenotípico de la función inteligente.

“Muchos de los mayores progresos en lA que van desde la información sensorial hasta las decisiones de expertos han sido por asimilación y asociación de mecanismos e interacciones cognoscitivos-computacionales, que aun cuando en sus resultados actuales no corresponden al optimismo inicial, configuran de todos modos una reorientación que puede apropiadamente designarse como perspectivas de la ciencia cognoscitiva”.

A fin de mostrar un poco más de información sobre el tema en cuestión, quiero hacer un interregno para espigar en el libro (1986) de Robert J. Stemberg y Douglas K. Ditterman “¿What is Intelligence?” (20).

Contiene 24 capítulos sobre 24 “definiciones” de IH tratados cada uno por un autor diferente; su comentario rebozaría la medida de mi escrito, por lo cual sólamente me ocupo de 3 de ellos:

1. El de Estes, ya informado;

2. El de Anastasi, de Fordham University, quien enfatiza en el aspecto cultural de la Humanidad y contempla a la inteligencia no como una entidad dentro de un organismo sino como una cualidad del comportamiento; es una función esencialmente adaptativa ante las demandas del ambiente cambiante; es un concepto pluralista dependiente de múltiples factores como la edad, medio ambiente, habia, lidades individuales, conocimientos, tipos culturales, etc.

3. El biológico de Hans Eysenck, del Instituto Psiquiátrico de Londres. Este famoso autor dice que la mayor parte de los esfuerzos para estudiar y definir la IH se acompañan de intenciones por resolver y reducir los fenómenos complejos a partes elementales y procesos.

Así la I ha intentado definirse como “capacidad de aprendizaje, memoria, habilidad para resolver problemas, razonamiento, juicio, adaptación al ambiente, comprensión, desarrollo de estrategias”, lo cual no constituye sino aspectos parciales y no definición propiamente dicha.

Respalda a Hebb en la división de Inteligencia en 2 tipos: Ay B. El primero es el que denota la habilidad básica del organismo para hacer las cosas arriba enumeradas; y B, el que considera el nivel de ejecución cognoscitivo de un organismo ante la situación del diario vivir; es la noción del profano, reflejo de la inteligencia tipo A pero poderosamente influenciado por factores extrínsecos como educación, estado socio-económico, personalidad, influencia de los tutores, nutrición, motivación, etc., que según él no corresponde a un criterio científico.

Agrega que los “tests” psicométricos aspiran a descontar la influencia de estos factores con algún éxito, de tal manera que el cuociente intelectual IQ dé una buena predicción al menos en lo referente a educación, negocios, milicia, etc. pero los clasifica como tecnología carente de soportes científicos.

Y continúa con esta reivindicación: “El honor de haber postulado una teoría causal y una definición apropiada (21) de la I humana pertenece a sir Francis Galton, quien buscó una fuente biológica para explicar las diferencias individuales en la habilidad cognoscitiva.

Esta concepción ha sido recientemente revivida y puesta en forma por dos grupos de investigadores: Jensen (22) y Lehrrl de la Escuela de Erlagen, quienes han mostrado la razón que tuvo el sabio inglés al postular una estrecha conexión entre tiempo de reacción (RT) el”.

Eysenk y Berret (23) han conseguido evidencia de que los potenciales evocados se correlacionan con la Psicometría, de lo que han deducido la teoría de que la I es esencialmente el producto de la transmisión de la información libre de error a través de la corteza cerebral. Proponen este trinomio personal: velocidad mental + control de errores + continuidad = IQ. Esto sí es científico. manifiestan, y abogan porque se continúe la investigación en este sentido biológico.

Para concentrarnos ahora en las definiciones de lA tomamos como guión la obra de Henry C. Minskoff y colaboradores, “Understanding Artificial Intelligence” que comienza diciendo que la lA arranca emergiendo del Laboratorio hacia el mercado con prevención, ansiedad y trepidación; que necesita de los conceptos fundamentales, de sus diferentes tecnologías y de su meta. Infortunadamente, dice, no hay acuerdo sobre qué constituye con exactitud la lA.

En la primera parte presenté la definición del “Handbook of Al” sobre la cual no hay un acuerdo unánime y se recomienda considerar otras, si se quiere captar la esencia de lo que es la lA. Elaine Rich había dicho antes que la lA es el estudio de cómo hacer que los computadores realicen las cosas que en el momento las gentes hacen mejor (24).

Recordemos que el computador lo hace mejor en computación numérica, almacenamiento de información y operaciones repetitivas, o sea en actividades “mentales mecánicas”. y que el cerebro lo hace mejor en responder muy flexiblemente a situaciones; tener sensatez en las que son ambiguas o contradictorias; categorizar los diferentes elementos de una situación; encontrar similitudes presentes entre diferencias y viceversa, para establecer experiencia para el futuro.

Algunos autores sostienen inclusive que si los mecanismos de la lA no imitan los del cerebro, no puede hablarse de lA sino de máquinas inteligentes. Y se preguntan ¿cuál es la naturaleza del cerebro? ¿Pueden pensamientos, sentimientos y emociones ser representados en una máquina? ¿Es el cerebro nada más que un increíblemente sofisticado computador?

El punto de vista mecanicista de que el trabajo de la mente puede ser descrito en términos de función electroquímica del cerebro es desde luego rechazado por los filósofos. Las dos definiciones anteriores (de Winston y de Riche) se basan en la comparación de habilidades entre computador y cerebro; pero hay otras con aspectos diferentes como las de Bruce C.

Buchanan, que introduce el término heurística (regla sencilla, estrategia, truco, simplificación que drásticamente limita la búsqueda de soluciones a los grandes problemas sin garantía sino solamente con un buen porcentaje de acierto). Ejemplo: el que pasa a servicio militar o lo aseguran no tiene hiperglicemia ni albuminuria.

Esta es la definición de Buchanan en “Hacia máquinas que piensan” (25): “Inteligencia artificial es la rama de la ciencia de computador que trata de representar el conocimiento y de resolver los problemas con métodos simbólicos no algorítmicos y con reglas sencillas o neurística en los métodos que procesan información”.

Se considera aquí el procesamiento de los símbolos como soporte de la lA, y su asociación en la investigación es un intento por emular más de cerca los procesos de la mente.

Enfrenta dos características de los programas: numérico vs. simbólico y algorítmico vs. no algorítmico. Un algoritmo es definido como un procedimiento numérico que tiene un comienzo y un final específicos y su destino es resolver un problema; constituye base tradicional de los computadores que no siguen procedimientos lógicos.

Es que en forma temprana los investigadores comenzaron a discutir programas de procesamiento simbólico para los computadores, ideando ienguajes específicamente diseñados para aplicaciones de la lA porque el procesamiento numérico no se consideró inteligente, pues para serlo debe tener capacidad de procesar símbolos.

¿Cómo puede un computador procesar símbolos? Para dar un ejemplo: una forma simple es la de emplear un sistema de códigos para representar letras y otros caracteres a la manera del alfabeto Morse de telegrafía:

A =.- B = -… C = -.-. D = -.. E = . F = ..-. G = –oH = …. I = .. etc. o del sistema binario: Código de 5 Bits. 0=000001=000012=000103=00011 4=00100 5 = 00101 6 = 00110, etc.

Los computadores emplean sus sistemas de códigos binarios para representar letras y otros símbolos; el más comúnmente usado hoy en día es el llamado ASCII (American Standard Code for Information Interchange).

Otro usado por IBM es llamado SBCmC (Standard Binary Coded Decimal Interchange Code). La solución para las dificultades en la práctica fueron superadas con la programación que procesa tanto letras como números.

Así surgieron tipos de programas: el pionero COBOL (Common Bussines Oriented Language) hoy considerado como elemental pero que se sigue usando en el renglón de negocios. El FORTRAN (Formula Translator) para matemáticas y ciencia. El BASIC (Beginner’s All Purpose Simbolic Instruction Code) para principiantes.

Un programa de éstos consiste en un escrito en lenguaje de programa o sea en un conjunto de signos que pueden ser procesados. Hay tres tipos: lenguaje de máquina: ls y Os. Lenguaje de bajo nivel: emplea palabras cortas y números que son trasladados a Os y ls. Lenguaje de alto nivel, que recuerda el inglés. Estos programas son traducidos a sub-programas en leng1wje de máquina por “compiladores” o “intérpretes” para que el computador los ejecute. (Machine language: lenguaje en código binario que el computador entiende).

Los programas de lA son especiales y conocidos como lenguaje de procesamiento de símbolos o lenguajes de programación. El más prominente y usado en U.S.A. es el LISP (iist procesor) dejo McCarthy que desde 1958 ha continuado desarrollándose indefinidamente, (workstation).

El POP-2 es de la universidad de Edimburgo. PROLOG (Programming in Logic) de la U. de Marsella; oficial en el Japón para el proyecto de V generación y además muy popular en Europa. SAIL (Stanford Al Laboratory). SMALLTALK de Xerox Parco

Una cuarta definición de lA se encuentra en la tecnología para la V generación del computador y dice así: (26)”lA en términos simplificados es la rama de la ciencia que trata de métodos de cotejo de modelos que intentan descubrir objetos, eventos o procesos en términos de sus rasgos cualitativos y relaciones lógicas y computacionales”. Si bien es cierto que los computadores pueden almacenar en gran cantidad esos datos, no descubren interrelaciones ni captan cualidades o aspectos sutiles que den significados concretos.

El debate sobre esencia de la lA es difícil de resolver. Si recordamos la definición de Rich cuando dice que la lA estudia lo que “el cerebro hace mejor por el momento”, vemos que establece un contenido condicionado a una meta imprecisa y prescindiría de unas nociones básicas y útiles por lo que no estoy de acuerdo con ella. Me parece que es más aceptable tratar de identificar las áreas de investigación de los que trabajan en lA, con lo que sí se contribuiría a su evolución progresista.

Roger Schank de Yale University enfatiza el hecho de que la lA está en un constante estado de cambio por lo que propone que se entienda como una evolución programada y no como una revolución. Otro ingrediente de la lA complementario del de los símbolos es el referente a conocimiento, lo mismo que para la IH.

Se le divide en dos clases a saber: “declarativo”, que es cuantitativo y se refiere a objetos, eventos, y sus interrelaciones. Y “procedimental”: cómo hacer, cómo emplear, cómo representar. En el Handbook of Al (27) se dice que “no hay teoría de representación del conocimiento” sino que apenas se está trabajando con cierto éxito en este sentido en esquemas como el de PROLOG consistente en sistemas simbólicos de matemática lógica, cómo razonar y deducir y varias formas de cálculo que permiten inferir si es verdadero o falso; en suma el uso formal de la lógica para representar conocimiento.

También puede haber representación gráfica por “redes semánticas” en donde actos relatados representados por “‘1Udos” son conectados por “lazos” de unión para integrar una red que simplifique el proceso de deducción. Este procedimiento es empleado en los programas de “Expertos”. Estos dos sistemas acabados de mencionar son de orientación hacia los objetos.

Pero si se trata de representar acción hay los “sistemas de producción” que emplean reglas o patrones de procedimientos múltiples para situaciones específicas, de tipo heurístico con una cláusula condición y una cláusula acción. (Ejemplo elemental: si la probabilidad de lluvia es de más de un 50%, lleve paraguas) (28).

Búsqueda: para resolver un problema se pueden buscar varias alternativas que tengan inicio y meta (heurística) y vías intermedias cuya investigación se intenta definir por lA. Hay varias técnicas de búsqueda de acuerdo a la naturaleza del problema: extensión o profundidad, hacia adelante o hacia atrás; podando el árbol, etc. No olvidemos que la capacidad para resolver problemas en IH se basa en dos soportes: conocimientos y habilidad para razonar.

Es interesante también conocer las áreas de investigación más importantes que han sido programadas en lA, suscintamente presentadas:

1. Sistemas de “Expertos”, de los que me ocupé en la primera parte.

2. Procesamiento de lenguas naturales que comprende su entendimiento por investigación de métodos que permitan al computador comprender instrucciones dadas en inglés hablado.

3. Visión computada: que el compucador entienda lo que está mirando, identifique el ambiente y así pueda interpretar la máquina.

4. Robótica: la Asociación de Industrias Robóticas da esta definición de Robot: “es un manipulador reprogramable multifuncional designado para mover material, partes, herramientas o diseños especializados mediante movimientos variables programados para la ejecución de múltiples tareas”.

La meta de los investigadores es diseñar robots que puedan cambiar sus acciones basados en los ambientes, es decir inteligentes que incluyan alguna especie de aparato sensor que permita responder a los cambios en el ambiente en lugar de seguir instrucciones amencialmente.

5. Instrucción y Educación por computadores inteligentes como tutores particulares. En el MIT, Seymort Papert en asocio del renombrado psicólogo suizo Jean Piaget crearon el programa de ambientación para niños LOGO. Alex Berstein, participante en Darmouth y entusiasta ajedrecista, desarrolló para la IBM un programa de ajedrez, hecho importante en la historia de la lA porque empleó técnicas heurísticas para buscar los mejores movimientos con éxito.

6. Programación automática. Programar un computador requiere mucho tiempo porqup exige diseño, escritura, pruebas, corrección y evaluación. Se investiga la probabilidad de autoprogramación de acuerdo
con las especificaciones de un programador.

7. Planeación y soporte en decisiones. Especialmente en negocios para no confiar todo a la buena de Dios se requiere un plan formal y detallado con la máxima información disponible especialmente para administradores y gerentes con responsabilidades decisorias.

De éstas hay 3 áreas de investigación dirigidas directamente a amplificar nuestras habilidades para oír, ver y moverse que son: 1. Reconocimiento de lenguaje; 2. Visión computada; y 3. Robótica.

El reconocimiento de lenguaJ’e se subdivide en dos: a) reconocimiento y comprensión del lenguaje hablado y b) generación de lenguaje. Es posible entender el significado de una frase hablada sin tener que reconocer todas las palabras.

La clave difícil es decidir qué es lo que toca decir y es lo que hace parte del proceso de reconocimiento y comprensión que pertenecen a la lA; la generación no porque se la considera tecnología común. Encabezan la lista de las indicaciones, las de orden clínico como Historiales clínicos, servicios para inválidos, etc.

La investigación sobre este lenguaje natural es conducida por MIT y CMU, entidades que han dicho: es improbable con el sistema actual que un amplio dominio de vocabulario independiente pueda ser desarrollado en un futuro cercano. Dato curioso: el idioma inglés cuenta con 10.000 sílabas para convertir en señales electrónicas; el japonés sólo 500 sílabas, con las cuales todas las palabras están construidas, hecho que se tuvo en cuenta para el proyecto de la V generación.

Visión cumputa.da. Las ondas luminosas pueden ser transformadas en señales electrónicas por una cámara que “digitaliza” las imágenes (transporta de análogo a digital). Motivo de investigación es procesar estas imágenes inteligentemente de tal manera que puedan ser entendidas por un computador; constituye un desafío para la lA.

Una cámara estereoscópica dá las nociones de color, profundidad, textura y movimiento, pero ¿entender la imagen visual? Varias técnicas son motivo de investigación (como la de identificar rebordes y líneas) en ambientes concretos y específicos, por ejemplo aviones en el espacio, calles y casas, navegación militar, inspección y pruebas para robots, lectura en voz alta, mapas de aerofotos, imágenes de ¡¡atélites, etc.

Robótica. Es de las tecnologías de lA la más avanzada en implementación y aplicaciones, especialmente para la industria. Se admite que en esto el Japón aventaja a los EE. UU. También en Medicina Preventiva puede ser de gran utilidad para aliviar sobrecarga laboral en trabajos como soldadura en gran escala o en ambientes hostiles.

Los robots inteligentes son programables lo que les permite entender su ambiente y actuar apropiadamente en repuesta a variables situaciones externas mediante censores de contacto o visuales; éstos últimos pudiendo ser programados por ejemplo para reconocer un limitado número de objetos o detectar uno extraño; o seleccionar partes, realizar acabados, reunir productos pudiendo desplazarse autónomamente.

Planteamientos finales. El Journal of Science and Technology, (29) Junio de 1986 en su sección de lA, publica un centelleante trabajo sobre los nuevos computadores inspirados en las últimas teorías sobre cómo el cerebro humano procesa la información (sexta generación). Su título es “Computers that come awfully close to think ing”.

Con el subtítulo: “Mediante remedo de neuronas crean sus propias soluciones a los problemas”, se informa sobre la construcción del minicomputador denominado “computador de enrejado neural” con circuitos modelados siguiendo las complejas inrerconexiones observables entre las neuronas del cerebro.

Cita varios ejemplos que comienzan con Terence J. Sejnoesky, profesor de Biofísica en John Hopkins University y sus asociados quienes han ideado y construido un miniequipo que para presentarlo lo asimilan a un diminuto cerebrode caracol con sólo 200 elementos microprocesadores o “neuronas simuladas” que forman un conjunto que puede leer en voz alta, interpretar imágenes o convertir habla en texto.

En otros centros de investigación de tiempo completo en lA reportan similitudes. Un computador denominado Wisard aprende a reconocer imágenes “igual que lo hacen las gentes”, inclusive la de su propio inventor. Otro computador aprende a hablar por su cuenta, nadie lo programa, solamente le corrigen los errores. Estos y muchos otros ejemplos han ido convenciendo a los investigadores en lA de que “pronto” será posible construir máquinas verdaderamente inteligentes.

Lo que distingue los sistemas de red neural es el cambio radical en la estructura interior del computador convencional de Von Newman, noción que yo ya había mencionado en la primera parte de este trabajo y que ha tenido opositores de la más alta jerarquía como relataremos más adelante.

En efecto la red neural tiene en cuenta esta ley de neurofisiología cerebral: cuando una neurona en virtud de un estímulo “enciende” en el cerebro, propaga su señal a miles de otras neuronas, las cuales a su turno alertan a millones más; y en una fracción de segundo áreas completas del cerebro se encuentran involucradas, proceso que se sucede por todas partes.

Muy conocido es que este órgano posee un estimativo de 20.000 neuronas por mm3 de sustancia gris y más de mil veces esta cantidad en interconexiones. En contraste la máquina TR W tiene solamente 250.000 microprocesadores y 5.5 millones de interconexiones. Pero es que ésto es sólo el comienzo dice Hecht-Nielsen, director de TRW Artificial Intelligence, porque ya está diseñado el modelo con 100.000.000 de elementos microprocesadores.

Además anota que la clave reside en el diseño de las interconexiones entre los procesadores, más que en su número aun cuando nadie todavía ha podido explicar cómo un alambrado puede crear una conducta organizada. Sin embargo John Seelly Brown, director de Sistemas Inteligentesde la Xerox cree que es algo que emerge de las interacciones locales entre este increíble por lo numeroso conjunto de componentes interconectados.

“De alguna manera importantes propiedades computacionales surgen espontáneamente” dice John Hopfield, profesor de Biología y Química en Caltech, considerado como la máxima autoridad actual en “computadores neurales”.

Ahora lo subversivo. En el año de 1969 Marvin L. Minsky, profesor de ciencias de computador en el MIT de Harvard escribió un libro para encadenar la idea del neurobiólogo Rosemblat, de Cornell, quien había ideado en 1957 un diseño de neurona que llamó “Perceptrón”.

Sin embargo Hopfield, acabado de citar, como miembro de la Academia Nacional de Ciencias de U.S.A. publicó en 1982 su famoso trabajo sobre “alambrados neurales” que desencadenó aquella desechada idea y despertó nuevamente el interés de un 80%de los investigadores de tiempo completo en lA.

Pero el propio Minsky continúa escéptico arguyendo entre otras cosas que muy poco se conoce sobre cómo el cerebro humano trabaja para pretender utilizarlo como modelo de arquitectura. En el escepticismo lo acompaña Dreyfuss (30). Hecht-Nielsen replica a su turno diciendo que no importa tanto que el mecanismo de las máquinas se asemeje al cerebro, sino lo que verdaderamente se necesita es que a “esos modelos teóricos se les pueda probar matemáticamente que tienen capacidad para procesar información interesante”.

Feldman, (32) profesor en Rochester Un. N.Y. escribe que son innegables los progresos de la lA en algunos problemas específicos pero que las cuestiones generales de inteligencia han sido escasamente esclarecidas a pesar de contar a su favor la velocidad de los modernos computadores que es del orden de 1.000.000 de veces mayor que la velocidad de descarga de la neurona que es del orden de 1 milisegundo.

Y comenta: por ejemplo si se pidiera la opinión sobre una obra pictórica conocida o decidir si un nombre es de procedencia inglesa o no, el cerebro respondería correctamente en unos pocos milisegundos a estos problemas de visión y lenguaje (alrededor de unos 100 pasos), mientras que un computador de lA requeriría millones de pasos computacionales porque trabaja en secuencias, como ya se ha explicado, ejecutando una instrucción cada vez solamente; yen cambio el cerebro trabaja en paralelas dejando el interrogante de cuáles son los algoritmos que emplea tan masivamente este órgano.

Descubrir ésto es lo que se persigue para los modelos neurales de computador VI generación en perspectiva por trabajo en colaboración con investigadores de la neurofisiología y de la ciencia del comportamiento.

Un inicio de respuesta reside en que al observar el contraste entre un tope de 100 pasos del cerebro contra 1.000.000 del computador, se puede concluir que la clave tiene que residir en las interconexiones que se estiman en 10.000 por neurona. En resumen: paralelismo y conexionismo representan hasta el momento las funciones claves aplicables a un modelo “neural” de LA.

Aun cuando la mayor parte de las nuevas investigaciones están aún en los laboratorios, los investigadores del “alambrado neural” insisten en que “atormentadores destellos de una nueva edad en la ciencia de los computadores está ya emergiendo”.

“La habilidad para cotejar muchas situaciones, se considera la clave del entendimiento de la visión y del lenguaje por ejemplo. Es también digno de anotar que dada la naturaleza cooperativa de las redes neurales, ellas pueden continuar funcionando aún después que un 15% de los procesadores se hayan dañado o hecho inefectivos, realidad destacable no sólo por su utilidad para resolver ciertos problemas como el de las fallas en los controles de los vehículos espaciales, sino porque disminuye en una las varias diferencias anotadas en mi primera parte entre cerebro y computador.

Nadie ha sugerido que una red neural de investigación sea siquiera remotamente próxima réplica del cerebro humano, pero tampoco los investigadores descartan tal posibilidad para mediados del siglo XXI. “Alguna forma de genuina inteligencia de silicón es inevitable”, según AlIan Newel, profesor de ciencia de computadores en Cannergie-Mellon University.

Para finalizar en esta ocasión me acompaño de Gunther Palm (33) investigador del Instituto alemán Max Planck en la introducción de su obra “Neural Assemblies”. Una alternativa para la inteligencia artificial”. Se expresa así: “Cuando me preguntan mi profesión tengo dos respuestas: si yo quiero una discusión corta digo que soy matemático y si deseo una prolongada, digo que trato de entender cómo trabaja el cerebro”.

Bibliografia Consultada

1 Understanding Artificial Intelligence. Henry Minskoff. Texas Inc. DalIas. 1985.
2 Bar, Avron and Feigenbauma, Edward A. The Handbook of Artificial Intelligence. Los Altos CA. 1982.
3 Brattle Research Corp. Artificial Intellig. Computer Software. Cambridge, 1985.
4a Guilbaud G.T. La Cibernética. Vergara Editorial. Barcelona, 1956.
4b Ritchie David. The Binary Brain. Little Brown. 1984. Boston.
5 Rose Franf. Into the Heart of the Mind. Harper Row. New York. 1984.
6 Feigenbaum, Edward A., McCorduck, Pamela. The Fifth Generation. New York. 1984.
7 Proceedings ot the International Conf. on Fifht Generation Computer Systems, New York. Elsevier-North Holland. 1982.
8 Warner .lean Dominique. Computer and Human Intelligence. A Reston book. 1986.
9 Estes W.K. ¿Where is Intelligence? Harvard Un. pag 68-66. 1986.
10 Anastasi Anne. Intelligence as a Quality of Behavior. pag. 19-21 What is Intelligence. Abble I’ublishing Co. Norwood. New Jersey. 1986.
11 Fair Charles. “The Physical Foundations of the Psyche”. Wesleyan University Press. Middletown. Conn. 1968.
12 Vigoret J.M. Neurotransmisores. Sandoz Lab. 1988.
13 Sandoz Lab. S.A. Neurotransmisión y Enfermedades Psíquicas. 1988.
14 Kandel Eric R. Eelular Basis of Behavior. pag. 341-42. W.H. Freeman & Co. San Francisco. 1976.
15 Eccles J.C. The Synapse: From Electric to Chemical Transmisiono 1985.
16 Frontiers in Neurology. Ann. Rev. Neuroscience. 1982. Un. of Toronto.
17 Sigvald Refsum and Jan Mohr. Genetic Aspects of Neurology. Baker’s Clinical Neurology. T. IV. 65. 1984.
18 Kidder Tracy. The Soul of a New Machine. Little Brown and Co. Boston. 1981.
19 Ronald J. Lukas. Current Perspectives on Developmental Neurobiology. BNI Quarterly. pag. 8-11. 1985.
20 Stemberg Robert J. Ditterman Douglas. ¿What is Intelligence? Contemporary New Points. Abblex P/C. Norwood. N.J. 1986.
21 Eysenck Hans. ¿Is Intelligence? pag. 69-71. Abblex. 1986.
22 Jensen A.R. Reaction Time and Psychometric. Springer.New York. 1982.
23 Eysenck y Barret, Psychofhisiology and the Measure of Intelligence. Reynolds & Wilson Eds. New York. 1985.
24 Rich Elaine. Artificial Intelligence. New York. McGraw Hill. 1983.
25 Buchanan Bruce. Toward Machine that Think. Encyclopedia Británica. YB. 1985.
26 Proceedings of the International Conference on fifth generation computer systems.
27 Handbook of Artificial Intelligence. pag. 165. 1985.
28 Edward A., Feigenbaumn and Julian Feldman. Computer and Thougt. pago 169-75. New York. McGraw Hill. 1968-
29 Minsky Marvin. Computation, Finite and Infinite Machines. Englewoods Cliffs. N. N.,]. 1967.
30 Dreyfuss Hubert. Mind over Machine. The Free Press. New York. 1986.
31 Somjen George G. Neurofisiología. Edit. Médica. 1986. B. Aires.
32 Feldman Jerome A. Connections. Massive Parallelism in Natural and Artificial Intelligence. Byte. 227. IV. 1985.
33 Palm Gunther. Neural Assemblies. Una alternativa para la Inteligencia Artificial. Springer Verlag. 1982.
34 Basic Neurophysiology. Beverly Bishop. Excerpta Medica Co. New York. 1982.
35 Port Otis. Computers that come airfully close to thinking. Science & Technology. Artificial Intelligence. Junio 1986.

CLIC AQUÍ Y DÉJANOS TU COMENTARIO

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *