Inteligencia Artificial y Neurología (IV parte)

Dr. Mario Camacho Pinto. Académico de número.
Mayo de 1987

Por ahora esta parte es la última sobre IA y N. Está dirigida a informar sobre el tema del funcionamiento del cerebro en lo aplicable a su posible simulación y utilización para dispositivos de lA en un afortunado encuentro de la ciencia y la tecnología como prospección actualmente aceptable para la mayoría de los investí adores en Neurofisiología, Neurobiología y Bioingeniería.

MEDICINA es una publicación periódica de información y comunicación para el médico colombiano esencialmente, nutrida por aportes al conocimiento y estudio de los más diversos problemas médicos a nivel individual o institucional, local o general como los atinentes a salubridad; que quiere propiciar y estimular la investigación a nuestro nivel en su sección científica, sin que también lo quiera realizar en cuanto se refiera a la integración de un sano criterio en la formación de profesionales ética y culturalmente maduros como ha sido lo tradicional en este país y se alienta y dignifica en la sección letras.

La finalidad o propósito de este trabajo conjunto que me he impuesto ha sido esencialmente de información y creación de inquietud sobre un tema poco trajinado entre nosotros. El sendero que yo me había trazado y que me he esforzado por desarrollar útilmente correspondía al enfoque clásico de intento de simular electrónicamente los mecanismos del cerebro.

Pero muy recientemente han aparecido cambios radicales que debo seguir y tratar aquí para conservar actualidad.

Por otra parte siguiendo a Kent cuando llegué a la consideración del complejo problema de la extrapolación en el más alto nivel de las funciones superiores -agudizado por la especialización hemisférica del cerebro- empecé a vislumbrar con su enfoque menos optimistamente el panorama y a ver más claramente la limitación que establece el distanciamiento entre el cerebro y la máquina para un comportamiento racional de ésta integrado por criterios de juicio en solución de problemas, elección de la mejor posibilidad, prospección creativa, etc.

Para lo cual no existen algoritmos capaces y la solución heurística es cabalística, imprecisa y caótica en este aspecto.

Si el análisis es insuficiente, la síntesis será inadecuada y la conclusión un error. Por esto encuentro tan acertado el giro norteamericano de la LA. hacia el computador neural de progresiva utilización de mecanismos imitados del funcionamiento del cerebro humano usándolos a medida que se vayan conociendo lo suficiente para adaptarlos a una extrapolación funcional.

De manera que al llegar al punto crítico Kentiano desviaré por la nueva ruta, (transitoriamente) entre tanto la intensiva investigación ortodoxa mundial proseguirá sin desmayo en multitud de centros super especializados en inteligencia artificial. (Lea también: Neoplasia Masiva, Canceres e Hipoglicemia)

En tales condiciones el contenido de esta IV parte queda modificado así:

1. Kent hasta el punto crítico según mi concepto.
2. Implementación de sistemas neurales artificiales que comprende:
a) Captación neural (catching in neural).
b) Conexionismo (al cual he aludido en 1. II y lII).
c) Computación neural.
d) Simulación de aprendizaje en el computador neural.
e) Modelos de computación en circuitos neurales. (Ver III).
f) Redes ópticas y neurales (primicia), computador híbrido.
3. Consideraciones finales.

Kent hablando de sistemas artificiales (3) dice que es sorprendente la similitud en varios procesos de funcionamiento de memorias del cerebro y las varias y bien conocidas formas de almacenamiento en los computadores actuales.

Hace énfasis en la similitud de la memoria sensorial con un “cerrojo” de input y entre el almacenamiento verbal a corto plazo y una registradora. La memoria a largo plazo con su naturaleza permanente, tiempo más largo de atención, organización categorial y necesidad de retorno vía memoria de corto plazo es muy parecida a un diseño de archivo de almacenamiento tal como un disco.

Obviamente algunas de las propiedades de las memorias del cerebro no son análogas a las contrapartes comunes del mundo del computador; algunas de ellas merecen ser examinadas como procesos potencialmente interesantes para simulación electrónica.

La primera de éstas la constituye el proceso de atención destinado a seleccionar qué información de la memoria sensorial será transformada a la modalidad de almacenamiento a corto plazo. Esta función en un programa tradicional de computador tendría que construirse dentro de la máquina, programarse; tendría que saber qué se está buscando, cuándo y qué hay para examinar.

Se ha señalado la similitud entre el sistema del cerebro para buscar su objetivo y el propósito de un programa tradicional. También se anota la próxima relación entre la función de atención y el sistema que dirige la meta hacia el objetivo en cuanto se refiere a la dirección de los altos procesos y las operancias de los sistemas perceptuales.

La atención aseguraría que el material relevante sea retenido. Parece que en ésta instancia también la función de atención actúa como un mediador entre los sistemas que especifican metas generales para el organismo y los sistemas que ejecutan funciones en la consecución de esas metas.

En las máquinas diseñadas para el futuro necesitaremos la capacidad para especificar metas generales aptas para decidir por sí mismas qué vale la pena procesar más y más, que den habilidad sensorial para recibir grandes cantidades de datos ambientales rápidamente, que afrontarán los mismos problemas que el cerebro en el escoger qué almacenar y qué operar y qué dejar pasar inadvertidamente, y como esto no se podrá determinar de antemano, se tendrá que acudir al proceso de atención ya mencionado.

Es de anotar el proceso de asociación para recordar por semejanzas lo que no sería muy difícil de simular en un sistema artificial.

Otra potencial e interesante consideración es la aplicación de la arquitectura paralela a la búsqueda de memorias, aunque los mecanismos de almacenamiento a largo plazo ya actúen como organizados en una red semántica de arquitectura también paralela que los habilita para trabajar en esta forma -moviéndose simultáneamente a través de gran número de ramas de un árbol o red.

Simplemente cambiando las reglas para codificar, labor no tan fácil cuando el material sea abstracto. En ésta mira el proceso de búsqueda sería análogo al de extracción de rasgos en el cual un gran trabajo decodificado es manifestado en pocos pasos. La diferencia estaría en que el asunto no residiría en un sólo nudo sino en un código distribuido en muchos nudos.

Funciones lógicas. Incluyen la construcción de un modelo perceptual del mundo con algunas aplicaciones de lenguaje simbólico y la organización de ciertos procesos lógicos. La exploración se dificulta por escaséz de datos porque para el cerebro humano los obtenibles son inferidos por análisis y dependen de los casos de enfermedad o de lesiones, es decir de historiales clínicos a veces deficientes.

Además si hay un daño cerebral no está restringido a zonas o áreas anatómicas topográficas, las definiciones son variables y los puntos decisivos son frecuentemente omitidos. El problema principal es la complejidad de las funciones: no sabemos con precisión qué buscamos y tendemos a ver las cosas en términos de nuestros preconceptos.

De la misma manera somos proclives a enfocar el funcionamiento del cerebro por unos patrones preconcebidos construidos por experiencias subjetivas, por observación de nuestros procesos internos u objetivamente por observación de los actos de los demás.

Existen las experiencias de funcionamiento global que podrían obtenerse en el alambrado de un computador que simulara las diferentes funciones distribuibIes en múltiples sistemas con un terminal de output. Es de advertir que los síntomas en caso de disfunción pueden o no depender directamente de un daño local del alambrado pero no existe un método directo de verificación.

Se estaría imitando a los psicólogos cognoscitivos que con frecuencia acuden al análisis de la función global del proceso del pensamiento humano y piensan que lo interesante es la descripción funcional adecuada de la actividad mental. Con la diferencia de que esencialmente ellos buscan la descripción del software de la mente, más bien que la función cerebral.

Kent enfoca las altas funciones del cerebro con el objetivo de describir unidades de procesamiento neural y en qué forma son empleadas por el cerebro para producir varios y unitarios procesos intelectuales (formidable tarea) lo que ha creado expectativa.

Su punto de partida son las funciones asignadas a la encrucijada parietotemporo- occipital en donde aprecia dos niveles de operación a saber: uno de experiencia inmediata en el cual un modelo de la realidad externa es sintetizado como producto de las sensopercepciones.

Otro del empleo de los mismos mecanismos neurales para manipular la información simbólica. De acuerdo con esta visión, la lógica de las relaciones entre los objetos físicos y el mundo sería aprendida por el cerebro y empleada para el trato con el mundo exterior.

En el intento de emplear la manipulación de símbolos la relación de sentido común entre los objetos físicos podrían utilizarse en un código mayor de nivel abstracto. Este nivel natural de funcionamiento cubriría la mayor parte del pensamiento lógico que no estuviese comprometido en la aplicación de sistemas lógicos formales que requerirían aprendizaje adicional de nuevas reglas.

A continuación se consideran algunos métodos que emplea el cerebro para sintetizar un modelo del mundo exterior. “En nuestra experiencia subjetiva el mundo se nos presenta como un grupo de objetos que ocupan espacio y tienen una variedad de propiedades y relaciones que resultan en experiencias sensoriales de toda clase”.

Ninguno de nuestros sentidos está habilitado para el proceso unificador de lo actual con las pasadas experiencias pues lo perceptual se nos presenta como un hecho a menos que tengamos una lesión en el lóbulo parietal.

El flujo de información incluye intercambio a otras funciones cerebrales, quiero decir de la percepción primaria a la secundaria: los inputs diversificados son sintetizados y localmente enviados al resto del cerebro.

La visión es el ejemplo que nos permite observar daños que no producen pérdida de esta sino déficits o falla para reconocer objetos aun cuando los pueda diferenciar del conjunto. Se supone que la localización y la identificación de las percepciones visuales son complementarias actuando en procesos separados. Sus daños no alteran el proceso general intelectual ni otras modalidades perceptuales.

En algunos casos hay inhabilidad para codificar memoria visual lo que tampoco interfiere el proceso de memoria general: se puede copiar un retrato mirando el original pero no memorizándolo. Recordemos que el sistema visual principal analiza y categoriza el contenido del espacio visual, y su lesión elimina la habilidad para percibir relaciones espaciales entre objetos conservando la discriminación; y la accesoria analiza la localización global en el espacio y su lesión dificulta seriamente el reconocimiento de patrones y objetos (18).

Consideraciones similares pueden hacerse para los sentidos de oído y tacto (mutatis mutandi). En las áreas táctiles secundarias se observan fallas como la de palpar un objeto y no poder decir qué es, el inverso de las áreas visuales.

También existen fallas de apreciación del esquema corporal. Un daño en la zona auditiva primaria no resulta en sordera sino en carencia de análisis auditivo. Recordemos también que el sistema auditivo es seriado y el táctil y visual son paralelos: el auditivo es un analizador secuencial que requiere almacenar brevemente para categorizar más rápidamente.

Uno de los ejemplos más importantes está en los “fonemas” equivalentes de los objetos en lo visual y táctil (fonemas que son diferentes de un idioma a otro). El daño en la corteza auditiva primaria impide reconocer estos fonemas y efectuar otras discriminaciones que estorban la percepción del orden temporal de los estímulos. En las áreas secundarias se pierde la capacidad de entender significados.

Un punto filogenético importante es la habilidad para transmitir información de una modalidad a otra, ejemplo: ver la situación de un objeto y luego recogerlo con los ojos cerrados.

Esta abstracción es propia del humano mediante la cual llega así al símbolo cuya base física es la interconexión entre las áreas sensoriales secundarias: al seccionar estas conexiones desaparece esa función. Largo tiempo se ha requerido en la infancia para aprender a relacionar el tacto con la visión.

El modelo integrado del mundo en el panorama kentiano infiere que la relación espacial es una cualidad perceptual abstracta que está presente o ausente como una adición paralela para arreglar los elementos neurales cuya actividad codifica el objeto.

Muy importante es que esa relación espacial implica un espacio perceptual dentro del cual el observador puede moverse sin que el objeto se desplace. La relación no es una propiedad de los objetos sino un modelo del mundo el cual los contiene como figuras.

Este tipo de análisis perceptual es imperativo para todos los altos procesos que envuelvan interacción racional con el ambiente. Para rodear un obstáculo se necesita una comprensión del espacio circundante y de la relación entre objeto y organismo.

La mayor parte de los diseños de robots sencillos tienen alguna habilidad para maniobrar en el ambiente y alojar estímulos así como sus fuentes de poder disponer de algoritmos simples para resolver obstrucciones. Generalmente estos envuelven el proceso de prueba y error por movimientos laterales y de reverso mientras que el diseño continúa por feed-back, procediendo como los organismos rudimentarios.

Una razón que hace difícil el esquema de una respuesta racional más avanzada para el robot es que esa conducta necesitaría un modelo sofisticado de percepción de las relaciones espaciales que sólo podría provenir de un análisis del input.

Es difícil hablar de razonamiento cuando se confronta un obstáculo. Uno de los puntos que habría que desarrollar para solucionar el problema sería el de que la relación espacial forme el substrato fundamental del cual toda relación lógica estática proceda.

En el cerebro vemos que el área central parietal está estratégicamente situada para recibir información analítica procesada y este papel se evidencia cuando estudiamos clínicamente las alteraciones que produce su lesión que se pueden resumir diciendo que se trata de la integración final de la percepción.

Si se aceptara este planteamiento de modelo del mundo varios principios devendrían relevantes para el diseño de sistemas artificiales. Primero: el de adición de estados sucesivos de análisis agregado a un código perceptual en paralelo.

Para codificar los rasgos crudos táctiles o visuales se añadirían dos líneas de análisis: una para identificación y otra para localización en el momento y modalidad relativas al observador con análisis primitivo básico empleable para el más refinado en relación con el objeto como en los cerebros simples.

En el niño esto es hecho mediante el proceso de aprendizaje, en un sistema artificial sería a priori. El siguiente paso sería la definición del marco espacial continente que es diferente del sistema perceptivo y que hace referencia no al organismo sino al medio ambiente.

La posición relativa de organismo y ambiente sería de interacción y así se codificaría lista para utilizar en caso de acción racional. Se constituiría en esta forma un código o mapa de procesamiento lógico equivalente a un autoconcepto, especie de factor abstracto, para planear futuras operaciones. En los sistemas artificiales se podría inferir la posibilidad de una localización espacial y contaría de inmediato con un código perceptual para el objeto.

Extrapolación para Robot. Como complemento pragmático de estas apreciaciones complementarias a las hechas sobre este mismo tópico en la parte 111, presento el análisis que Niznik y Newcomb hacen de las estructuras de los sistemas motor visual y sensorial en cuanto a hardware y software para robot se refiere (9).

Hasta hace poco los sistemas robóticos estuvieron compuestos principalmente de funciones mecánicas conectadas con el propósito de realizar formas específicas de automatismo. Un plan conjunto de arquitectura computacional se proyecta aquí ahora para investigar óptima y eficientemente la imitación de las funciones del sistema nervioso humano con destino al robot.

Esa magna estructura es una gran interred de nudos de compuerta que controlan los cuerpos celulares interconectados. Los convencionales sistemas han sido primitivos. Ahora requieren para su desarrollo un control que simule importantes funciones intelectuales del sistema nervioso, que chequié motilidad mecánica y funciones sensoriales.

Esta estructura de control necesitaría tres “autómatas”: 1. de aprendizaje por visualización y copia del ambiente exterior para toma de decisiones y conducta; 2. de interconexiones; 3. control automático de extremidades proximales, manos y dedos.

Esto requiere la interconexión de muchos microprocesadores por un sistema de cerebro control dentro de una multirred. La implementación de hardware operaría entre microprocesadores y células de tipo neural, y lazos de unión entre fibras ópticas, dendritas y axones.

Los aspectos probalísticos de conexiones entre los microprocesadores serían realizados por centros de control como los del sistema nervioso humano localizados en donde el mayor número de axones y/o dendritas entren y salgan de los cuerpos neuronales. Las medidas de tiempo real en el sistema robóticos de hardware y software serían controladas matemáticamente.

En visión por ejemplo el objetivo de estos dos componentes es imitar el sistema nervioso de los mamíferos por lo cual hemos mostrado atrás algo del análisis de la visión del cerebro humano; e igualmente lo hicimos para el sistema auditivo, tacto. sistema motor y función kinestésica.

En el robot el sendero funcional debe ser entre la corteza visual en el circuito cerebral y los dedos en la mano porque el objetivo es conseguir precisión en la coordinación de las conexiones y la sincronización del computador robótico entre la visión y las extremidades: en las superiores la dextresa manual, en las inferiores la marcha.

La formalización de esta teoría es de suponer que constituye el motivo de estudio y aplicación en el proyecto japonés del robot inteligente.

Me queda por decir algo sobre plasticidad en el SNC (14), función que puede describirse como la capacidad de los circuitos neurales para aprender en caso de un cambio en sus interrelaciones.

Esta habilidad del tejido neural humano y especial de cerebro para cambiar su respuesta ante la estimulación y para reservarse funcionalmente está latente como reminiscencia de la experiencia pasada, almacenada en las células de Betz y Golgi del cerebro y Purkinge del cerebelo, en el intervalo del proceso de “cuantización” de los parámetros del software y su correspondiente hardware.

Un gran número de potenciales de acción pueden o no desencadenar la capacidad de la neurona para aprender, aptitud que puede ser desarrollada según esta teoría por el número de potenciales de acción. Este tema nos fue presentado ampliamente por el Profesor Paúl Bach-y-Rita en la Academia Nacional de Medicina en Conferencia memorable (14).

Por otra parte la práctica del cerebro de hacer adiciones al código perceptual cuando quiera que una nueva cualidad es abstraída, no significa que una estancia analítica esté asociada a lo que el código total representa.

En cambio cuando los procesadores perceptuales alcanzan un punto en el cual las relaciones temporales y espaciales son abstraídas como cualidades perceptuales, esas relaciones en tiempo y espacio aparecen como cualidades abstractas de objetos.

El desarrollo de esta actualidad abstracta de relacionismo prepara el camino para el desarrollo de las operaciones lógicas simbólicas. La forma como aprendemos es por la asociación del objeto verbal escuchado a otro visual-táctil espacialmente definido.

Cuando consideramos las propiedades que la corteza parietal central está extrayendo en su análisis de las relaciones espaciales de los objetos en el mundo físico, encontramos nociones tales como dirección, posición, simetría o asimetría, agrupamiento, etc.

La correspondencia entre objetos y palabras es de un nivel inferior al análisis perceptual de la relación espacial; la conexión entre palabras está basada en las relaciones espaciales y temporales de objetos y acciones, hecho que constituye la gramática en general.

En las lesiones del lóbulo parietal observamos pérdida de algunas funciones que son un eslabón importante en la cadena de la lógica simbólica. aspecto parcial del gran proceso del pensamiento. Existe alguna relación entre una entidad simbólica lógica y una combinación del mundo real.

La propia relación se establece entre el código y el objeto por prueba y error que es lo básico en el proceso de aprender a pensar en términos abstractos en la infancia. La hipótesis de Luria se fundamenta en la relación entre simbolismo verbal, habilidad matemática y el proceso subyacente de extracción espacial y temporal como abstracciones.

El procesamiento paralelo y la codificación de los rasgos paralelos son cualidades abstractas. Las estructuras subcorticales definen una dirección o un problema y las corticales responden con un análisis. Lo que interesa ahora es el proceso por el cual la acción racional es generada trazando así la vía sobre la base de aquel análisis, para llegar a la síntesis de las acciones y su ejecución.

Estas someras y obviamente incompletas lucubraciones dejan entrever un basto panorama para cuya simulación en sistemas artificiales necesitaría un hardware que estaría por diseñar y un software del cual apenas se barajan posibilidades de planteamiento.

Mencioné los sistemas que definen las metas del comportamiento racional y entre ellas está la “motivación”. Puede afirmarse que para hablar de una conducta racional debe perseguirse una finalidad razonable.

El término motivación comprende conceptos tales como emociones, instintos, necesidades, deseos, etc. En la mayoría de situaciones de computador estas metas son análogas al propósito de un programa implícito en su operación, raramente definidos en términos de hardware.

Esto quiere decir que el cerebro determina su propia conducta u objetivo ya sea por reflejo prealambrado o por aprendizaje, mientras que en el computador son construidas para aceptar pasivamente cualquier propósito que sea inherente al programa.

No hay una razón fundamental para decir que un robot no puede ser construido para operar como un cerebro natural en este aspecto. Hay muchas categorías de motivación pero sin duda la básica está representada bien sea por la búsqueda de placer, bien sea por eludir dolor.

Con asiento anatómico principal en el sistema límbico. El hipocampo o el mesencéfalo. La antigua pregunta de si una máquina es capaz de tener emociones se puede asociar a un mecanismo que detecte cierto tipo de situaciones y espere cierta categoría de respuesta y entonces la contestación es sí.

Al querer significar que tenga una experiencia subjetiva como la de miedo cuando está operando entonces es no.

Con respecto a la construcción de un mecanismo de robot. lo esencial no es la experiencia subjetiva lo que importaría es reconocer que el proceso no tenga estas experiencias como su meta, sino la de proveer cierto tipo especial de información relevante para aumentar el poder y eficacia de esas respuestas comportamentales hacia el ambiente.

Estos procesos serían tan esenciales para la acción eficiente en un cerebro robot como lo son en uno orgánico a pesar de que su operancia sea o no percibida como experiencia subjetiva.

Ahora, si consideramos el aspecto de los mecanismos de operancia del sistema motivacional vemos que hasta un cierto punto la motivación es análoga a un sistema interruptor en un computador y tiene una estructura prioritaria también aun cuando los sistemas de la motivación real sean más complejos que la estructura interruptora porque aquella no simplemente detecta condiciones y controla específicos programas de acción sino que además habilita clases de actividad y define tipos de estímulos hacia una meta parcial que puede ser variable pero con único resultado final predeterminado.

Este método de alcanzar una meta artificiosamente es más bien heurístico que algorítmico y constituye una de las más importantes diferencias entre un cerebro y un computador: en un proceso algorítmico una vez que la meta es asumida la secuencia de pasos ejecutada conduce a esa meta.

En un proceso heurístico el potencial resulta de diferentes vías de acción que son comparadas con la meta y aquello que se le aproxima es ejecutado; el proceso es continuado y puede reversarse cuando se descubra equivocación.

Los programas del juego electrónico de ajedrez son un buen ejemplo, allí no hay algoritmos para ganar un partido, sin embargo, sistemas heurísticos sencillos son implementados, ejemplo: cuando la luz entra en línea con el diseño hacia la dirección de movimiento, la fotocélula es activada (respuesta emocional) y la máquina impulsada hacia adelante (comportamiento motivado).

Los sistemas motivacional es tienen más funciones en los procesos lógicos complejos, como activación de propiedades (sustancia reticular activadora) y refuerzo de estímulos. Es de tener en cuenta el proceso que a nivel elemental de la motivación del cerebro y del sistema de premio puede dirigir la meta de las relaciones de input output del organismo.

Captación: Jorgensen y Matheus (4) comentan que una revaluación tranquila está ocurriendo en la comunidad de IA. Sorprendentemente envuelve investigación en redes neurales simuladas.

En primer lugar neurobiólogos, médicos y teóricos necesitan entender los procesos eléctricos, químicos y de crecimiento que ocurren en el cerebro normal y en la actividad del sistema nervioso desarrollados como un desenvolvimiento natural de las neurociencias en general y particularmente de la Neurofisiología, Farmacología y Biología molecular.

Entonces se conjugarían el computador y la información científica atraídos por los sistemas biológicos, en parte como un resultado de los pioneros trabajos de Shannon. Inicialmente se creyó que la máquina de Turing e IA eran una misma cosa, pero Von Newman estableció la diferencia.

Otros pensaron poder refundir aprendizaje y control, e investigadores de sistemas adaptativos creyeron en automodificación y en organización, pero la IA continuaba ligada a la cibernética con la ilusión del “Perceptron” del neurólogo Rosemblat hasta cuando se realizó que había un obstáculo insuperable para construir un hardware adecuado a más del rechazo de Minsky y Papert, hechos que ya detallamos atrás.

Entonces la Neurobiología recuperó el campo por un camino más abstracto de representación matemática al tiempo que simulaciones de computador.

En los últimos años los grandes avances en hardware como la noción de paralelismo masivo, computadores concurrentes y entendimiento y aceptación de propiedades emergentes en multidinarias redes conectadas al azar, han revivido la investigación.

Por ejemplo Hopfield como se verá más adelante, ha demostrado que procesos no lineares que incluyen descargas asincrónicas y conexiones simétricas en grandes redes, desarrollan propiedades emergentes (12) de organización dotada de capacidad para resolver algunos problemas matemáticos, lo que animó el posible aprovechamiento para otras aplicaciones.

Así hoy día las redes neurales nos pueden ofrecer estas posibilidades: resistencia del recuerdo de la información a la falla del hardware; balanceo automático de los aspectos positivos y negativos de la información; abstracción automática de datos; reconocimiento de pautas; representación de jerarquías; aprendizaje biológico adaptativo ante estímulo; captación en tiempo (audición) como en espacio (visión).

Que esas redes neurales actuales sean la mejor forma de resolver estos puntos, es cosa también que depende de otros factores que deben estudiarse y entenderse, lo cual se sale del marco de nuestro plan informativo.

Arquitecturas conexionistas para IA. Fahlman, Scott y Hinton (5) informan que la tecnología de IA puede hacer un buen trabajo simulando muchas de las más altas funciones superiores del hombre a pesar de que algunos de los aspectos fundamentales de la I humana son más que elusivos.

La lA según ellos puede equiparse a los mejores expertos en algunos pocos problemas técnicos; tal cual ingrediente de I pareciera faltar y nuestra tecnología de representación simbólica y la búsqueda heurística basada en los computadores seriados parece que no pueden cerrar la brecha.

Entre los elementos en déficit están los siguientes: la memoria humana puede almacenar gran cantidad y variedad de conocimientos y hallar los datos en sus depósitos muy rápidamente y sin esfuerzo.

El fenómeno que llamamos sentido común es complejo pero deriva en parte de la disponibilidad de un gran volumen de conocimientos surtidos acerca del mundo: las máquinas seriadas pueden almacenar la información pero es difícil hacerlas partícipes de sus actividades.

En reconocimiento de lenguaje, visión y algunas tareas de alto nivel como los diagnósticos médicos se ha logrado conseguir habilidad para escoger la mejor opción, pero el cerebro puede hacer eso mismo aún con datos distorsionados y falsas expectativas (4).

En otros casos los humanos parece que manejáramos información por métodos distintos de las aserciones simbólicas de la IA, con el tradicional enfoque para resolver problemas que reconoce, empleando siempre más complejas e inteligentes estrategias para reducir la actividad, la necesidad de excesiva búsqueda y engorrosa computación.

Ahora una alternativa sería la de resolver tales problemas con un ciclo menos complicado pero más intensivo usando millones de muy simples microprocesadores de gran escala de integración para obtener un trabajo en tiempo razonable.

Por ejemplo, un enfoque para interpretar el input visual es usar razonamiento inteligente en áreas restringidas, mediante arquitectura masiva paralela en lugar de una costosa técnica computacional convencional. Muchas de estas arquitecturas paralelas son conexionistas. ¿Qué es conexionismo? (5).

Henry Feldman acuñó este término para referirse al estudio de una cierta clase de arquitectura paralela masiva para lA. Un sistema conexionista usa un gran número de elementos de procesamiento simple o unidades cada una conectada a un cierto número de otras unidades del sistema.

Las unidades tienen poca información almacenada internamente; típicamente sólo unos pocos bits marcadores o una simple escala de nivel de actividad usados como una especie de memoria en trabajo a corto término.

La memoria a largo tiempo o almacenamiento es cumplido alterando la pauta de interconexiones entre las unidades, o modificando un factor denominado “peso” asociado con cada conexión. El uso de las conexiones, mejor que las células de memoria como medio principal de almacenar información motivó el nombre de conexionismo.

Las unidades de procesamiento paralelo en una red conexionista no siguen programas individuales. Las unidades son capaces de efectuar pocas acciones simples tales como aceptar señales de ingresos, realizar algún procesamiento aritmético o Booliano de datos y enviar señales sobre parte o totalidad de las conexiones.

Estas operaciones son completamente autónomas o pueden ser controladas por comando de radio o por un computador tradicional. Como todas las conexiones pueden llevar señales simultáneamente y todos los elementos de procesamiento pueden actuar en paralelo para integrar los datos que lleguen; un sistema conexionista aporta una gran cantidad de conocimiento llevado simultáneamente para una decisión y puede evaluar muchas escogencias de una vez.

Una diferencia importante entre el enfoque conexionista y el más convencional y modesto “paralelismo” en cuanto a la arquitectura para IA se refiere es que los conexionistas intentan asignar un elemento de procesamiento a cada pequeña subtarea y postulan que esto es suficiente para manejar la tarea completa.

El enfoque convencional asume que un número fijo de más grandes procesadores son necesarios y ensayan encontrar vías o modos de fragmentar el problema en muchas partes que pueden todas trabajar concurrentemente; en éste sistema cerrado el tiempo requerido para tamizar un finito conjunto de datos de hipótesis en una tarea de reconocimiento crece linealmente con el tamaño del conjunto.

La forma más sencilla para representar cosas en una red paralela masiva es la de usar representaciones locales en la cual cada concepto o rasgo es figurado por una pieza específica de hardware. Por ejemplo. cuando el sistema quiere trabajar con el concepto elefante busca la unidad elefante.

Muchos neurocientíficos creen que el cerebro no trabaja de esta manera sino que emplea una “especie de representación distribuida”. Hay conexionismo para conocimiento simbólico. para redes de reconocimiento. para aprendizaje. interactivas. etc.

Computación neural. Hopfield (6) máxima autoridad actualmente la comenta de esta manera: “El objeto de la computación en Neurobiología es entender como un set de neuronas toma decisiones. genera acciones, generaliza, aprende y aprovecha las experiencias pasadas.

Conocer solamente la relación input output no es satisfactorio. Pero aún así un grupo de neuronas con 100 elementos de input y 100 de output que pueden fácilmente requerir más de 1040 bits de información para caracterizar la relación input output hacen imposible el estudio exhaustivo realidad que obliga al énfasis en la investigación de nuestro entendimiento.

Sería igualmente insatisfactorio conocer el hardware neural con suficiente detalle como para simularlo en el hardware de un hipotético monstruoso computador digital y predecir correctamente la conducta de un sistema neural.

Esto correspondería a lograr la habilidad para simular la conducta de un clásico gas integrado por un complejo de moléculas sin el entendimiento conceptual traído para tales gases por estadísticas mecánicas y termodinámicas”.

Quizás la mayor carga computacional colocada sobre nuestros cerebros es la percepción visual cuyo resultado final es la computación de nuestras decisiones sobre qué hemos visto, lo cual constituye su esencia.

En una mirada a una escena visual notamos la presencia de unos pocos objetos familiares con algunas características crudas como color; tamaño relativo, etc. La inmensa información no significativa es procesada por las células de la retina que comienzan el cálculo -más de 109 bits- y comprimida en forma significativa información perceptual de solamente unos pocos miles de bits.

En una máquina digital esa tal computación hubiera sido hecha mediante un gran número de secuenciales decisiones, pero en alguna forma la esencia de las decisiones biológicas parecen ser más holística. colectiva o gelstat. Necesitamos entender cómo tales decisiones son hechas.

Aspectos de las computaciones neurales que son particularmente enigmáticas desde un punto de vista físico incluyen:

1°.  El sistema hace uso muy efectivo de sus recursos computacionales medidos por velocidad de cálculo o volumen o energía.
2°.  En tales sistemas los cómputos dados son muy poco alterados por el daño del sistema neural (falla leve).
3°.  Las propiedades emergentes tales como la de darse cuenta parecen estar presentes.

que se progresa en el entendimiento de la función neural: la más importante es la amplitud y la conectividad inmensa entre neuronas; luego la conducta algo insensitiva a la destrucción o disfunción de sus componentes y por último la función de calculación que parece tener un poco de carácter holístico.

Esto sugiere que los efectos colectivos pueden ser involucrados y que su investigación en redes neurales y computación neural pueden ser fructíferos. (“esta no es la forma que los diseñadores de chips emplean y más bien intentan suprimirla”). Segunda: el sistema puede no ser tan complejo como parece.

Es verdad que un módulo general de neuronas con 100 inputs y 100 outputs puedan requerir 1040 bits de información para describir cómo construirlos. Un módulo simple que puede ser descrito en quizás 10.000 bits no produciría una relación general de input output.

Podría producir una clase especial de relación, la cual sería compleja sólo en apariencia, no verdaderamente compleja. De la misma manera el número de generadores que son empleados en los computadores aparecen altamente números casuales, pero de hecho son los necesarios para generar secuencias muy especiales ya que su intervención puede ser descrita en programas cortos.

Simulación de aprendizaje en computador de sistemas neurales (10). Experimentos recientes han demostrado que en algunos casos la fuerza de las conexiones sinápticas ha sido modificada en el aprendizaje.

Los mecanismos fisiológicos básicos en el sistema nervioso central durante el proceso de aprendizaje son muy complejos, comprenden la participación de muchas partes con sus interconexiones, diminutos cambios químicos y morfológicos, actividad de varios tipos de neuronas con diferentes características y distintos modos de operar.

Aún hay muchos vacíos, no existe un modelo de sistema de aprendizaje sostenido por evidencia experimental. En estas circunstancias. una línea natural para investigar procesos de aprendizaje es la de construir una unidad de estudio de modelos teóricos basados en los hechos experimentales y las asunciones plausibles.

A nivel celular en el aprendizaje un animal modifica su reacción con un estímulo dado. A ese nivel nuevos senderos son formados de la red neural para acomodar la información entre neuronas estimuladas y neuronas de reacción.

Entonces cambios en la fuerza de las conexiones pueden ser uno de los mayores elementos del aprendizaje. Aunque este aserto está demostrado en animales, no existen reglas básicas claras que determinen cuales synapsis van a ser cambiadas y cuáles no.

El mecanismo básico en esta hipótesis es el de ensayo y error. Un estímulo entra al SNC y el organismo responde. Si esta respuesta satisface las necesidades intrínsecas será adoptado; así el aprendizaje quiere decir haber comparado respuestas con estímulos.

Un sistema de aprendizaje es parte del SNC. El estímulo puede ser procesado previamente, ejemplo: la retina procesa información para el cerebro.

Desde un punto de vista funcional el sistema se compone de las siguientes unidades: a) canales de estímulo; b) canales de respuesta; c) unidades de conexión; d) unidades de control. El elemento básico es la neurona. El mejor modelo conocido sigue siendo el lógico o modelo de McCulloch-Pitts cuya clave es la relación synapsis-soma de la cual hay varios tipos.

En el linear el potencial del soma es proporcional a la suma de la fuerza de las synapsis contributorias. La dinámica del proceso de aprendizaje que estamos presentando es así: como fuera mencionada antes se altera la relación input output en el aprendizaje elemental como lo demostró Erich Kandel en sus investigaciones experimentales básicas (7) en el sencillo invertebrado marino caracol aplysia califórnica.

La fuerza de las uniones synápticas sensoriales y el neutrón motor L7 se reducen en habituación y refuerzan en sensitización, modificaciones controladas por interneuronas.

Rasgos cualitativos y cuantitativos no se conocen. Se acepta que las synapsis excitatorias no pueden volverse inhibitorias. En consecuencia será necesario considerar propiedades synápticas en la simulación para probar las reglas fundamentales postuladas objeto de este estudio.

Los cambios aludidos son importantes pero las reglas que los coordinan también lo son. Las señales de input están en la red de aprendizaje a través de muchos canales axonales que hacen uniones plásticas con muchas neuronas de respuesta, que pueden conseguir señales adicionales de la unidad control.

Una situación similar ocurre en las áreas de asociación del cerebro que consiguen señales de input de las zonas sensoriales para enviarlas a otras áreas al tiempo que reciben señales de otros sitios y de regiones profundas como el hipotálamo para retransmitir.

En la última etapa de cada episodio de aprendizaje después del estímulo, su respuesta y evaluación, las instrucciones últimas desde la unidad de control son enviadas a las uniones y así la fuerza de algunas synapsis es modificada.

Las últimas reglas que controlan estos cambios tienen que asegurarse que las conexiones sean hechas o eliminadas solamente entre neuronas pertinentes y que otras neuronas no sean significativamente afectadas en el proceso.

Dos reglas básicas de mecanismo han sido postuladas aun cuando algunas cuestiones fundamentales no hayan sido resueltas experimentalmente a saber: regla I.Solamente las synapsis activas que unen las neuronas que han sido encendidas durante el último episodio de aprendizaje están tituladas para ser registradas.

Regla II. El cambio en la fuerza de una synapsis titulada depende del tipo de dicha synapsis y de la aceptabilidad de la respuesta determinada por la unidad de control. Para este estudio los siguientes puntos de synapsis y sus reglas para titulación son considerados: que la respuesta sea aceptable por la unidad de control; que todas las synapsis excitatorias que son habilitadas para titulación sean reforzadas, y si la respuesta es inaceptable ellas serán reducidas.

Se consideran para estos efectos dos clases de synapsis inhibitorias: en primer lugar aquellas en que la fuerza de las synapsis habilitadas es reducida cuando la respuesta es aceptada por la unidad de control y reforzada cuando es inaceptable; y en segundo lugar las no alineadas que permanecen sin cambio en el aprendizaje.

Se ha estimado que una célula de Purkinge está en contacto synáptico en 300 puntos aproximadamente, por lo cual tiene el cerebelo capacidad mayor de aprendizaje como fuera anotado atrás. En cada proceso hay una fase de almacenamiento de nueva información.

Para simular un proceso de aprendizaje es necesario determinar el ambiente de funcionamiento en el sentido de posibles eventos y su tiempo de secuencia.

En el proyecto que estamos presentando hay 4 canales de input y cada cual tiene posición activa y pasiva; su capacidad es de 15 eventos diferentes, la secuencia en tiempo es regulada por un generador y cada evento tiene igual probabilidad de ocurrencia.

Las neuronas de repuesto tienen 15 ramas dendríticas y cada una de estas, cuatro synapsis cuya fuerza inicial es determinable como excitatoria, inhibitoria, plástica o fija en diagramas de enrejado. Estas últimas son de dos clases: bien organizadas y al azar.

La dinámica operacional, la expresión matemática, la relación synapsis-soma y la actualización de las fuerzas synápticas deben ser especificadas. La cantidad de eventos diferentes a que el sistema de aprendizaje responde correctamente durante un cierto intervalo de tiempo indica la inteligencia del sistema en ese período.

Se conforma un histograma con promedio de 400 respuestas de cada sistema que muestra que 19 de 20 tienen positiva capacidad de aprendizaje.

Modelo de Hopfield. Presento una semblanza funcional del modelo de computación con circuitos neurales tomado de Hopfield y Tank (11). Se trata de un nuevo modelo de estructura y un principio de minimización que conjuntamente proporcionan un entendimiento de la computación en este modelo de circuitos neurales.

Los circuitos consisten en neuronas de respuestas graduadas no lineares organizadas en redes de conexiones sinápticas simétricas. Estas neuronas se aproximan a las biológicas en que un conjunto de propiedades computacionales importantes es alojado.

Circuitos complejos resuelven problemas similares a aquellos esenciales que en biología pueden ser analizados y entendidos sin necesidad de tener que seguir el circuito dinámico en detalle. La implementación del modelo con diseños electrónicos proveen una clase de circuitos electrónicos de nueva forma y función. De cómo un sistema nervioso computa requiere comprensión a diferentes niveles.

El problema computacional que el sistema va a resolver debe ser caracterizado (por ejemplo estereopsis en visión) para lo cual hay que determinar los datos de input, su solución, la transformación necesaria para computar esa solución deseada.

La meta de la Neurobiología computacional es entender estas transformaciones y cómo tienen lugar. Es importante comprender cómo los algoritmos pueden ser llevados por el hardware neural, como las propiedades individuales de las neuronas, sus conexiones synápticas y la dinámica del circuito neural que resultan en la implementación de un algoritmo particular. Tempranamente McCulloch y Pitts descubrieron un “cálculo lógico de ideas inmanente en la actividad nerviosa” de control (on-off) por el sistema de reloj.

El Neurobiólogo Rosemblat en estudios sobre “el perceptron” resolvía los problemas por decisión lógica de redes que utilizaban un sistema de feed-forward. Estudios más recientes han empleado neuronas modelo con dinámica continua y sin relojes.

El trabajo que estoy revisando aquí está dirigido a entender cómo computaciones particulares pueden realizarse por selección de senderos de conectividad sináptica en un simple sistema modelo dinámico.

Neuronas de respuesta graduada han sido combinadas con organizaciones synápticas para generar un modelo biológicamente más efectivo. Principios generales para diseñar circuitos y realizar problemas de optimización específica fueron desarrollados una vez demostrado que el poder y la velocidad estaban basados en el modelo de respuesta graduada.

Los problemas que pueden ser resueltos en estos circuitos neurales incluyen decisión de señales, decodificación, senderos de reconocimiento y otras optimizaciones, sobre la base de un entendimiento de la computación en un circuito neural simple.

Las neuronas son sistemas dinámicos continuos y los modelos neuronales deben actuar suavemente, liberando transmisores gradualmente en forma continua y promediando intensidad de pulsos. El antiguo modelo de MacCulloch-Pitts es de procedimiento análogo y alta conectividad como los circuitos neuronales biológicos.

Los potenciales de acción se inician cerca al soma y se propagan a lo largo del axón activando synapsiso Aun cuando se quisiera modelar la detallada biofísica integrativa synáptica, la primera simplificación en nuestra descripción de la neurona es olvidar los efectos eléctricos atribuibles a la forma de las dendritas y de los axones; y la segunda simplificación es tratar únicamente con rápidos eventos synápticos.

Las neuronas biológicas que producen potenciales de acción, lo hacen a una rata determinada por la siguiente conexión synáptica de input. Esta corriente actúa indirectamente cargando el soma y cambiando el potencial de la célula. Una fluctuación en el terminal presynáptico de una synapsis química es seguida de un cambio en la concentración del neurotransmisor en la célula postsynáptica.

La neurona del modelo carece de muchos rasgos complejos que tienen las neuronas biológicas tomadas individualmente y que le dan mayor capacidad computacional.

Sin embargo rasgos esenciales han sido retenidos e incluyen la idea de una neurona como transductor de input output y los aspectos dinámicos no lineares que constituyen importante aporte en computación porque permiten resolver problemas a la manera de los circuitos neurales en cuanto a proceso de información biológica se refiere.

El problema general de la Neurobiología es “reversar” la ingeniería hasta entender la operación de un circuito biológico completo al que caracterizan desconocidos principios de diseño y representaciones internas.

La efectividad del sistema neural con base en la computación por diseño de tiempo constante es grande en comparación con el usual propósito general de una máquina digital y se basa en inmensa conectividad, respuesta análoga y conexiones, por lo cual la computación viene a ser diferente de la realizada por la lógica Booliana, constituyéndose en novedad o concepto nuevo.

Omidar y Cheung (13) presentan un diseño para Robots en que parten de la base de las redes neurales que definen como un sistema altamente modular con un tremendo potencial de procesamiento cooperativo en mallas y en paralelos, en que los módulos por su uniformidad son particularmente adaptables para implementación de los circuitos de VLSI. El modelo está constituido por redes neurales potencialmente auto organizables.

• La computación es similar a la del sistema conexionista en que diferentes conexiones crean variaciones en el circuito para desempeñar funciones distintas, y como tal puede considerarse prototipo en el diseño de la arquitectura de computadores no convencionales para aplicaciones de IA.

La memoria a corto plazo en este sistema es proporcionada por feed-back del input deseado, no por el status de las líneas de células (que fuera la falla del “perceptron” de Rosemblat). Para el control se emplea una técnica dinámica de microprogramación.

En conjunto el sistema es un procesador de tipo paralelo masivo que para procesamiento retribuye también masivamente y en paralelas a todo nivel; es decir en neuronas, módulos, capas, con una forma de memoria y computación distribuidas, nada centralizado. Peretto y Niez (22) también proponen un modelo dinámico para redes neurales guiado por algoritmos variables.

REDES óptico-neurales.

En diciembre de 1986 Harold Szu (2) publica la innovación en redes neurales consistente en una tecnología para las computadoras neurales en que las conexiones entre las neuronas artificiales de los enrejados no son eléctricas sino lumínicas y a un sólo nivel en lugar de varios que requieren las interconexiones eléctricas y por tanto mucho menos espacio utilizado por las matrices.

Hemos visto que diseños destinados a modelar el trabajo del cerebro humano por imitación de su estructura anatómica son denominados computadores neurales; imitando el cerebro ellos consisten en un gran número de procesadores simples extensamente interconectados.

Demetri Saltis de Caltech (16) comenta que los intentos para construir computadoras que trabajen con los mismos
principios del cerebro requieren replanteamiento radical de lo que consideramos como computación tipo Von Newman por algori tmos de muchos pequeños pasos secuenciales porque parece que la velocidad en el procesamiento de los circuitos digitales aún trabajando en paralelos no proporcionan la solución. Además estos computadores convencionales fallan cuando confrontan problemas indefinidos (random problems) tales como reconocimiento de patrones.

El cerebro no reconoce escenas ejecutando múltiples pequeños pasos secuenciales sino mediante asociaciones globales procesadas de una vez.

Entonces la meta de los científicos de computador es la de diseñar una máquina que pueda abordar los problemas indefinidos sobre la base de asociación global y con datos incompletos para sacar conclusiones válidas.

Es aparentemente paradójico el hecho de que muchos problemas que sobrepasan la capacidad del cerebro humano son resueltos rápidamente por el computador, en cambio en el reconocimiento de los objetos no, lo que tiene su explicación porque se trata en el primer caso de repetir algoritmos consistentes en secuencias de instrucciones específicas sobre cómo manejar los datos de input, y en el segundo se ignora el mecanismo de reconocimiento de los patrones por lo que se tiene que recurrir a memorizar el conjunto de posibles soluciones para seleccionar la mejor a partir de los datos de input.

Por esto científicos en computación estudian muy de cerca el trabajo del cerebro en la esperanza de poder aplicar sus leyes simuladas en computadores híbridos (ópticoneurales).

Aun cuando hay muchas opiniones diferentes sobre cómo implementar mejor un modelo de red neural que fuese una versión simplificada de la organización cerebral, todos están de acuerdo en que las redes neurales representan una separación radical de cualquier previa arquitectura digital de computador.

Como ya lo hemos señalado varias veces la clave de la red neural es paralelismo masivo y alta conectividad dentro de un gran número de procesadores relativamente sencillos cuya Información es almacenada en los patrones de interconexión más bien que en localizaciones espaciales específicas de memorias.

La necesidad de interconexiones de un gran número de neuronas intimida a muchos investigadores que han virado hacia una posible solución en la comunicación óptica que posee también propiedades de alto paralelismo y comunicación global sin necesidad de imitar el cerebro. Los fotones aventajan a los electrones en comunicación porque no se interfieren y una sola fuente de luz puede contactar millones de puntos simultáneamente.

Algunos opinan que inclusive puede haber superposición natural entre las necesidades de las redes
neurales y las capacidades ópticas: ambas representan procesos análogos. El objetivo es entender y captar algunos principios fundamentales y trasladarlos a silicón, en redes neurales cuya definición se debate actualmente entre neurofisiólogos, ingenieros y científicos de la información quienes están moviéndose de los potenciales de acción en pulsos axonales a los procesos sinapsiales en donde la información realmente existe.

La tecnología óptica es prometedora y su fuerza estriba en que fortalece una de las áreas débiles que caracterizan el computador neural, a saber: la interconexión de un gran número de elementos procesadores. En el laboratorio de Caltech están experimentando con éxito sistemas de reconocimiento de patrones como primer paso para la construcción del computador óptico-neural.

Cualquiera que sea la tecnología, óptica o electrónica, o la función por ejecutar matemáticas o reconocimiento de patrones, hay dos factores principales en la solución de los problemas que son: operaciones lógicas y transmisión de datos.

Para lo primero se presta más la tecnología semiconductora pues permite construir circuitos lógicos sofisticados confiables (como vimos antes) pero limitados en cuanto a la cantidad de datos que pueden ser transmitidos por las conexiones de los chips de silicón que como son de alambres deben guardar cierta distancia entre sí.

¿Qué hacer? La respuesta la dio la observación del cristalino del ojo que toma luces de millones de puntos y la distribuye en millones de censores de la retina. Además múltiples rayos de luz pueden atravesar lentes o prismas y aún cruzarse sin que se afecten o se produzcan “cuellos de botella”, como en los chips de muy grande escala de integración (VLSI).

En el sistema híbrido opto-electrónico las unidades de procesamiento son electrónicas pero las conexiones entre ellas son ópticas consistentes en fuentes de luz y detectores de luz en el mismo chip.

El invento más promisorio para establecer conexiones ópticas arbitrarias no es un lente sino un holograma, sistema que genera imágenes tridimensionales con Laser, pero que en este caso se aprovecha su efectiva técnica para registrar y reconstruir la procedencia y la dirección de los rayos lumínicos en forma múltiplemente programada en un film fotográfico por uno y otro lado.

El número de puntos de resolución en un holograma de una pulgada cuadrada puede alcanzar hasta 100.000.000. Esto permitiría la interconexión de 10.000 fuentes de luz con 10.000 censores. En un sistema de interconexiones por alambres sería extremadamente difícil obtener este logro en un chip de silicón.

Esto en un holograma plano, pues en uno de volumen hecho con cristal foto refractivo la capacidad sería más prodigiosa porque un c.c. puede especificar más de un trillón de conexiones e interconexiones de más de un millón de elementos ópticos. La información contenida en el holograma puede ser extraída simplemente iluminando el cristal con un chorro de luz.

El hardware de la computación tradicional puede complementarse ópticamente en sus memorias y swichts utilizando los índices refractivos o las opacidades de elementos como el arseniado de gallium.

Los materiales ópticos no lineares permiten construir “transistores ópticos”, y “memorias ópticas” que consisten en un diseño que puede alternar un input de luz a dos estados que corresponden a sendos bits de datos binarios 1 ó O, y han sido desarrollados para registros de audio y video y recientemente para computadores electrónicos en lugar de cintas magnéticas.

Pero esto no cambia el modo de computación de los computadores convencionales, sólo aumentan velocidad en conexiones y volumen de memoria.

En cuanto a un sistema práctico para resolver problemas indefinidos (random problems) se considera indispensable un ingrediente adicional que consiste en asociar los datos de input con la información almacenada sin pretender una comparación exacta.

Este es el principal elemento en el proceso de asociación de la memoria biológica en que rasgos parciales de un objeto producen o generan la recuperación de la información completa de dicho objeto mediante tales asociaciones.

Es de anotar que la computación en las redes neurales es hecha de manera colectiva por sumación de operaciones simultáneas de neuronas individuales.

Otra característica mayor de la computación neural es el aprendizaje espontáneo (17) comparable al del niño en el lenguaje en que espontáneamente asocia lo que oye hablar con una experiencia y entonces trata de imitar la palabra oída con tal experiencia.

Igualmente un programador de computador neural no necesita entender en un sentido formal matemático el problema que está programado; solamente tiene que proveer suficiente datos de posibles soluciones al computador y permitirle establecer un patrón único de conexiones para cada solución, lo que equivale a la posibilidad de programarse a sí mismo.

De todas maneras es importante procurar tener un mejor entendimiento de la operancia de las neuronas en el cerebro y de cómo ellas colectivamente “aprenden” y luego “clasifican” patrones.

Para finalizar, como epílogo, acudo de nuevo a Gunther Palm (15) del Max Plank 1. quien comenta que “en física se considera como carente de sentido hablar sobre el propósito que persiguen las moléculas o el universo; pero cuando se trata de organismos biológicos lo podemos hacer, dice, porque estos han desarrollado a través de la evolución medios de lograr la continuidad de la vida y nosotros podemos intentar derivar otros sub propósitos.

Esto es quizás la base de la cibernética aplicada, utilizar argumentos teleológicos o diseños de ingeniería como una guía heurística para el análisis de los sistemas biológicos. La idea ha sido fructífera y estimulante y ha llevado al descubrimiento de muchas similitudes en la forma de cómo ingenieros y órganos biológicos resuelven sus problemas.

Esta es la idea de la inteligencia artificial altamente exigida cuando la meta computacional es puesta en el nivel superior de análisis de lo biofísico y de lo conductual. Hay un cierto grado de confusión epistemiológica que se disipa entendiendo el “sistema” para el análisis como guión heurístico para los niveles básicos experimentalmente accesibles y como algoritmos técnicos y de computación para los altos niveles. Estos algoritmos pueden ser considerados como soluciones a los interrogantes tanto técnicos como biológicos”.

Doy por terminada esta serie de IV partes sobre IA y Neurología en que creo haber podido presentar una somera revisión sobre un tema tan complejo que va desde la especulaciones optimistas iníciales de tipo informático -tempranamente impregnadas de cierta ingenuidad- los logros progresivos de la tecnología electrónica aunada a las neurociencias, las bases neurofisiológicas y neuropsicológicas mínimas para entender la función cerebral en el sentido de pretender su simulación parcial por mecanismos de IA.

Las teorías de extrapolación neural y sus proyecciones, el pesimismo ortodoxo evadido por el replanteamiento del problema, hasta la expectativa sensacional del momento sobre el robot inteligente japonés y las realizaciones iníciales del computador neural norteamericano.

Afortunadamente para el Autor, MEDICINA tiene muchos lectores de vanguardia desprovistos de prejuicios y dotados de apropiada inquietud, para quienes juzgo útil esta clase de información ampliamente documentada en bibliografía
de actualidad.

Bibliografía

(1) Kennedy Mary B. How Does the Brain Learn. A. Molecular View. Engineering and Science. IX. 1986. Pgs. 4-9.
(2) Szu Harold. Neural Networks Inspire Computer designer. Naval Research Office. Artificial Intelligence. XII. 1986. EE Times – Washington.
(3) Kent Ernest. Artificial systems in The Brain of M and M. pág. 225. McGraw Hm. 1980.
(4) Jorgensen Chuck and Mathew Chris. Catchingin Neural. 1 Expert. P.30/38. XII. 1986.
(5) Fahlman, Scott and Hinton. Connectionist A rchitectures for Artificial Intelligence. IEEE. I. 1987.
(6) Hopfield J.J. Phisic, Biological and Cumplementarity. Proceedings of the Niels B. Bohr Centenary Symposium. Copenhegue. X. 4/7. 1985.
(7) Kandel Erich. Celular Insights into Behalrior and Learning. The Harvey Lectures. 73/19. 1977.
(8) Hopfield and Tank. Computing with Neural Circuits. A Model. Science. Vol. 233. VIII, 1986.
(9) Niznik Carol and Mewcomb Robert. Computer Networking for the Robotic Neural and Semory Systems. Butterworth & Co. Publisher Lt. 1983.
(10) Salu Yehuda. Compu,ter Simulation of Learning j’n Neural SystemB. Computers and Biochemical Research. 16. p. 176/199. 1983. Washington.
(11) The Neural Network as a Prototype in the Desing of Nonconvencional Computer Architecture for Al Aplications. Electrical Engineering and Cumputer Science VI. 1986. Un. of Oklahoma.
(12) Hopfield J.J. Neural Ne;works and Physical Systems with Emergent Collective Cumputational Abilities. Proc. Natl. Acad. Sci. Bell Labs. New Yersey. 1982.
(13) Peretto Pier and Niez Jean-Jacques. Stochastic Dynamics on Neural Netwoks. IEEE Transactions on Systems, Man and Cybernetics. Vol. 16 No. 1. Grenoblle. France. 1985.
(14) Bach -y- Rita. Plasticidad cerebral Conferencia magistral. Academia Nacional de Medicina. Bogotá, Abril 1980.
(15) Palm Gunther. 8tudies of Brain Function. págs. 140-43. Springer-Verlag. Berlin. 1982.
(16) Psaltis Demetri. Optics and Neural Nets: trying to model the human brain. Computer Design. Pasadena, CA. Tom Williams Editor. March 1987.
(17) Abu-Mostafa Yaser and Psaltis Demetri. Optic Neural Computers. Scientific American. S. Fco. CA. April 1987.
(18) Asbury A.K., Mckhann G.M. McDonald W.I. Viseases of the Nervous Sysfem. Clinical Neurobiology. WB Saunders Co. Philadelphi. 1986.


Nota: En las gráficas de la PARTE 1, hay error en su numeración en el texto, y omisión accidental de la microfotografía electrónica de la célula amacrina.

CLIC AQUÍ Y DÉJANOS TU COMENTARIO

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *