Inteligencia Artificial y Neurología (IV parte)

Dr. Mario Camacho Pinto. Académico de número.
Mayo de 1987

Por ahora esta parte es la última sobre IA y N. Está dirigida a informar sobre el tema del funcionamiento del cerebro en lo aplicable a su posible simulación y utilización para dispositivos de lA en un afortunado encuentro de la ciencia y la tecnología como prospección actualmente aceptable para la mayoría de los investí adores en Neurofisiología, Neurobiología y Bioingeniería.

MEDICINA es una publicación periódica de información y comunicación para el médico colombiano esencialmente, nutrida por aportes al conocimiento y estudio de los más diversos problemas médicos a nivel individual o institucional, local o general como los atinentes a

salubridad; que quiere propiciar y estimular la investigación a nuestro nivel en su sección científica, sin que también lo quiera realizar en cuanto se refiera a la integración de un sano criterio en la formación de profesionales ética y culturalmente maduros como ha sido lo tradicional en este país y se alienta y dignifica en la sección letras.

La finalidad o propósito de este trabajo conjunto que me he impuesto ha sido esencialmente de información y creación de inquietud sobre un tema poco trajinado entre nosotros. El sendero que yo me había trazado y que me he esforzado por desarrollar útilmente correspondía al enfoque clásico de intento de simular electrónicamente los mecanismos del cerebro. Pero muy recientemente han aparecido cambios radicales que debo seguir y tratar aquí para conservar actualidad. Por otra parte siguiendo a Kent cuando llegué a la consideración del complejo problema de la extrapolación en el más alto nivel de las funciones superiores -agudizado por la especialización hemisférica del cerebro- empecé a vislumbrar con su enfoque menos optimistamente el panorama y a ver más claramente la limitación que establece el distanciamiento entre el cerebro y la máquina para un comportamiento racional de ésta integrado por criterios de juicio en solución de problemas, elección de la mejor posibilidad, prospección creativa, etc. etc., para lo cual no existen algoritmos capaces y la solución heurística es cabalística, imprecisa y caótica en este aspecto. Si el análisis es insuficiente, la síntesis será inadecuada y la conclusión un error. Por esto encuentro tan acertado el giro norteamericano de la LA. hacia el computador neural de progresiva utilización de mecanismos imitados del funcionamiento del cerebro humano usándolos a medida que se vayan conociendo lo suficiente para adaptarlos a una extrapolación funcional. De manera que al llegar al punto crítico Kentiano desviaré por la nueva ruta, (transitoriamente) entre tanto la intensiva investigación ortodoxa mundial proseguirá sin desmayo en multitud de centros super especializados en inteligencia artificial.

En tales condiciones el contenido de esta IV parte queda modificado así:

1. Kent hasta el punto crítico según mi concepto.
2. Implementación de sistemas neurales artificiales que comprende:
a) Captación neural (catching in neural).
b) Conexionismo (al cual he aludido en 1. II y lII).
c) Computación neural.
d) Simulación de aprendizaje en el computador neural.
e) Modelos de computación en circuitos neurales. (Ver III).
f) Redes ópticas y neurales (primicia), computador híbrido.
3. Consideraciones finales.

Kent hablando de sistemas artificiales (3) dice que es sorprendente la similitud en varios procesos de funcionamiento de memorias del cerebro y las varias y bien conocidas formas de almacenamiento en los computadores actuales. Hace énfasis en la similitud de la memoria sensorial con un “cerrojo” de input y entre el almacenamiento verbal a corto plazo y una registradora. La memoria a largo plazo con su naturaleza permanente, tiempo más largo de atención, organización categorial y necesidad de retorno vía memoria de corto plazo es muy parecida a un diseño de archivo de almacenamiento tal como un disco. Obviamente algunas de las propiedades de las memorias del cerebro no son análogas a las contrapartes comunes del mundo del computador; algunas de ellas merecen ser examinadas como procesos potencialmente interesantes para simulación electrónica. La primera de éstas la constituye el proceso de atención destinado a seleccionar qué información de la memoria sensorial será transformada a la modalidad de almacenamiento a corto plazo. Esta función en un programa tradicional de computador tendría que construirse dentro de la máquina, programarse; tendría que saber qué se está buscando, cuándo y qué hay para examinar. Se ha señalado la similitud entre el sistema del cerebro para buscar su objetivo y el propósito de un programa tradicional. También se anota la próxima relación entre la función de atención y el sistema que dirige la meta hacia el objetivo en cuanto se refiere a la dirección de los altos procesos y las operancias de los sistemas perceptuales. La atención aseguraría que el material relevante sea retenido. Parece que en ésta instancia también la función de atención actúa como un mediador entre los sistemas que especifican metas generales para el organismo y los sistemas que ejecutan funciones en la consecución de esas metas.

En las máquinas diseñadas para el futuro necesitaremos la capacidad para especificar metas generales aptas para decidir por sí mismas qué vale la pena procesar más y más, que den habilidad sensorial para recibir grandes cantidades de datos ambientales rápidamente, que afrontarán los mismos problemas que el cerebro en el escoger qué almacenar y qué operar y qué dejar pasar inadvertidamente, y como esto no se podrá determinar de antemano, se tendrá que acudir al proceso de atención ya mencionado. Es de anotar el proceso de asociación para recordar por semejanzas lo que no sería muy difícil de simular en un sistema artificial.

Otra potencial e interesante consideración es la aplicación de la arquitectura paralela a la búsqueda de memorias, aunque los mecanismos de almacenamiento a largo plazo ya actúen como organizados en una red semántica de arquitectura también paralela que los habilita para trabajar en esta forma -moviéndose simultáneamente a través de gran número de ramas de un árbol o red.

Simplemente cambiando las reglas para codificar, labor no tan fácil cuando el material sea abstracto. En ésta mira el proceso de búsqueda sería análogo al de extracción de rasgos en el cual un gran trabajo decodificado es manifestado en pocos pasos. La diferencia estaría en que el asunto no residiría en un sólo nudo sino en un código distribuido en muchos nudos.

Funciones lógicas. Incluyen la construcción de un modelo perceptual del mundo con algunas aplicaciones de lenguaje simbólico y la organización de ciertos procesos lógicos. La exploración se dificulta por escaséz de datos porque para el cerebro humano los obtenibles son inferidos por análisis y dependen de los casos de enfermedad o de lesiones, es decir de historiales clínicos a veces deficientes. Además si hay un daño cerebral no está restringido a zonas o áreas anatómicas topográficas, las definiciones son variables y los puntos decisivos son frecuentemente omitidos. El problema principal es la complejidad de las funciones: no sabemos con precisión qué buscamos y tendemos a ver las cosas en términos de nuestros preconceptos. De la misma manera somos proclives a enfocar el funcionamiento del cerebro por unos patrones preconcebidos construidos por experiencias subjetivas, por observación de nuestros procesos internos u objetivamente por observación de los actos de los demás. Existen las experiencias de funcionamiento global que podrían obtenerse en el alambrado de un computador que simulara las diferentes funciones distribuibIes en múltiples sistemas con un terminal de output. Es de advertir que los síntomas en caso de disfunción pueden o no depender directamente de un daño local del alambrado pero no existe un método directo de verificación. Se estaría imitando a los psicólogos cognoscitivos que con frecuencia acuden al análisis de la función global del proceso del pensamiento humano y piensan que lo interesante es la descripción funcional adecuada de la actividad mental. Con la diferencia de que esencialmente ellos buscan la descripción del software de la mente, más bien que la función cerebral.

Kent enfoca las altas funciones del cerebro con el objetivo de describir unidades de procesamiento neural y en qué forma son empleadas por el cerebro para producir varios y unitarios procesos intelectuales (formidable tarea) lo que ha creado expectativa. Su punto de partida son las funciones asignadas a la encrucijada parietotemporo- occipital en donde aprecia dos niveles de operación a saber: uno de experiencia inmediata en el cual un modelo de la realidad externa es sintetizado como producto de las sensopercepciones. Otro del empleo de los mismos mecanismos neurales para manipular la información simbólica. De acuerdo con esta visión, la lógica de las relaciones entre los objetos físicos y el mundo sería aprendida por el cerebro y empleada para el trato con el mundo exterior. En el intento de emplear la manipulación de símbolos la relación de sentido común entre los objetos físicos podrían utilizarse en un código mayor de nivel abstracto. Este nivel natural de funcionamiento cubriría la mayor parte del pensamiento lógico que no estuviese comprometido en la aplicación de sistemas lógicos formales que requerirían aprendizaje adicional de nuevas reglas.

A continuación se consideran algunos métodos que emplea el cerebro para sintetizar un modelo del mundo exterior. “En nuestra experiencia subjetiva el mundo se nos presenta como un grupo de objetos que ocupan espacio y tienen una variedad de propiedades y relaciones que resultan en experiencias sensoriales de toda clase”. Ninguno de nuestros sentidos está habilitado para el proceso unificador de lo actual con las pasadas experiencias pues lo perceptual se nos presenta como un hecho a menos que tengamos una lesión en el lóbulo parietal. El flujo de información incluye intercambio a otras funciones cerebrales, quiero decir de la percepción primaria a la secundaria: los inputs diversificados son sintetizados y localmente enviados al resto del cerebro. La visión es el ejemplo que nos permite observar daños que no producen pérdida de esta sino déficits o falla para reconocer objetos aun cuando los pueda diferenciar del conjunto. Se supone que la localización y la identificación de las percepciones visuales son complementarias actuando en procesos separados. Sus daños no alteran el proceso general intelectual ni otras modalidades perceptuales. En algunos casos hay inhabilidad para codificar memoria visual lo que tampoco interfiere el proceso de memoria general: se puede copiar un retrato mirando el original pero no memorizándolo. Recordemos que el sistema visual principal analiza y categoriza el contenido del espacio visual, y su lesión elimina la habilidad para percibir relaciones espaciales entre objetos conservando la discriminación; y la accesoria analiza la localización global en el espacio y su lesión dificulta seriamente el reconocimiento de patrones y objetos (18).

Consideraciones similares pueden hacerse para los sentidos de oído y tacto (mutatis mutandi). En las áreas táctiles secundarias se observan fallas como la de palpar un objeto y no poder decir qué es, el inverso de las áreas visuales. También existen fallas de apreciación del esquema corporal. Un daño en la zona auditiva primaria no resulta en sordera sino en carencia de análisis auditivo. Recordemos también que el sistema auditivo es seriado y el táctil y visual son paralelos: el auditivo es un analizador secuencial que requiere almacenar brevemente para categorizar más rápidamente. Uno de los ejemplos más importantes está en los “fonemas” equivalentes de los objetos en lo visual y táctil (fonemas que son diferentes de un idioma a otro). El daño en la corteza auditiva primaria impide reconocer estos fonemas y efectuar otras discriminaciones que estorban la percepción del orden temporal de los estímulos. En las áreas secundarias se pierde la capacidad de entender significados.

Un punto filogenético importante es la habilidad para transmitir información de una modalidad a otra, ejemplo: ver la situación de un objeto y luego recogerlo con los ojos cerrados. Esta abstracción es propia del humano mediante la cual llega así al símbolo cuya base física es la interconexión entre las áreas sensoriales secundarias: al seccionar estas conexiones desaparece esa función. Largo tiempo se ha requerido en la infancia para aprender a relacionar el tacto con la visión.

El modelo integrado del mundo en el panorama kentiano infiere que la relación espacial es una cualidad perceptual abstracta que está presente o ausente como una adición paralela para arreglar los elementos neurales cuya actividad codifica el objeto. Muy importante es que esa relación espacial implica un espacio perceptual dentro del cual el observador puede moverse sin que el
objeto se desplace. La relación no es una propiedad de los objetos sino un modelo del mundo el cual los contiene como figuras. Este tipo de análisis perceptual es imperativo para todos los altos procesos que envuelvan interacción racional con el ambiente. Para rodear un obstáculo se necesita una comprensión del espacio circundante y de la relación entre objeto y organismo. La mayor parte de los diseños de robots sencillos tienen alguna habilidad para maniobrar en el ambiente y alojar estímulos así como sus fuentes de poder disponer de algoritmos simples para resolver obstrucciones. Generalmente estos envuelven el proceso de prueba y error por movimientos laterales y de reverso mientras que el diseño continúa por feed-back, procediendo como los organismos rudimentarios.

Una razón que hace difícil el esquema de una respuesta racional más avanzada para el robot es que esa conducta necesitaría un modelo sofisticado de percepción de las relaciones espaciales que sólo podría provenir de un análisis del input. Es difícil hablar de razonamiento cuando se confronta un obstáculo. Uno de los puntos que habría que desarrollar para solucionar el problema sería el de que la relación espacial forme el substrato fundamental del cual toda relación lógica estática proceda. En el cerebro vemos que el área central parietal está estratégicamente situada para recibir información analítica procesada y este papel se evidencia cuando estudiamos clínicamente las alteraciones que produce su lesión que se pueden resumir diciendo que se trata de la integración final de la percepción.

Si se aceptara este planteamiento de modelo del mundo varios principios devendrían relevantes para el diseño de sistemas artificiales. Primero: el de adición de estados sucesivos de análisis agregado a un código perceptual en paralelo. Para codificar los rasgos crudos táctiles o visuales se añadirían dos líneas de análisis: una para identificación y otra para localización en el momento y modalidad relativas al observador con análisis primitivo básico empleable para el más refinado en relación con el objeto como en los cerebros simples. En el niño esto es hecho mediante el proceso de aprendizaje, en un sistema artificial sería a priori. El siguiente paso sería la definición del marco espacial continente que es diferente del sistema perceptivo y que hace referencia no al organismo sino al medio ambiente. La posición relativa de organismo y ambiente sería de interacción y así se codificaría lista para utilizar en caso de acción racional. Se constituiría en esta forma un código o mapa de procesamiento lógico equivalente a un autoconcepto, especie de factor abstracto, para planear futuras operaciones. En los sistemas artificiales se podría inferir la posibilidad de una localización espacial y contaría de inmediato con un código perceptual para el objeto.

Extrapolación para Robot. Como complemento pragmático de estas apreciaciones complementarias a las hechas sobre este mismo tópico en la parte 111, presento el análisis que Niznik y Newcomb hacen de las estructuras de los sistemas motor visual y sensorial en cuanto a hardware y software para robot se refiere (9). Hasta hace poco los sistemas robóticos estuvieron compuestos principalmente de funciones mecánicas conectadas con el propósito de realizar formas específicas de automatismo. Un plan conjunto de arquitectura computacional se proyecta aquí ahora para investigar óptima y eficientemente la imitación de las funciones del sistema nervioso humano con destino al robot. Esa magna estructura es una gran interred de nudos de compuerta que controlan los cuerpos celulares interconectados. Los convencionales sistemas han sido primitivos. Ahora requieren para su desarrollo un control que simule importantes funciones intelectuales del sistema nervioso, que chequié motilidad mecánica y funciones sensoriales. Esta estructura de control necesitaría tres “autómatas”: 1. de aprendizaje por visualización y copia del ambiente exterior para toma de decisiones y conducta; 2. de interconexiones; 3. control automático de extremidades proximales, manos y dedos. Esto requiere la interconexión de muchos microprocesadores por un sistema de cerebro control dentro de una multirred. La implementación de hardware operaría entre microprocesadores y células de tipo neural, y lazos de unión entre fibras ópticas, dendritas y axones. Los aspectos probalísticos de conexiones entre los microprocesadores serían realizados por centros de control como los del sistema nervioso humano localizados en donde el mayor número de axones y/o dendritas entren y salgan de los cuerpos neuronales. Las medidas de tiempo real en el sistema robóticos de hardware y software serían controladas matemáticamente.

En visión por ejemplo el objetivo de estos dos componentes es imitar el sistema nervioso de los mamíferos por lo cual hemos mostrado atrás algo del análisis de la visión del cerebro humano; e igualmente lo hicimos para el sistema auditivo, tacto. sistema motor y función kinestésica. En el robot el sendero funcional debe ser entre la corteza visual en el circuito cerebral y los dedos en la mano porque el objetivo es conseguir precisión en la coordinación de las conexiones y la sincronización del computador robótico entre la visión y las extremidades: en las superiores la dextresa manual, en las inferiores la marcha. La formalización de esta teoría es de suponer que constituye el motivo de estudio y aplicación en el proyecto japonés del robot inteligente.

Me queda por decir algo sobre plasticidad en el SNC (14), función que puede describirse como la capacidad de los circuitos neurales para aprender en caso de un cambio en sus interrelaciones. Esta habilidad del tejido neural humano y especial de cerebro para cambiar su respuesta ante la estimulación y para reservarse funcionalmente está latente como reminiscencia de la experiencia pasada, almacenada en las células de Betz y Golgi del cerebro y Purkinge del cerebelo, en el intervalo del proceso de “cuantización” de los parámetros del software y su correspondiente hardware. Un gran número de potenciales de acción pueden o no desencadenar la capacidad de la neurona para aprender, aptitud que puede ser desarrollada según esta teoría por el número de potenciales de acción. Este tema nos fue presentado ampliamente por el Profesor Paúl Bach-y-Rita en la Academia Nacional de Medicina en Conferencia memorable (14).

Por otra parte la práctica del cerebro de hacer adiciones al código perceptual cuando quiera que una nueva cualidad es abstraída, no significa que una estancia analítica esté asociada a lo que el código total representa. En cambio cuando los procesadores perceptuales alcanzan un punto en el cual las relaciones temporales y espaciales son abstraídas como cualidades perceptuales, esas relaciones en tiempo y espacio aparecen como cualidades abstractas de objetos. El desarrollo de esta actualidad abstracta de relacionismo prepara el camino para el desarrollo de las operaciones lógicas simbólicas. La forma como aprendemos es por la asociación del objeto verbal escuchado a otro visual-táctil espacialmente definido. Cuando consideramos las propiedades que la corteza parietal central está extrayendo en su análisis de las relaciones espaciales de los objetos en el mundo físico, encontramos nociones tales como dirección, posición, simetría o asimetría, agrupamiento, etc. La correspondencia entre objetos y palabras es de un nivel inferior al análisis perceptual de la relación espacial; la conexión entre palabras está basada en las relaciones espaciales y temporales de objetos y acciones, hecho que constituye la gramática en general. En las lesiones del lóbulo parietal observamos pérdida de algunas funciones que son un eslabón importante en la cadena de la lógica simbólica. aspecto parcial del gran proceso del pensamiento. Existe alguna relación entre una entidad simbólica lógica y una combinación del mundo real. La propia relación se establece entre el código y el objeto por prueba y error que es lo básico en el proceso de aprender a pensar en términos abstractos en la infancia. La hipótesis de Luria se fundamenta en la relación entre simbolismo verbal, habilidad matemática y el proceso subyacente de extracción espacial y temporal como abstracciones. El procesamiento paralelo y la codificación de los rasgos paralelos son cualidades abstractas. Las estructuras subcorticales definen una dirección o un problema y las corticales responden con un análisis. Lo que interesa ahora es el proceso por el cual la acción racional es generada trazando así la vía sobre la base de aquel análisis, para llegar a la síntesis de las acciones y su ejecución.

Estas someras y obviamente incompletas lucubraciones dejan entrever un basto panorama para cuya simulación en sistemas artificiales necesitaría un hardware que estaría por diseñar y un software del cual apenas se barajan posibilidades de planteamiento. Mencioné los sistemas que definen las metas del comportamiento racional y entre ellas está la “motivación”. Puede afirmarse que para hablar de una conducta racional debe perseguirse una finalidad razonable. El término motivación comprende conceptos tales como emociones, instintos, necesidades, deseos, etc. E n la mayoría de situaciones de computador estas metas son análogas al propósito de un programa implícito en su operación, raramente definidos en términos de hardware. Esto quiere decir que el cerebro determina su propia conducta u objetivo ya sea por reflejo prealambrado o por aprendizaje, mientras que en el computador son construidas para aceptar pasivamente cualquier propósito que sea inherente al programa. No hay una razón fundamental para decir que un robot no puede ser construido para operar como un cerebro natural en este aspecto. Hay muchas categorías de motivación pero sin duda la básica está representada bien sea por la búsqueda de placer, bien sea por eludir dolor. Con asiento anatómico principal en el sistema límbico. El hipocampo o el mesencéfalo. La antigua pregunta de si una máquina es capaz de tener emociones se puede asociar a un mecanismo que detecte cierto tipo de situaciones y espere cierta categoría de respuesta y entonces la contestación es sí.

Al querer significar que tenga una experiencia subjetiva como la de miedo cuando está operando entonces es no. Con respecto a la construcción de un mecanismo de robot. lo esencial no es la experiencia subjetiva lo que importaría es reconocer que el proceso no tenga estas experiencias como su meta, sino la de proveer cierto tipo especial de información relevante para aumentar el poder y eficacia de esas respuestas comportamentales hacia el ambiente. Estos procesos serían tan esenciales para la acción eficiente en un cerebro robot como lo son en uno orgánico a pesar de que su operancia sea o no percibida como experiencia subjetiva.

Ahora, si consideramos el aspecto de los mecanismos de operancia del sistema motivacional vemos que hasta un cierto punto la motivación es análoga a un sistema interruptor en un computador y tiene una estructura prioritaria también aun cuando los sistemas de la motivación real sean más complejos que la estructura interruptora porque aquella no simplemente detecta condiciones y controla específicos programas de acción sino que además habilita clases de actividad y define tipos de estímulos hacia una meta parcial que puede ser variable pero con único resultado final predeterminado. Este método de alcanzar una meta artificiosamente es más bien heurístico que algorítmico y constituye una de las más importantes diferencias entre un cerebro y un computador: en un proceso algorítmico una vez que la meta es asumida la secuencia de pasos ejecutada conduce a esa meta. En un proceso heurístico el potencial resulta de diferentes vías de acción que son comparadas con la meta y aquello que se le aproxima es ejecutado; el proceso es continuado y puede reversarse cuando se descubra equivocación. Los programas del juego electrónico de ajedrez son un buen ejemplo, allí no hay algoritmos para ganar un partido, sin embargo, sistemas heurísticos sencillos son implementados, ejemplo: cuando la luz entra en línea con el diseño hacia la dirección de movimiento, la fotocélula es activada (respuesta emocional) y la máquina impulsada hacia adelante (comportamiento motivado).

Los sistemas motivacional es tienen más funciones en los procesos lógicos complejos, como activación de propiedades (sustancia reticular activadora) y refuerzo de estímulos. Es de tener en cuenta el proceso que a nivel elemental de la motivación del cerebro y del sistema de premio puede dirigir la meta de las relaciones de input output del organismo.

Captación: Jorgensen y Matheus (4) comentan que una revaluación tranquila está ocurriendo en la comunidad de IA. Sorprendentemente envuelve investigación en redes neurales simuladas. En primer lugar neurobiólogos, médicos y teóricos necesitan entender los procesos eléctricos, químicos y de crecimiento que ocurren en el cerebro normal y en la actividad del sistema nervioso desarrollados como un desenvolvimiento natural de las neurociencias en general y particularmente de la Neurofisiología, Farmacología y Biología molecular. Entonces se conjugarían el computador y la información científica atraídos por los sistemas biológicos, en parte como un resultado de los pioneros trabajos de Shannon. Inicialmente se creyó que la máquina de Turing e IA eran una misma cosa, pero Von Newman estableció la diferencia. Otros pensaron poder refundir aprendizaje y control, e investigadores de sistemas adaptativos creyeron en automodificación y en organización, pero la IA continuaba ligada a la cibernética con la ilusión del “Perceptron” del neurólogo Rosemblat hasta cuando se realizó que había un obstáculo insuperable para construir un hardware adecuado a más del rechazo de Minsky y Papert, hechos que ya detallamos atrás.

Entonces la Neurobiología recuperó el campo por un camino más abstracto de representación matemática al tiempo que simulaciones de computador. En los últimos años los grandes avances en hardware como la noción de paralelismo masivo, computadores concurrentes y entendimiento y aceptación de propiedades emergentes en multidinarias redes conectadas al azar, han revivido la investigación. Por ejemplo Hopfield como se verá más adelante, ha demostrado que procesos no lineares que incluyen descargas asincrónicas y conexiones simétricas en grandes redes, desarrollan propiedades emergentes (12) de organización dotada de capacidad para resolver algunos problemas matemáticos, lo que animó el posible aprovechamiento para otras aplicaciones. Así hoy día las redes neurales nos pueden ofrecer estas posibilidades: resistencia del recuerdo de la información a la falla del hardware; balanceo automático de los aspectos positivos y negativos de la información; abstracción automática de datos; reconocimiento de pautas; representación de jerarquías; aprendizaje biológico adaptativo ante estímulo; captación en tiempo (audición) como en espacio (visión). Que esas redes neurales actuales sean la mejor forma de resolver estos puntos, es cosa también que depende de otros factores que deben estudiarse y entenderse, lo cual se sale del marco de nuestro plan informativo.

Arquitecturas conexionistas para IA. Fahlman, Scott y Hinton (5) informan que la tecnología de IA puede hacer un buen trabajo simulando muchas de las más altas funciones superiores del hombre a pesar de que algunos de los aspectos fundamentales de la I humana son más que elusivos. La lA según ellos puede equiparse a los mejores expertos en algunos pocos problemas técnicos; tal cual ingrediente de I pareciera faltar y nuestra tecnología de representación simbólica y la búsqueda heurística basada en los computadores seriados parece que no pueden cerrar la brecha. Entre los elementos en déficit están los siguientes: la memoria humana puede almacenar gran cantidad y variedad de conocimientos y hallar los datos en sus depósitos muy rápidamente y sin esfuerzo. El fenómeno que llamamos sentido común es complejo pero deriva en parte de la disponibilidad de un gran volumen de conocimientos surtidos acerca del mundo: las máquinas seriadas pueden almacenar la información pero es difícil hacerlas partícipes de sus actividades. En reconocimiento de lenguaje, visión y algunas tareas de alto nivel como los diagnósticos médicos se ha logrado conseguir habilidad para escoger la mejor opción, pero el cerebro puede hacer eso mismo aún con datos distorsionados y falsas expectativas (4). En otros casos los humanos parece que manejáramos información por métodos distintos de las aserciones simbólicas de la IA, con el tradicional enfoque para resolver problemas que reconoce, empleando siempre más complejas e inteligentes estrategias para reducir la actividad, la necesidad de excesiva búsqueda y engorrosa computación. Ahora una alternativa sería la de resolver tales problemas con un ciclo menos complicado pero más intensivo usando millones de muy simples microprocesadores de gran escala de integración para obtener un trabajo en tiempo razonable.

Por ejemplo, un enfoque para interpretar el input visual es usar razonamiento inteligente en áreas restringidas, mediante arquitectura masiva paralela en lugar de una costosa técnica computacional convencional. Muchas de estas arquitecturas paralelas son conexionistas. ¿Qué es conexionismo? (5).

Henry Feldman acuñó este término para referirse al estudio de una cierta clase de arquitectura paralela masiva para lA. Un sistema conexionista usa un gran número de elementos de procesamiento simple o unidades cada una conectada a un cierto número de otras unidades del sistema. Las unidades tienen poca información almacenada internamente; típicamente sólo unos pocos bits marcadores o una simple escala de nivel de actividad usados como una especie de memoria en trabajo a corto término. La memoria a largo tiempo o almacenamiento es cumplido alterando la pauta de interconexiones entre las unidades, o modificando un factor denominado “peso” asociado con cada conexión. El uso de las conexiones, mejor que las células de memoria como medio principal de almacenar información motivó el nombre de conexionismo. Las unidades de procesamiento paralelo en una red conexionista no siguen programas individuales. Las unidades son capaces de efectuar pocas acciones simples tales como aceptar señales de ingresos, realizar algún procesamiento aritmético o Booliano de datos y enviar señales sobre parte o totalidad de las conexiones. Estas operaciones son completamente autónomas o pueden ser controladas por comando de radio o por un computador tradicional. Como todas las conexiones pueden llevar señales simultáneamente y todos los elementos de procesamiento pueden actuar en paralelo para integrar los datos que lleguen; un sistema conexionista aporta una gran cantidad de conocimiento llevado simultáneamente para una decisión y puede evaluar muchas escogencias de una vez.

DÉJANOS TU COMENTARIO

DEJA UNA RESPUESTA

Por favor ingrese su comentario!