Drag
More
/ AI & COGNITIVE

Hacia la mayéutica cibernética

Reflexión involutiva para el desarrollo de IA fuerte bajo el paradigma contextual entorno-mundo. Un ensayo que propone un enfoque diferente para la formulación de sistemas cognitivos.
29 . 8 . 22
Scroll

Al querer abordar la discusión sobre el modelo simbólico y corpóreo en la neurociencia cognitiva, es inevitable terminar cayendo —casi como cualquier otra rama del conocimiento humano al querer dar luz sobre los temas que propende—en una discusión dicotómica que, si bien no es nueva, parece ser irresoluble. No faltará quien, no sin razón, vea un evidente paralelismo entre el modelo corpóreo y el modelo simbólico —usados para proponer diferentes perspectivas con las cuales aproximarse al entendimiento de las funciones cognitivas y el lenguaje— con la discusión filosófica del idealismo platónico y el materialismo aristotélico. La teología también bebió de tales raudales con San Agustín y Santo Tomás. La lógica y el pensamiento científico prácticamente se construyó sobre los pilares cartesianos de la deducción y la inducción, que son, en últimas, un esfuerzo por la comprensión del mundo entre el pensar y el ser.

Esta dualidad filosófica nació y se alimentó de la principal pregunta que se ha hecho la filosofía —y por lo tanto nosotros mismos— y que es pertinente replantearla: ¿estamos en capacidad de conocer el mundo que nos rodea? Y, si es así, ¿estamos en capacidad de comprenderlo? La neurociencia está elaborando sus respuestas.

...¿estamos en capacidad de conocer el mundo que nos rodea? Y, si es así, ¿estamos en capacidad de comprenderlo? La neurociencia está elaborando sus respuestas.

Qué buscan los modelos corpóreo y simbólico, y por qué sus visiones están íntimamente ligadas con el problema de la existencia y de la conciencia —problema que además ha dejado de ser exclusivamente humano y ha pasado al terreno de lo artificial—. Si la expectativa por lograr sistemas de inteligencia artificial fuertes pasa por develar los mecanismos cognitivos humanos para recrearlos en la “máquina”, convendría preguntarse también si los sistemas artificiales están en la capacidad de conocer el mundo que los rodea. Y, si es así, ¿están en capacidad de comprenderlo?  

Pues bien, está claro que estas preguntas están en el mismo plano epistemológico en el que habitan otras cuestiones profundas como el origen de la vida o del universo, por eso, limitemos el alcance de esta discusión en estos dos (o más) paradigmas que la neurociencia cognitiva y los sistemas de inteligencia artificiales han compartido en un mutualismo investigativo.

Conviene empezar por el modelo simbólico, sencillamente para poner de manifiesto este fuerte puente entre el estudio de la cognición humana y la artificial. Sucede que mediante el paradigma simbólico del pensamiento se ha podido concebir la inteligencia artificial, no de otra forma. Y los simbolistas han visto en esto una oportunidad importante para justificar su visión sobre los procesos cognitivos humanos.

La llegada de los sistemas artificiales supuso una conceptualización de los procesos de la inteligencia para poder ser simulados por las máquinas, pero esta conceptualización se desprende de los sistemas formales que a su vez se basan en la lógica matemática. En últimas, todos estos sistemas abstractos buscan elaborar un modelo de axiomas, símbolos y reglas que permitan extraer características del mundo para obtener demostraciones o teoremas. Este punto de vista formalista, tan antiguo como la lógica, ha ido evolucionando y permeando el quehacer científico al punto de colocar al ser humano y a la máquina en el mismo plano. Es decir, la naturaleza del sustrato (carbono o silicio) es indiferente en el análisis de los sistemas inteligentes. Por eso es que, a la pregunta de si las máquinas podían pensar, Shannon, el padre de la teoría de la información, respondía: “¡Naturalmente! ¡Usted y yo somos máquinas y vaya si pensamos!”. No existen diferencias sustanciales en la forma en que las maquinas neuronales (biológicas o no) procesan la información: una entrada receptora de información del entorno, una salida emisora de respuestas, una estructura de memoria para almacenar los símbolos, un sistema de reglas para la manipulación de los símbolos y un ejecutor central de procesamiento.

Desde la publicación de la hipótesis de Sistema de Símbolos Físicos en 1975 hasta hoy, ha existido mucha controversia, no solo en el campo de la inteligencia artificial (por antonomasia simbólico), sino en el campo de la neurociencia. Pensar en el cerebro humano como una máquina significó una ventaja de cara al estudio teórico del procesamiento cognitivo — nuevamente, por el hecho de conceptualizar eficazmente los procesos cognitivos—, pero no con ciertas inconsistencias propias de la formalización. Y si bien algunos creen que el modelo simbólico no es el paradigma adecuado para la investigación neurocientífica, es y seguirá siendo un punto de partida cómodo para el análisis y modelamiento de los procesos mentales, y para la discusión.

Véase, por ejemplo, el reciente artículo The Structure of Systematicity in the Brain (Randall et al., 2022) publicado hace poco por el Centro de Neurociencia de la Universidad de California. Buscando proponer una explicación a la sistematicidad de la inteligencia humana, los autores proponen un modelo que se fundamenta en las vías de procesamiento visual del cerebro, en las que la corteza parietal codifica las relaciones de estructura (representación abstracta de espacios, tareas, eventos) y la corteza temporal el contenido o las cosas especificas (personas, lugares). Esta separación de estructura (sintaxis) y contenido (semántica) —que también influye en el estudio del lenguaje—, combinada con ciertos modelos neuronales consistentes con esta separación, les permite a los autores proponer que el cerebro humano aprovecha esta arquitectura para la generación de nuevos elementos. Es decir, a través de las corrientes dorsales y ventrales se pueden obtener diferentes niveles de interacción, que no solo sirven para representar sistemáticamente las relaciones de estructura y contenido, sino que, a la vez, sirven para crearlas. Al final, incluyen el hipotálamo, como órgano de “memoria” temporal integrador, que apoya el aprendizaje de nuevas relaciones de estructura y contenido.

Evidentemente, este articulo configura un esfuerzo por describir un sistema lógico en el que el cerebro humano pueda combinar elementos independientes, como argumentos de una función, mediante reglas definidas para obtener un numero abierto de comportamientos diferentes. Es decir, representar la sistematicidad y generatividad de la inteligencia humana. Un vistazo a la creatividad desde la lógica.

Este enfoque simbólico, procedural o mecánico para obtener explicaciones acerca de los procesos dinámicos y complejos del comportamiento, contiene en sí mismo una enorme paradoja: solo puede ser demostrado mediante mecanismos abstractos construidos bajo esa misma sistematicidad. Es por eso del enorme puente con la inteligencia artificial. Si los autores del artículo citado anteriormente (u otros) lograran construir las redes neuronales artificialmente y comprobar que el modelo propuesto comprende mejor la naturaleza de la inteligencia humana, habrán demostrado que su modelo sirve, pero nunca que la inteligencia humana funciona de esa forma.

Pero entonces: ¿de qué manera podemos abordar la comprensión de la inteligencia sin acudir a la extrema formalización de sus propiedades? Manuel de Vega ha sido un férreo contradictor del paradigma simbólico, defendiendo un enfoque que sí tiene en cuenta el sustrato en el que habita la inteligencia, y más que el sustrato, su corporeidad. Es su artículo Lenguaje, corporeidad y cerebro: Una revisión crítica (2005), de Vega sostiene que el significado, en el lenguaje, no es un asunto estrictamente de simulación mental —que se recrea en el cerebro mediante la computación de símbolos abstractos—, sino que es el resultado de la interacción del cuerpo con el aprendizaje del significado. Es decir, que el cerebro —fuera de ser ya de por sí un órgano corpóreo—usa el cuerpo no solo como un mecanismo sensorial, sino también como un mecanismo representativo en la comprensión del significado. Esto es, que en la simulación y planificación mental se ejecuta la imagen del cuerpo y su relación con el espacio o la acción, y, claro, como la comprensión del significado se da a partir de la experiencia, su representación mental activa las capas sensoriomotoras asociadas.

Esto es revelador porque pone de manifiesto un componente que los sistemas formales, y por lo tanto el paradigma simbólico, no considera constitutivo: el cuerpo. O mejor, la experiencia del cuerpo con el entorno. Es decir, pasar de obtener la información del entorno mediante las entradas del sistema —donde ya se incluye el contenido semántico (como un diccionario)—, a construir el significado de esa información directamente mediante la experiencia con el entorno.

Puede que de Vega no lo sepa —o seguramente sí—, pero el enfoque corpóreo no solo plantea una solución diferente al modelamiento de los procesos cognitivos y del lenguaje introduciendo al cuerpo, sino que pone en evidencia una realidad imprescindible para el entendimiento del desarrollo de nuestra inteligencia —y, por lo tanto, para la creación de nuevas inteligencias—: el cuerpo como un mecanismo de procesamiento semántico, cuya entrada es la experiencia del mundo. Una especie de capacidad enactiva del sistema. Aunque, para eso, debemos incluir al entorno (como lo veremos más adelante).

...pone en evidencia una realidad imprescindible para el entendimiento del desarrollo de nuestra inteligencia —y, por lo tanto, para la creación de nuevas inteligencias—: el cuerpo como un mecanismo de procesamiento semántico, cuya entrada es la experiencia del mundo.

Se puede apreciar que mucha de la discusión entre lo simbólico y lo corpóreo se ha dado en el terreno del lenguaje: en cómo el procesamiento de la capacidad humana del lenguaje puede darse en el cerebro o cómo, mediante sus componentes gramaticales de estructura y contenido, podemos elaborar mejores modelos cognitivos. Casualmente, mediante el análisis de los recientes avances tecnológicos de NLP (Natural Language Processing) podemos hacer una interesante alegoría.

GPT-3 (Generative Pre-trained Transformer 3) es la más reciente red neuronal profunda con transformadores de Open-AI para el procesamiento de lenguaje natural. Su funcionamiento se basa en modelos cognitivos meramente simbólicos y sus resultados son tan impresionantes que se obtienen textos indistinguibles de los escritos por un humano. Y, a pesar de que esta red pueda obtener resultados tan sofisticados y asombrosos, lo hace sin comprender lo que escribe. Tal como lo dice de Vega, los simbolistas estarán muy felices por demostrar que los sistemas vivos o no vivos pueden hacer uso del lenguaje apropiadamente solo con el uso y manipulación de sus símbolos sin necesidad de comprenderlo, pero, evidentemente, así no es como sucede en nuestro cerebro, o por lo menos no se “siente” que seamos capaces de usar el lenguaje de esta forma computacional, donde el significado o el referente es un mero requisito lógico.

Podríamos decir, entonces, que GPT-3 usa el lenguaje con el contexto, los referentes y la lógica que nosotros hemos construido para nuestro lenguaje —porque GPT-3 no se inventó el lenguaje, elabora mediante la simulación lo que a nosotros nos tomó siglos construir—. Parece un Perogrullo, pero: simular un comportamiento cognitivo no es igual a realizar ese comportamiento cognitivo. GPT-3 puede simular el lenguaje, pero no con esto podemos asegurar que está realizando esos procesos del lenguaje y, por lo tanto, no podemos asegurar que es un sistema inteligente. GPT-3 no es más que una habitación china con Searle dentro, y, aun así, es sorprendente.

Conviene indagar si, entonces, esto tiene que ver con el esfuerzo evolutivo que le ha tocado asumir al ser humano para construir sus procesos cognitivos. Es evidente que el niño, que recién está aprendiendo a hablar, repita e imite sin entender del todo el significado —lo que puede ser comparado a la simulación computacional—, pero ya hay un sustrato genético y por lo tanto evolutivo en el uso y función del lenguaje dentro de su pensamiento. El aprendizaje es un componente evolutivo y experiencial.

Evolución en la que, mucho antes de que la inteligencia existiera (y los símbolos, y la lógica, y el lenguaje), existió el sistema corpóreo que procesó y se adaptó al entorno a través del cuerpo y no con el cerebro —como lo hacen otras especies de otras ramas evolutivas como las plantas—. Ya la neurobiología vegetal está en la labor de investigar estos mecanismos adaptativos, pero, claro, reivindicar el papel del cuerpo en el modelamiento de la arquitectura cognitiva, no implica, como se mencionó antes, ¿que la experiencia es un proceso semántico? ¿Y si el significado —además de ser una representación simbólica en la corriente ventral, o de ser una representación sensorial interpretativa del cuerpo— está en el entorno?

Un ejemplo sencillo podría ser: pensar en el calor o el frío. Está claro que, desde el modelo simbólico, hemos convenido una abstracción mental para entender qué son estos fenómenos y sus interacciones. Desde el corpóreo, es evidente que nuestros sistemas sensomotores están diseñados para experimentar estos fenómenos e interpretar sensorialmente sus consecuencias. Y, sin embargo, los sistemas no inteligentes (y cualquier sistema) también reconocen e interpretan el mismo contenido semántico. Esto es más que un simple asunto fenomenológico. Sabemos que uno nos dinamiza y calienta hasta el punto de quemarnos, como que el otro nos ralentiza y enfría al punto de congelarnos; y es así, independientemente del nivel de conciencia del sistema, o de si cuenta con mecanismos sensoriales. Sucede en nosotros, como en los animales, las plantas, la materia, las máquinas, etc. El único sistema en el que no sucede es en la inteligencia artificial. La abstracción es una restricción del entorno y por lo tanto siempre obtendrá una falsa o nula comprensión del significado.

La abstracción es una restricción del entorno y por lo tanto siempre obtendrá una falsa o nula comprensión del significado.

Si bien la semántica cognitiva, de principio experiencialista, reconoce el entorno —precisamente en una visión objetivista y realista: como el mundo al que pertenecemos—; no cree que el significado pueda ser un objeto ontológico del mundo porque limita la interpretación semántica a la experiencia humana. Al intuir, por ejemplo, que las proyecciones metafóricas o metonímicas no son posibles en otros sistemas cognitivos diferentes al nuestro, le arrebata la función semántica al objeto y se la da la mente (o al cuerpo) humana. Creo que es un error. La forma en la que gestionamos el significado los humanos es una “tecnificación evolutiva” resultante del desarrollo de nuestra inteligencia, pero que parte de la primitiva relación semántica del sujeto con el entorno-mundo. Incluso, si el enfoque simbólico reclama por las abstracciones mentales y el corpóreo por la representación mental del cuerpo en esas abstracciones; ¿no resulta sugerente pensar que se puede ampliar el panorama de la figura mental hasta la aparición de un espacio y de las relaciones con objetos? ¿No son los sueños una posibilidad de nuestra mente en la que se producen representaciones mentales de carácter predominantemente espacial, más que corporal? Haga el ejercicio el lector de recordar un sueño en el que no fuera consciente de tener cuerpo y, sin embargo, estar inmerso en un entorno, con objetos. Y, ahora, inténtelo al contrario.

Por qué no pensar que el cuerpo, más que un intérprete semántico, es un elaborador sintáctico, y los sentidos una coordenada para la referencia del contenido semántico del entorno. La planta, por ejemplo, usa su “cuerpo” para ubicarse dentro del flujo semántico de su entorno, no para entenderlo.

El punto es, que el entorno no es un mero proveedor de información o un in situ para la experiencia cognitiva, sino que cuenta con mecanismos para aportar (estímulos) o restringir (condicionantes) la realidad semántica de los sistemas inteligentes. Es decir, el entorno-mundo cumple la función de contexto en el sistema cognitivo, que a su vez es una fuente semántica. No se piense que al referirnos al entorno se está hablando de un escenario o unos objetos inactivos, el contexto tiene que ver con la interacción de esos elementos entre sí y con el sistema cognitivo. Todo sin siquiera introducir la figura del otro, que esencialmente hace parte del entorno.

Por lo tanto, esta primera mirada hace pensar que una máquina solo podrá ser inteligente en la medida que pueda construir “esa inteligencia” a partir de la propia experiencia resultante de la inmersión en un entorno. Si esto no es así, mejor pensemos en cuánto tiempo le tomará el perro tener la inteligencia humana que está mucho más cerca de lo que cualquier sistema artificial.

Siguiendo el análisis retroevolutivo para evidenciar el aprendizaje y los procesos cognitivos en las especies, ¿qué sería de la pregunta que Platón y Aristóteles se hicieron en nombre de toda la humanidad, sin que Sócrates no les hubiera enseñado a preguntarse antes? Antes de la pregunta estuvo la capacidad de preguntarse; como antes de la inteligencia, la posibilidad corpórea de procesar el mundo, y, mucho antes, el mundo como tal. La inteligencia artificial debe apuntar a obtener su propia mayéutica y eso no es posible si seguimos simulando desde lo simbólico el razonamiento humano, pero tampoco es suficiente con añadirle la dimensión corpórea, como tampoco la conexionista o la evolutiva.

Antes hablábamos de que el aprendizaje es evolutivo y experiencial, es decir se obtiene del entorno y se acumula. Nada de esto está pasando en los sistemas de aprendizaje automático o profundo. Son entrenados en una tarea con información virtualizada de la realidad para luego caer en el “olvido catastrófico” al entrenarlos en otra. Nada toman del entorno, ni para aprender ni para crecer. Y si un sistema no tiene acceso al entorno no se puede transformar. Por eso es necesario explorar nuevos enfoques cognitivos que le permita a los sistemas inteligentes ser vistos como organismos de tipo abierto, en el que puedan existir intercambios de información con el entorno y a partir de esto haber una transformación autopoietica (emergencia y autoorganización).

Mucho antes que el cerebro, los animales, las plantas, Platón o Sócrates, estuvo el organismo unicelular —que es el punto de partida de la vida y, por lo tanto, de nuestra inteligencia, artificial o consciente—. Esa sencilla célula fue un sistema que, visto bajo la lupa del tiempo, se sometió a un proceso de aprendizaje que, lejos de ser estático —es decir, obtuvo información del entorno, procesó una respuesta óptima y la almacenó—, usó el flujo semántico de su entorno para transformarse.  Entonces, el conocimiento es un proceso de consumo del entorno, “sintetización” y transformación del sistema cognoscente. En últimas, de no ser así, no hubiera podido evolucionar y por lo tanto no hubiera sobrevivido.

Además, nótese que una enorme diferencia de los sistemas inteligentes artificiales con los biológicos radica en la programación de su propósito. Mientras el primero contiene instrucciones detalladas intrínsecas, el segundo está supeditado a las reglas extrínsecas: el entorno. Incluso, se ha discutido ampliamente sobre la falsa metáfora computacional de que el ADN es el código de los organismos biológicos porque este modelo no responde de forma efectiva a la presencia de interacciones de retroalimentación del entorno y la real complejidad de los organismos vivos.

Si bien este enfoque que propongo toma fundamentos de las tesis que la ciencia cognitiva corporizada ha promulgado, no se limita a ellas, ni toma al cuerpo del sistema como protagonista fundamental de la arquitectura cognitiva. Por supuesto que es necesario un cuerpo, pero como encarnación del sujeto dentro del entorno, y como receptor y promotor de las transformaciones que resultan de interactuar con el ambiente. Por lo que, este enfoque —que podía llamarse contextual— requiere de la corporización del sistema inteligente, pero principalmente requiere de mecanismos que permitan acumular, consumir y/o desechar la información del entorno. Adicionalmente, es importante aclarar que la presencia del cuerpo no es necesaria per se, sino que solo es un componente para contextualizar el entorno (de nuevo, para encarnar el proceso cognitivo).

El perceptrón (neurona artificial) es una representación simbólica excelente de la neurona del cerebro. De esta abstracción, se generaron los modelos neuronales y los algoritmos de aprendizaje profundo (deep learning) que han generado tanto interés recientemente. Los desafíos computacionales en el procesamiento de información oculta o de inferencia en grandes fuentes de datos, han potenciado el uso de estos algoritmos avanzados a costa de una alta demanda energética. Es decir, los modelos neuronales han obtenido de la máquina una oportunidad computacional de procesamiento, pero con las restricciones propias del plano digital. La discretización de los procesadores electrónicos, que garantiza la exactitud de los cálculos, limita la capacidad de resolver problemas no lineales y caóticos con su base binaria de procesamiento, sumado a la imposibilidad de miniaturización infinita de sus componentes. No sucede así en las redes neuronales biológicas, que son de naturaleza análoga y continua. Con esto cabe señalar, que la corporización también es importante por el hecho de manejar los elementos dinámicos y naturales de nuestro mundo. Esta visión analógica de la computación hace mucho está en desarrollo para el avance de la inteligencia artificial. Hoy en día, existen importantes esfuerzos de diseño, ingeniería y desarrollo en la creación de componentes de computación analógica —incluso, de redes neuronales físicas que procesan señales ópticas— que resuelven más rápido y a menor costo energético las demandas de procesamiento del deep learning.

Si bien esto no es propiamente una corporización cognitiva, da luz sobre las diferentes posibilidades de concebir sistemas cognitivos artificiales que salgan de la burbuja de abstracción formal y se tangibilicen. Y este pequeño paso que la ingeniería está dando hacia el aprovechamiento de los recursos del entorno en la elaboración de la arquitectura cognitiva, se acumulará y permitirá otros avances. De la misma forma que un niño, que naciese hoy —esencialmente idéntico a uno que naciese hace un siglo—, consume los avances tecnológicos de su entorno para aprender y comprender el mundo de una forma diametralmente distinta a la de su antepasado. Otra prueba más de que el entorno alberga un contenido semántico.

Incluso, la conciencia —un tema aún esquivo para la neurociencia— se puede categorizar en función del entorno. Hablábamos antes de que el entorno era el contexto sobre el que se despliega el sistema cognitivo, pues, entonces, la conciencia de ese sistema se puede medir proporcionalmente a la sensibilidad y la dependencia del contexto. Una planta, por ejemplo, tiene poca sensibilidad y alta dependencia del contexto, está sujeta al flujo semántico del entorno y, sin embargo, no tiene mecanismos cognitivos para reconocer ese influjo. Un perro, por el contrario, depende medianamente del contexto y es medianamente sensible a él; aún requiere del contenido semántico del entorno para ciertas funciones cognitivas, pero está dotado con mecanismos para detectarlo. El humano, en la cima de conciencia de los sistemas cognitivos, tiene una alta sensibilidad e independencia del entorno. En ese sentido, la personalización de la mente humana es el culmen de su emancipación del contexto, y el lenguaje es un instrumento de alta sensibilidad para la interpretación del mismo.

¿Y si el lenguaje es un metasentido cuya función perceptora es interpretar el flujo semántico del entorno? ¿La matemática no es acaso un dispositivo para medir, sentir, interpretar la realidad física de nuestro universo? ¿No es el pensamiento un dialogo (en términos de lenguaje) entre el sistema cognitivo y su entorno interior?

¿Y si el lenguaje es un metasentido cuya función perceptora es interpretar el flujo semántico del entorno?

La psique humana, durante el desarrollo infantil, nos deja ver el despliegue de un sistema cognitivo a medida que su nivel de conciencia avanza. En el vientre, la sensibilidad del entorno en el feto es mínima y su dependencia altísima. Nacer es un proceso externo del sistema cognitivo, cuyo significado se le impone a fuerza de aumentar su nivel de sensibilidad drásticamente, pero sin la capacidad de interpretar aún. A medida que el bebé crece, su psique va organizando el contenido semántico del contexto; lo que en un principio es un todo para el lactante —cuerpo, madre, pecho, mundo— se va separando hasta establecer las fronteras del cuerpo, y le da paso a la noción del “yo distinto a todo lo demás” (independencia del contexto). Eventualmente, la criatura elaborará el mundo mediante los sentidos y, sin embargo, solo hasta la llegada del habla podrá etiquetarlo e interactuar adecuadamente con él (en los términos que el contexto y su flujo semántico lo exige).

Pensar en el lenguaje como un sentido —o como un input, en términos simbólicos— es coherente con los últimos avances en reconocimiento de imágenes presentados por Openai con su red neuronal CLIP (Contrastive Language-Image Pre-training). La red CLIP usa el lenguaje —o el modelamiento del lenguaje natural como GPT-3— para extraer representaciones visuales de las imágenes y supervisar el aprendizaje. Esto es, un aprendizaje multimodal que usa el lenguaje como extractor semántico de las imágenes para la generalización en clasificación. ¿Y si quisiera usar el lenguaje no como extractor sino como impresor de contenido semántico? Véase DALL-E 2.

Ya sea por el lenguaje o los sentidos, la sensibilidad del contexto le da al sistema cognitivo la oportunidad de situarse él mismo dentro del entorno, pero no se explica claramente cómo una mayor sensibilidad se correlaciona con mayor independencia. Esto tiene relación con la capacidad de planificación e imaginación. Es decir, librarse del flujo semántico del entorno real a través de la representación de un entorno mental dentro del sistema cognitivo. Nótese que esto tiene equivalencia con el enfoque simbólico y corpóreo —en la capacidad humana de elaborar representaciones—, pero, nuevamente, más allá de lo conceptual y la presencia del cuerpo en la figura mental, las acciones tienen un componente contextual. No solo el significado se construye en función del entorno, sino que se representa a partir de él.

En el artículo Interacciones cognitivo-motoras: el papel de la representación motora (Esparza & Larue, 2008), los autores describen el modelo de tratamiento y configuración motora, que tiene lugar en la corteza cerebral, como un conjunto de interacciones, en secuencia o en paralelo, entre la corteza parietal-frontal (movimiento automatizado) y la corteza parietal-prefrontal-frontal (movimiento planificado). El uso intensivo de la corteza prefrontal se asocia a la representación del movimiento en la planificación, lo que significa: un uso de las vías dorsales y ventrales (las mismas del sistema visual de Goodales y que participan en la generación de emergencia y sistematicidad). La vía dorsal, dice el artículo, es la “vía de la acción”, que define las características de los objetos en las acciones, y la ventral, la “vía de percepción”, contribuye a las representaciones perceptivas de los objetos.

Esto permite que, en la ejecución de la acción motora, se realice una actualización online de la respuesta motora mediante su representación. Es decir, la mente representa e imagina la acción de forma implícita constantemente para anticiparse a la respuesta motora explicita. En la acción de movimientos automatizados, dicha imaginación motora disminuye, y en movimientos planificados o nuevos, aumenta. Pero, además, también sugiere que durante la imaginación motora la activación cortical es la misma que si se estuviera realizando la acción motora.

Esto coincide con el modelo corpóreo, pero también con la idea de que la independencia del contexto de los sistemas cognitivos se mide en su capacidad de recrear el contexto en su mente, es decir de aprehenderlo para no obtener el significado de forma extrínseca, sino también intrínseca. Esto no lo emancipará del todo ya que, además de estar sometido al entorno-mundo, necesitará extraer nuevos significados en un contexto desconocido o cambiante.

Pues bien, si la conclusión es que un sistema cognitivo determina su nivel de conciencia en función de su entorno, y que, además, el conocimiento es un proceso de consumo de este entorno para la transformación del sistema cognoscente; no sería plausible pensar que podemos recrear la conciencia artificial en esos términos y con estas variables que se han propuesto.

Imaginemos por un momento crear un prototipo que tenga cierto grado de sensibilidad de su entorno para percibir sus significados (puede ser mediante el lenguaje como sentido), con capacidad para emerger una repuesta en función de esto y para acumular este comportamiento. Esto nos abriría, sin duda, la puerta para una inteligencia artificial fuerte, así sea de forma muy incipiente.

GRUPO TUINNO

Comencemos a crear experiencias que cambien la vida de nuestros clientes

¡INNOVEMOS JUNTOS!