El grupo (de investigación) holandés que se reúne alrededor de Han van der Maas publica en ‘Perspectives on Psychological Science’ un extenso artículo en el que vuelve a la carga con un macuto repleto de fórmulas y simulaciones que despertarán un temor insuperable en el más intrépido lector.
Su campaña, iniciada hace ahora casi 15 años y dirigida a entender el constructo de la inteligencia humana de modo que se evite el recurso clásico al factor general de inteligencia (g) no cesa. Probablemente obtener suculentas ‘grants’ del ERC debe justificarse con productos visibles en los mejores locales.
Se propone en este artículo que la inteligencia humana se puede conceptualizar (formalmente) como redes que evolucionan y en las que se van cableando nuevos hechos y procedimientos durante el proceso de desarrollo. Esa propuesta se relaciona con alternativas que persiguen un objetivo similar (los modelos de muestreo, o los modelos de interacción genes-ambiente). Se pretende dar cuenta del fenómeno del solapamiento positivo (la correlación positiva entre el desempeño mostrado por los humanos ante una variedad de tareas cognitivas) sobre el que se ha construido el modelo de factor g, usando vías alternativas.
Señalan, eso si, un hecho relevante: la inteligencia se considera una característica del individuo, pero el factor g proviene de la comparación de individuos (J. P. Guilford demostró en la década de los 50 del siglo pasado que no hay ninguna contradicción ahí, pero ya se sabe lo mal que se trata a los clásicos).
En los modelos tradicionales (por lo que se deduce de su texto, les gustaría usar el término ‘jurásicos’) g se considera como una entidad causal. Los modelos mutualistas, en cambio, rechazan que sea necesario considerar g de ese modo. Es una mera hipótesis.
Probablemente el punto esencial del contraste entre los distintos tipos de modelos que se han propuesto para dar cuenta del solapamiento positivo es que “no pueden distinguirse estadísticamente y tampoco son abiertamente contradictorios (…) aunque eso no significa que sean equivalentes en cuanto a su poder explicativo.”
Como es habitual en las propuestas de este grupo de investigación, su argumentación se centra en supuestos razonables y en casos hipotéticos sobre qué podría suceder si se diesen determinadas circunstancias.
La parte nuclear de su artículo distingue entre ‘inteligencia cableada’ (wired intelligence) e ‘inteligencia en proceso de cableado’ (wiring intelligence). El primer caso se refiere al solapamiento positivo y la estructura jerárquica de la inteligencia. En el segundo caso se atacan fenómenos asociados al desarrollo (p. e. el efecto Mateo y la diferenciación de la inteligencia según la variable edad).
Como se ha comentado, se concibe la inteligencia humana como “la red de un individuo en la que se relacionan sus habilidades cognitivas y sus conocimientos (pero también como) redes que evolucionan y van conectando nuevos hechos y procedimientos durante el desarrollo.”
La siguiente figura ilustra cómo podría ser esa red en dos individuos diferentes.
Personalmente las declaraciones y supuestas demostraciones de este grupo me resultan abstrusas como poco. Observen un ejemplo paradigmático:
“Concebimos el desarrollo como el añadido a la red cognitiva de nodos y conexiones ausentes hasta el momento y que pueden representar piezas de conocimiento obtenido y no obtenido.”
Si entienden ustedes esta declaración les agradecería que me lo explicasen.
También son especialistas en hacer promesas que no terminan de cumplirse:
“El mecanismo de desarrollo que proponemos no puede garantizar que se mantendrán las propiedades del modelo estático [wired intelligence, recuerden] tales como el solapamiento positivo.
Por tanto, para que el modelo no se desmorone durante el proceso de desarrollo, imponemos una restricción para que esas propiedades se mantengan.
En esencia, reparamos la red si observamos que se desvía del modelo estático emparejando de nuevo el conjunto más reciente de nodos añadidos
(…) la restricción nos conviene, matemáticamente hablando, aunque no refleja un hecho empírico.”
No hay problema. Se parchea y todo arreglado. Y lo de que el modelo se aleje de fenómenos empíricos constatados es un mero detalle (al igual que la causalidad del factor g es una mera hipótesis).
Ellos consideran que el factor g es una “misteriosa entidad latente”, pero sus trapicheos matemáticos son, naturalmente, perfectamente aceptables y legítimos.
No les importa ignorar por completo el ingrediente esencial de la inteligencia para centrarse en lo que más les conviene. Al menos lo admiten abiertamente:
“Nuestro modelo se refiere al componente cristalizado de la inteligencia general (…) y se deja a un lado el componente fluido.”
Se le puede dar vueltas a esta clase de propuestas hasta acabar mareado, pero, pensamos algunos, solo comenzarán a ser verdaderamente interesantes cuando puedan gestionar razonablemente los hechos conocidos sobre el tipo de conductas que expresan los humanos y que denotan inteligencia.
Otra posibilidad es considerar seriamente eso de que los distintos tipos de modelos (causa común, interconectados y muestreo) “no pueden distinguirse estadísticamente y tampoco son abiertamente contradictorios” para buscar evidencia en otros lugares que contribuyan a discriminar su capacidad explicativa.
Esa última posibilidad es la que estamos gestionando John Protzko, de la Universidad de California en Santa Bárbara, y un servidor, usando la evidencia sobre el impacto cognitivo de las lesiones cerebrales locales y crónicas. No hacemos más que seguir el ejemplo del propio John cuando intentó entender por qué no funcionaban como se esperaba los programas de entrenamiento cognitivo.
Como pueden ustedes imaginar fácilmente, al grupo holandés que fue protagonista de este post ni se le pasa por la cabeza aplicar una estrategia de esa naturaleza. Ante una limpia simulación sobran los sucios hechos.
Las simulaciones son cojonudas (cuando están bien hechas), porque nos ayudan a aproximarnos a la realidad de lo que se está estudiando con una precisión sin precedentes y seguir avanzando en el camino. Ahora bien: son un arma de doble filo cuando se parten de premisas falsas o se usan indiscriminadamente bajo el yugo de el sesgo de confirmación. Lo mismo ocurre con la estadística. Son armas potentes, ambas ‘hijas’ de la todopoderosa matemática… pero detrás de todo siempre estamos los imperfectos humanos, con nuestras limitaciones cognitivas y nuestras preferencias que nos sesgan a cada paso que damos la mayoría de las veces…
Me pregunto si ese panorama cambiará cuando la IA general haga su aparición con su promesa de ser parecida a nosotros pero mucho más capaz y sin arrastrar nuestros sesgos (si de verdad podemos conseguir que cumpla todo esto, sobre todo lo último…). En fin, me he levantado un poco ‘filosófico’.
Saludos.
Me gustaMe gusta