Ciencia cognitiva
Carlos Reynoso
UNIVERSIDAD DE BUENOS AIRES
[email protected]
[email protected]
Objetivos
Comprender la mente puede ser
menos complicado de lo que
nuestra vanidad espera o
de lo que nuestro intelecto teme.
- Rodolfo Llinás, 1986
• Elaborar una presentación de la disciplina desde el
punto de vista antropológico.
• Mostrar formas complejas de entendimiento
(posible) entre antropología y otras disciplinas
• Poner de manifiesto las limitaciones inherentes a las
concepciones antropológicas de los conceptos
cognitivos esenciales
– Conocimiento, símbolo, representación, mente,
aprendizaje, lógica, pensamiento, imagen, inteligencia,
memoria
Agenda
• Historia de la ciencia cognitiva
– Psicología cognitiva*
– Inteligencia artificial, GOFAI
– Inteligencia artificial, conexionismo
• Antropología cognitiva
• Conclusiones
• Trabajos pendientes & Referencias
Definiciones
• “Cognición” – Se puede encontrar a fines del siglo
XIX (Wilhelm Wundt, William James)
• Ciencia cognitiva = estudio de la mente o de la
inteligencia
• Reemplazó a la idea de Inteligencia Artificial
• Modelo de caja gris – Restitución de la mente
• Investigación multidisciplinaria: psicología,
neurociencia, antropología, filosofía, lingüística,
computación científica, biología
La “revolución cognitiva”
•
•
•
•
MIT, 11 de setiembre de 1956 (11 al 13)
Miller, Mágico número siete
Newell y Simon – Logic Theorist, GPS
Declinación (momentánea) de la neurociencia y
auge de la lingüística
• Chomsky – Tres modelos
para la descripción
del lenguaje
– 1957: Syntactic structures
– 1958: Review de Verbal
behavior de Skinner 
Chomsky sobre Skinner
• Cuestionamiento de la idea de que el lenguaje se puede
insuflar via entrenamiento animal
– Estímulo – Refuerzo – Privación
• Predecir y controlar comportamiento verbal manipulando
variables de entorno.
• No habría restricciones de especie.
• La contribución interna del hablante sería poco esencial.
La revolución…
• Chomsky (28 años a esa fecha)
– No es viable un modelo de producción lingüística
derivado de la teoría de la información de Shannon.
– Base de su concepción de lenguajes formales y sus
autómatas.
– Base de los métodos formales en computación y de los
compiladores de lenguajes formales.
– Primer modelo “matemático” del lenguaje.
– Segunda (o tercera) revolución lingüística.
George Miller
• The Magical Number Seven, Plus or Minus Two: Some
Limits on Our Capacity for Processing Information (1956)
– Sólo se aplica a juicios o estímulos unidimensionales, no a
recordar (por ejemplo) caras o lugares.
– Capacidad de canal equivalente a 2.5 bits (unas 6 alternativas) – Se
aplica a percepción, procesamiento y memoria.
– “En realidad no hay ninguna magia en relación con tantos otros 7s;
sólo una perniciosa coincidencia”.
– Entre las coincidencias incluye las 7 notas de la escala musical, lo
que sin duda es un error suyo.
– No está demostrado que se aplique a la memoria a corto plazo.
– Se ha convertido en una especie de mito urbano.
– Elizabeth Rice (1980) – Cultural schemata.
Anthony Wallace
• “On being just complicated enough”, 1964 [disp]
• Aunque el tamaño y complejidad de las sociedades
varía enormemente, la dimensión del sistema de
términos de parentesco no lo hace
• Para transformar el número de términos en una
cifra que sirva para medir complejidad, computó
log2 1/L
• Número de elecciones binarias necesario para
producir un sistema de tamaño L
Anthony Wallace
• Todos los sistemas taxonómicos se pueden
acomodar en un espacio que requiere 6
dimensiones binarias o menos
Anthony Wallace
• 26 = 64
• “Conjuntos contrastantes” = espacios
taxonómicos, o sistemas institucionalizados
de discriminación
• Formas verbales en inglés, 61; 64 cuadrados
en un tablero de ajedrez, menos de 64
términos numéricos básicos; menos de 64
rangos militares, etcétera
Otros hitos
• 1960 – George Sperling – Memoria icónica
• 1967 – Ulric Neisser – Psicología cognitiva
– Modelo computacional para memoria,
razonamiento, percepción
• 1969 – Modelos de la función cerebelar y
de la visión de David Marr 
• 1970s – Journals: Cognitive Psychology,
Cognition, Memory & Cognition
David Marr [1945-1980]
•
•
•
•
Fundador de la neurociencia computacional
Modelos de procesamiento visual:
Fisiología +IA+psicología
Entender el cerebro presupone entender los
problemas que se le plantean y las soluciones que
encuentra
• Tres niveles de análisis:
– El problema que la visión enfrenta (computacional)
– La estrategia que puede usarse (algorítmico)
– Cómo se realiza de hecho la actividad neuronal
(implementacional)
David Marr [1945-1980]
• Proceso visual en tres etapas:
– Esbozo primitivo (primal sketch), extrayendo rasgos de
componentes fundamentales de la escena (bordes,
regiones, etc)
– Un esbozo de 2,5 dimensiones. Se reconocen sombras,
texturas, etc
– Un modelo continuo en 3 dimensiones
• Dinámica de aprendizaje/optimización, que
anticipa los métodos de los algoritmos naturales**
David Marr [1945-1980]
• “Ley del cuadrado inverso” para la investigación
científica:
– El valor de un estudio varía inversamente con el
cuadrado de su generalidad
• Avances en investigación de visión binocular
• El libro casi póstumo de Marr es reconocido como
la Biblia del MIT de visión de computadora.
• Colin Ware – Information visualization (2004)*
• Mallot & Allen – Computational vision (2004)
• Uttal – Computational modeling of vision (1999)
Relaciones interdisciplinarias
Tres modelos contrapuestos
• IA “fuerte” - MIT
–
–
–
–
–
–
Artificial
Ligada a computadoras, lógica
Modelo mecánico
Deducción: cálculo de predicados
Newell-Simon, Russell/Whitehead, Frege
Atomismo, racionalismo
• Conexionismo – Redes neuronales
– Natural
– Simulación del cerebro – The astonishing hypothesis
(Francis Crick)
– Aprendizaje, inducción
– Modelo estadístico, caja negra
Tres modelos contrapuestos
• Neurociencia
computacional*
• Modelos
computacionales del
cerebro o de diversos
componentes funcionales
• Basado en intuiciones de
Andrew Huxley, Alan
Hodgkin y David Marr
GOFAI
Inteligencia artificial
• Dificultad de definir consensuadamente
“Inteligencia”
Propuesta de Alan Turing 
La inteligencia como medida del IQ (G)
Howard Gardner – Teoría de las múltiples inteligencias
La curva de campana (Charles Murray, Richard Herrnstein - 1994)
Discutido por Stephen Jay Gould en The mismeasure of man
(nueva edición, 1996)
– Todavía no hay definiciones aceptadas
– La polémica es hoy explosiva y la antropología no tiene gran cosa
que aportar al respecto, pues carece de método comparativo y de
capacidad experimental. (Cole & Gay)
–
–
–
–
–
La prueba de Turing
• ¿Puede una máquina ser inteligente?
• Sí, si inteligencia se define como la capacidad de
engañar a un interlocutor humano.
• Es posible hacerlo durante un corto tiempo.
• Ejemplos:
– “George” – Página de Simon Laven – http://www.simonlaven.com
– The Postmodern Generator, http://www.elsewhere.org/pomo
• A veces se confunde la Prueba de Turing con la
idea de que el cerebro funciona como una
Máquina de Turing.
La prueba, Enigma, The Bombe & la Máquina
SHRDLU
• Terry Winograd, 1970
Supuestos comunes a la IA
• La cognición humana comparte características con
el procesamiento de información de las
computadoras.
• Ese procesamiento es secuencial y serial.
• Consiste en operaciones discretas.
• La memoria es independiente del procesador.
– Propósito general
• Las operaciones se pueden describir en términos
de reglas como las que caracterizan a los lenguajes
de programación.
Allen Newell y Herbert Simon
• Logic Theorist, 1956
– Teoremas de Principia Mathematica
• General Problem Solver, 1958
• SOAR, hasta 1990s – Arquitectura general para
sistemas inteligentes, todavía activa
Inteligencia Artificial ppd
• John McCarthy, 1958
– Propuso utilizar cálculo de predicados para la
representación del conocimiento.
– Los programas deberían ser declarativos, no
imperativos (o procedimentales).
– También inventó el lenguaje Lisp.
• Procesamiento de listas recursivas.
– Prefiguró los Application Service Providers en 1960.
• Obviamente no prosperó.
– A principios de los 90s reconoció que se la había ido un
poco la mano.
GOFAI
• John Haugeland, 1985 (Artificial intelligence, the very
idea) – Good Old Fashioned Artificial Intelligence.
• N-S - Sistema [físico] de procesamiento de símbolos.
• Hechos y reglas.
• Modelos de programación lógica.
– Prolog, cláusulas de Horn – Alain Colmerauer y Robert Kowalski,
1972
– Algoritmo de resolución de Robinson
• Cálculo de predicados de primer orden.
• Cuantificación universal.
Programación lógica
• PROLOG
– Hechos, reglas, preguntas, hipótesis
– Reglas:
mortal(X) :- hombre (X).
– Hechos:
hombre(socrates).
–
–
–
–
Pregunta extensional (en consulta): mortal(X).
Hipótesis: mortal(socrates).
Las hipótesis tienen la misma estructura de los hechos.
Las únicas respuestas a una hipótesis tienen que ser si o
no.
Aaron
GOFAI - 2
– Sistemas expertos
• Base de datos
• Máquina de inferencia
– Inferencia clínica
• Mycin, Neo-Mycin, Pip, Internist, Dendral, SHRDLU
• AGENI2 (Reynoso)
– Limitaciones del modelo simbólico
• No todo conocimiento puede representarse en términos de
proposiciones o predicados
• Reconocimiento de patrones
• Identificación de instancias diferentes de un mismo objeto
(firmas, huellas digitales)
• Intolerancia a errores o destrucción parcial
Inteligencia artificial
• Aplicaciones antropológicas de IA simbólica
– Sistemas expertos de diagnóstico clasificatorio
– Modelos axiomáticos de la cultura
• Matrimonio Kariera (Kemeny-Snell-Thompson)
– Gramáticas culturales
• Benjamin Colby – Cuentos Ixil
• Análisis funcional del relato (Vladimir Propp)
– Lógicas alternativas
•
•
•
•
Lógica temporal
Lógica no-monotónica
Logica polivalente (Lukasiewicz)
Lógica difusa (Lotfi Zadeh)
Limitaciones técnicas de GOFAI
• Sólo buena para campos conocidos de manera
analítica y exhaustiva.
• Poca tolerancia a errores.
• Representación sintáctica, no realmente semántica.
• Reconocimiento de patrones prácticamente
imposible.
• Carente de capacidad de recuperación ante
destrucción parcial.
• No muy eficiente para implementar aprendizaje.
– El aprendizaje es mayormente inducción.
Descrédito de la IA fuerte
• Promesas no cumplidas – Invierno de la IA desde 1988
• Sistemas expertos exitosos, pero sólo útiles para tareas de
diagnóstico
– Varios SE embebidos en sistemas operativos
• Fracaso histórico del programa japonés de máquinas de
Quinta Generación
– Proyección original de 5 mil millones de dólares
• Prolog no puso soportar la competencia de lenguajes
procedimentales, particularmente C++
• Queda como tecnología de nicho para sistemas basados en
reglas, cálculos de riesgo crediticio, diagnósticos varios
Conexionismo
Problema no tratable analíticamente
• ¿Cuántos grupos de objetos hay?
Otro más
Fotografía de R. C. James, 1970s
Otro
Procesos diversos
• El cerebro trabaja en el rango de los milisegundos
(10-3) y las computadoras en el orden de los
nanosegundos (10-9).
• Sin embargo, el cerebro reconoce formas y
patrones mucho más eficientemente.
• No es posible que lo haga mediante muchísimos
procesos unitarios y secuenciales: no habría
suficiente tiempo.
• Trabajos mucho más sencillos (calcular) le
insumen tiempos comparativamente enormes.
Redes neuronales
(Presentación separada)
Conexionismo
• Redes de McCulloch – Pitts (1943)
–
–
–
–
Neuronas como puertas lógicas
Pesos: sinapsis excitativas, s. inhibitorias
Capacidad de computación universal
Máquina de lectura para ciegos, percepción gestáltica
• Von Neumann, Winograd
– Redundancia en redes de McC-P para tolerancia a errores
• Sinapsis de Hebb (1949)
–
–
–
–
Basado en Ramón y Cajal
Modelo distribuido (hologramático)
Aprendizaje: redes neuronales adaptativas (McKay, Uttley, 1950)
Reconocimiento de patrones
Conexionismo
• Perceptrones (Frank Rosenblatt)
– Entrenamiento para distinción de patrones
– Unidades sensoriales y motoras
– Aumento o disminución de pesos (conductismo)
• Seymour Papert / Marvin
Minsky (1969)
– Distinción entre T y C, con
rotación etc
– No pueden resolver XOR y
funciones lógicas que requieren
más alto nivel de tipificación
Modelos ulteriores
• Redes de Hopfield
– Spin glass: Problemas de optimización, vendedor
ambulante (simulación de templado, AG, etc) –
Atrapadas en configuraciones metaestables
• Máquinas de Boltzmann
–
–
–
–
–
–
–
Múltiples capas
Propagación hacia atrás
Kohonen: entrenamiento no asistido
Resolución XOR, T/C
NetTalk: lee y habla inglés
Redes amo-esclavo, filtros de Gabor
Modelos mixtos: AARON
Situación actual
• Situación incierta de IA fuerte
– Sentido común: Estructuras, templates, frames, scripts,
mapas cognitivos
– Dreyfus: What computers can’t do (Flores, Heidegger)
– 1996: Deep Blue vence a Kasparov
• Divisiones en el paradigma conexionista (Pinker)
– Conexionismo eliminativo: sin semántica ni nivel
simbólico
– Conexionismo implementacional:
representación sub-simbólica
– Conexionismo revisionista de procesamiento de
símbolos (Escuela de San Diego)
Desarrollos ulteriores
• 1980s: Resurgimiento de la neurociencia
con PDP en Escuela de San Diego
• 1987: Cognición situada, modelos
ecológicos
• 1990: Dinámica no lineal
• 1990-2000: Cognición distribuida, Modelos
basados en agentes
Estado de la cuestión
• Modelo de Izhikovich,
igual dimensión que el
cerebro 1010 neuronas.
• Un segundo de
simulación insume 50
días en un cluster
Beowulf de 27
procesadores de 3 GHz
• El modelo exhibe ritmos
alpha y gamma y otros
fenómenos de interés.
Aplicaciones en Antropología
• Discursivas: Reflexiones de D’Andrade
– Los antropólogos suelen hablar de reglas.
– Lo que hay en realidad son conductas.
– En muchos casos que se describen como seguimiento
de reglas, puede no haberlas dentro del actor – Sólo
redes de ciertas clases.
– También hay un paralelismo con la “respuesta
automática” versus la no-automática, de carácter
simbólico.
– Gran parte del aprendizaje cultural probablemente sea
afin al aprendizaje coneccionista.
Aplicaciones en Antropología
• Maurice Bloch. “Language, anthropology and
cognitive science”. Man 26, 183-198 (1992)
• Antropólogo cognitivo de LSE.
• Granjeros Zafimaniry de Madagascar – Decisiones
complejas (p. ej. un pedazo de bosque puede ser un buen
campo).
• No puede ser resultado de análisis por factores de
vegetación, pendiente, entorno, hidrología, suelo, etcétera.
• El modelo folk se resuelve en segundos y no lo podemos
comprender bien porque razonamos conforme al modelo de
procesamiento simbólico.
• La alternativa conexionista es mejor.
Sobre Maurice Bloch
•
•
•
•
Conocido por su enfoque marxista en sus inicios.
Enemigo de la memética con posterioridad.
Desarrolla su trabajo en LSE, no tanto en Francia.
Distingue entre la antropología tradicional y el miasma
difusionista (esto es, negación radical del evolucionismo,
énfasis en lo individual y lo histórico).
• Después de Mead y Lévi-Strauss, la influencia de la
antropología en la vida intelectual se ha esfumado.
• Cuestiona la negación irreflexiva de la naturaleza humana
(postura análoga a la de Steven Pinker).
• Léase “Where did anthropology go?” (2005).
Aplicaciones en Antropología
• Modelos de análisis arqueológico de Juan
Barceló (Universidad de Barcelona)
Aplicaciones en Antropología
• Damián Castro (Anthropokaos) – Redes de
reconocimiento de motivos de arte rupestre
Herramientas conexionistas
Software de redes neuronales
•
•
•
•
•
•
Java NNS
NeuroSolutions
Rosenblatt
James
Rumenhart
Modelo de Damián Castro
Conexionismo heideggeriano
Conclusiones y Recursos
Conclusiones
• Ningún bando ganó una batalla.
– GOFAI está órdenes de magnitud más cerca de ser un
modelo aceptable de la lógica humana de lo que las
redes neuronales están de ser un modelo del cerebro.
• No hay mapeado directo entre lenguaje y
observación: la relación es compleja.
• Las posturas relativistas no se sostienen tan bien.
• No es buena práctica científica enunciar lo que no
puede hacerse (caso Dreyfus).
– El señalamiento de lo que no puede hacerse sólo ha
impulsado a que se lo haga.
Propuestas de trabajo
• No abordar cuestiones relativas a la
polémica GOFAI / Conexionismo al menos
que se aprenda seriamente computación
avanzada.
– Con los opúsculos de Varela y las monsergas de
los morinianos ya hay suficiente información
espuria en circulación.
• Explorar recursos y algoritmos en IA y
redes neuronales (JavaNNS, etc)
Recursos
Recursos
Recursos
Recursos
¿Preguntas?
[email protected]
Descargar

Ciencia cognitiva