You are on page 1of 324

Psicólogo Interno

Residente (P.I.R.):
Preparación
Oposición

SITIO WEB: PSICOLOGÍA ONLINE


CONTENIDO
Psicología Básica
 Sensación, Percepción, Atención y Memoria
 Aprendizaje
 El Pensamiento
 Lenguaje
 Emoción y Motivación
Psicología Experimental
 Estadística
 Diseños de Investigación
 Psicometría
Psicología de la Personalidad y Diferencial
 Personalidad
 Diferencial
Psicología Social y de las Organizaciones
 Psicología Social
 Psicología de las organizaciones
Psicología Evolutiva
 Psicología Evolutiva
Terapias y técnicas de intervención de Psicología
 Terapias y técnicas de intervención de Psicología
Psicopatología adultos
 Psicopatología adultos
Psicopatología infantil
 Psicopatología infantil
Psicología Clínica
 Psicología Clínica

FUENTE: http://www.psicologia-online.com/pir/
I. Psicología Básica

Sensación, Percepción, Atención y Memoria

 Teoría, Método y Principales perspectivas en Psicología Científica


 Psicología Aplicada, Psicología Básica y Psicología General
 La Metodología Científica en Psicología
 El Método en Psicología Científica
 Los Niveles de Análisis de la Mente y la Conducta
 Niveles de análisis de la actividad psicológica
 La Psicofísica y la Teoría de Detección de Señales
 La naturaleza de la sensibilidad
 La cualidad sensorial
 Estudio cuantitativo de la sensorialidad
 Los umbrales sensoriales
 Determinación del umbral absoluto por el método de los límites
 Determinación del umbral diferencial por el método de los límites
 El enfoque de la psicología moderna. Métodos psicofísicos directos
 Las leyes Psicofísicas: Ley de Weber
 Las leyes Psicofísicas: Ley de Fechner
 La psicofísica moderna
 Introducción a la teoría de detección de señales
 El parámetro Β
 Curva Roc
 Tiempos de Reacción
 Estudio de los tiempos de reacción
 El método sustractivo de Donders
 El método de los factores aditivos
 Funciones visuales básicas
 El estímulo físico: La Luz
 Las medidas de Amplitud Luminosa
 El sistema visual
 La formación de la imagen en la retina
 Anomalias de la Visión
 Aspectos dinámicos de la visión: Adaptación
 Requisitos básicos para la interpretación de la imagen retiniana
 Percepción del brillo y la claridad
 Agudeza visual
 Movimientos oculares
 La percepción del color
 Colorimetría
 Diagramas de cromaticidad: Circulo Newton y Diagrama Maxwell
 Mecanismos de codificación del color
 Anomalias en la visión del color
 Ilusiones ópticas
 Percepción de la Profundidad
 Conjunto de Claves Oculomotoras
 Conjunto de Claves Visuales
 Psicología de la atención
 La Atención
 Tipos de fenómenos atencionales: Posterior, Anterior y Vigilancia
 Modelo de Filtro Rígido de Broadbent
 Modelo de Filtro Atenuado de Treisman
 Modelos de Filtro Postcategorial
 Modelos de Capacidad o Recursos Limitados
 Propuestas Integradoras
 Procesos Automáticos vs. Procesos Controlados
 Psicología de la memoria
 Teorias y Modelos de Aprendizaje y Memoria
 Estructuras y Procesos de Memoria
 Naturaleza de la Información Almacenada
 Conocimiento y Adquisición de Nueva Información
 Simulación de una Red Conexionista

Aprendizaje

 Introducción al estudio del Aprendizaje


 Introducción al Estudio del Aprendizaje
 El Reflejo
 El Instinto
 Las Primeras Experiencias
 Habituación
 Inhibición
 Condicionamiento Clásico
 El estudio de los reflejos condicionados por I.P. Pavlov
 El paradigma del condicionamiento clásico
 Condicionamiento excitatorio y condicionamiento inhibitorio
 Técnicas de condicionamiento clásico
 Variables del condicionamiento clásico
 El proceso del condicionamiento clásico
 Procedimientos del condicionamiento clásico
 Teoría de la sustitución del estímulo y la anticipación
 Teorías modernas de la sustitución del estímulo
 Condicionamiento Operante
 Introducción al problema del refuerzo
 Conceptos básicos, tipos e índices de refuerzo
 Relaciones empíricas con refuerzo positivo
 Conducta y estimulación aversiva
 El encubiertalismo
 Aprendizaje cognitivo. El aprendizaje observacional
 Condicionamiento clásico desde el Cognitivismo
 El problema del control de la medida de la RC
 El fenómeno del ensombrecimiento
 El fenómeno del bloqueo
 Teoria de Rescorla y Wagner
 El modelo del aprendizaje asociativo de Mackintosh
 Los estímulos o procesos interiores en el refuerzo parcial
 Problemática planteada por el refuerzo parcial
 Interpretaciones de la resistencia a la extinción
 Procesos básicos en el aprendizaje observacional
 Aplicaciones del aprendizaje observacional
 Estudios de la memoria animal
 Otros estudios en cognición animal
 Aprendizaje explicito y aprendizaje implícito

Pensamiento

 La Inducción Categórica
 Introducción a la Inducción Categórica
 La Estructuración Conceptual
 Propiedades Probabilísticas de la Estructuración Conceptual
 Enfoque de los Ejemplares en la Estructuración Conceptual
 Combinación Conceptual de Sustantivo-Adjetivo
 El Modelo de Especialización Conceptual
 Modelo Híbrido de Ejemplares y Teorías Previas
 Combinación Conceptual de Sustantivo-Sustantivo
 El Proceso de Categorización
 El Sistema de Reglas Distribuidas
 El Proceso de Inducción Categórica
 El Sistema de Activación Distribuida
 Razonamiento Probabilístico
 Nociones básicas de probabilidad
 Enfoque de los heurísticos de razonamiento
 El heurístico de representatividad
 El heurístico de accesibilidad
 El heurístico de anclaje y ajuste
 Críticas al enfoque de los heurísticos
 Enfoque de los Modelos Mentales
 Razonamiento y calibración
 Razonamiento Analógico Como Solución de Problemas
 Introducción al Razonamiento Analógico
 Teorías y modelos del razonamiento analógico
 El enfoque cognitivo de tradición psicométrica
 La teoría componencial
 El enfoque cognitivo sintáctico
 El enfoque pragmático
 Teoría del razonamiento analógico progresivo
 Caracterización de la transferencia analógica
 Transferencia analógica positiva
 Transferencia analógica negativa

El Lenguaje

 Concepto de Lenguaje
 Introducción al Concepto de Lenguaje
 La Conceptualización Científica del Lenguaje
 La Dimensión Estructural del Lenguaje
 La Dimensión Funcional del Lenguaje
 La Dimensión Comportamental
 Lenguaje Humano y Otros Lenguajes
 Características Estructurales del Lenguaje Verbal
 Características Funcionales del Lenguaje Verbal
 Características del Lenguaje como Modalidad de Comportamiento
 Estudio del Lenguaje desde la Psicología
 Introducción el Estudio del Lenguaje
 El Sujeto y la Explicación de la Actividad Lingüística
 La Metodología Observacional como Fuente de Evidencia
 La Metodología Experimental
 La Simulación como Método de Investigación
 Complejidad de la Actividad Lingüística
 Reconocimiento y Comprensión de Palabras
 Introducción al Reconocimiento y Comprensión de Palabras
 Diferencias Entre Comprensión de Palabras y de Oraciones
 Semejanzas Entre Comprensión de Palabras y de Oraciones
 Representaciones y Procesos en la Comprensión
 Naturaleza de las Representaciones Léxicas
 Teorías del Significado de las Palabras
 Morfología
 El Problema del Código de Acceso
 Etapas y Procesos Implicados
 Modalidades Sensoriales
 Rutas de Acceso al Léxico
 Pruebas Empíricas Relativas a las Rutas de Acceso
 Metodos de Estudio de la Comprensión de Palabras
 Procedimientos de Medición del Tiempo
 Efectos Experimentales Registrados
 Modelos de Reconocimiento de Palabras
 Modelos Interactivos de Procesamiento Léxico
 Modelos Autónomos de Comprensión de Palabras
 Modelos Mixtos de Compresión de Palabras

 Comprensión de Oraciones
 Introducción la Comprensión de Oraciones
 Componentes del Procesamiento de Oraciones
 Estrategias de Análisis y Autonomía del Proceso Sintáctico
 Hipótesis de la Segmentación en Cláusulas
 Hipótesis de la Descodificación Continua
 Postura Intermedia
 Estrategias Estructurales de Análisis Sintáctico
 Estrategias No Estructurales de Análisis Sintáctico
 Procesadores Sintácticos en Inteligencia Artificial
 Procesadores Sintácticos Autónomos
 Procesadores Conexionistas
 Reflexiones Críticas Sobre los Modelos de Procesamiento
 Procesos Inferenciales en la Comprensión de Oraciones
 Inferencias Perceptivas e Inferencias Cognitivas
 Significado Literal y Significado Elaborado
 Comprensión del Discurso
 Introducción a la Comprensión del Discurso
 La Teoría de la Dependencia Conceptual
 Las Representaciones del Discurso
 La Forma de las Ideas en el Discurso: Las Proposiciones
 El Modelo Proposicional de Kintsch
 Microestructura y Regla de Repetición de Argumentos
 Las Proposiciones Como Unidades de Procesamiento Psicológico
 El Efecto de Niveles
 Macroestructuras y Temas
 Comprensión y Conocimiento: Los Esquemas
 Modelos Mentales y Escenarios en la Comprensión del Discurso
 Inferencias Discursivas y Textuales
 El Contrato Dado-Nuevo y la Comprensión del Discurso
 Producción del Discurso y Conversación
 Discurso, Conversación y Texto
 El Carácter Intencional y Cooperativo del Discurso
 El Discurso Como Actividad que se Desarrolla en un Contexto
 Conocimiento Social, Perspectiva y Producción del Discurso
 Conocimiento del Contexto, Físico y Deixis
 El Discurso Como Estructura Lingüística Supraoracional
 Cohesión
 La Coherencia de los Discursos
 Coherencia Global
 La Coherencia Como Relevancia
 La Naturaleza Esquemática de los Discursos
 Representación y Procesos en la Producción de Discursos
 Componentes Representacionales
 Procesos de Planificación y Ejecución de Discursos

Emoción y Motivación

 Introducción a la Psicología de la Emoción


 Naturaleza de la Emoción
 Términos Utilizados para Referirse a la Emoción
 Clasificación de las Emociones
 Principales Funciones de la Emoción
 La Medida de las Emociones
 La Emoción y su Relación con Otros Procesos Psicológicos
 Principales Teorías de la Emoción
 Modelos Teóricos Conductistas
 Teorías de la Activación
 Teorías Cognitivas de la Emoción
 Teorías de la Evolución
 La Teoría de la Primacía Afectiva de Zajonc
 Mecanismos Cerebrales de la Emoción
 Clasificación y Características de las Emociones
 Clasificación de las Emociones y Características
 Las Emociones Básicas
 Los Componentes de las Emociones
 Emociones Negativas: El Miedo
 Emociones Negativas: La Ansiedad
 Emociones Negativas: La Ira
 Emociones Negativas: La Hostilidad
 Emociones Negativas: La Tristeza
 Emociones Negativas: El Asco
 Emociones Positivas: La Felicidad
 Emociones Positivas: El Amor/Cariño
 Emociones Positivas: El Humor
 Emociones Neutras: La Sorpresa
 Expresión y Regulación de las Emociones
 Expresión de las Emociones
 Aspectos Histórico-Conceptuales
 Expresión Facial y Reacción Emocional
 La Hipótesis del Feedback Facial
 Expresión Facial y Reconocimiento de la Emoción
 Las Expresiones Falsas
 Variaciones de la Sonrisa
 Influencias en el Reconocimiento de la Expresión Facial
 Características de la Expresión Facial
 La Voz de la Emoción
 La Detección de Mentiras por la Voz
 Regulación de las Emociones
 Revelación, Inhibición y Salud
 Estrés y Afrontamiento
 Definición de Estrés
 Los Diferentes Desencadenantes del Estrés
 Estresores Unicos y Estresores Múltiples
 Estresores Cotidianos y Estresores Biogénicos
 Procesamiento del Estrés y Reacción Afectiva
 Primera Valoración y Segunda Valoración
 Selección de Respuesta y Afrontamiento
 La Percepción de Control
 Factores Estructurales
 Patrón de Conducta Tipo A
 Consecuencias del Estrés
 Porqué Somos Diferentes Ante el Estrés
 Modificación de los Efectos Negativos del Estrés
 Introducción a la Psicología de la Motivación
 Concepto y Teorías de la Motivación
 Concepto de Motivación
 La Motivación Dentro de la Tradición Asociacionista
 Teoría de la Motivación de Clark Hull
 El Incentivo Como Concepto Motivacional
 El Papel del Refuerzo
 Modelos Explicativos de la Motivación
 Introducción Modelos Explicativos de la Motivación
 Modelo Biológico
 Las Primeras Teorías Instintivistas
 Modelo Etológico
 La Activación Fisiológica
 Los Mecanismos Fisiológicos de Regulación
 Modelo Conductual
 El Aprendizaje
 El Incentivo
 El Modelo Cognitivo
 El Valor y La Expectativa
 La Motivación Social
 La Consistencia y Disonancia Cognitiva
 La Atribución
 La Competencia y el Control
 Motivos Primarios y Secundarios
 Motivos Primarios
 El Sueño
 Tipos de Sueño
 Características y Funciones del Sueño
 La Motivación Sexual
 Aspectos de Aprendizaje
 Aspectos Cognitivos
 Motivos Secundarios
 La Esperanza de Exito
 El Miedo al Fracaso
 El Miedo al Exito
 Desarrollo del Motivo de Logro
 El Motivo de Poder

II. Psicología Experimental

Estadística

 Conceptos, clasificación de variables y representación gráfica Recurso


 Conceptos generales de análisis de datos en psicología
 Medición y escalas de medida
 Variables.Clasificación y Notación
 Organización y Representación Gráfica
 Distribución de valores dentro de un intervalo
 Representación Semigráfica
 Diagrama de Tallo y Hojas
 Diagrama de Caja
 Convenciones respecto a las representaciones gráficas
 Propiedades de la distribución de frecuencias
 Índices de tendencia central, de variabilidad y asimetría
 Índices de tendencia central
 Criterios para la elección de un índice de tendencia central
 Otras medidas de tendencia central
 Índices de posición
 Otras medidas de posición
 Resumen del índice de tendencia central y de posición
 Índices de variabilidad
 Índices de sesgo o asimetría

Diseños de Investigación

 Ciencia, procesos de investigación y métodos en psicología


 Investigación científica en psicología
 Fases de la investigación cientifíca en Psicología
 Conocimiento filosófico en Psicología
 El Proceso de investigación en Psicología
 Fases del proceso de investigación en Psicología
 Propuesta de hipótesis y proceso de contrastación
 Las variables en la investigación en Psicología
 Planificación específica y particular de la investigación en Psicología
 Análisis de datos del proceso de investigación
 Interpretación de los resultados del análisis de datos
 Comunicación de resultados a la comunidad científica
 Métodos y diseños de investigación en Psicología
 Diseños Unifactoriales: Intersujetos e Intrasujeto
 Características y clasificación de los diseños unifactoriales
 Diseño de dos grupos aleatorios
 Diseño multigrupo aleatorios
 Diseño Solomon
 Características generales de la técnica de bloqueo
 Diseños de bloques aleatorios
 Diseños de grupos apareados
 Diseño de cuadrado latino y cuadrado grecolatino
 Descripción del diseño intra-sujetos
 Ventajas de los diseños intra-sujetos
 Inconvenientes de los diseños intra-sujetos
 Toma de decisión entre diseño intra-sujetos y diseño inter-sujetos
 Diseños factoriales y diseños de caso único Recurso
 Descripción del diseño factorial
 Diseños factoriales inter-sujetos
 Diseños factoriales intra-sujetos
 Diseños factoriales mixtos
 Estructura básica de los diseños de caso único
 Principales modalidades de diseños de caso único
 Diseños A-B-A
 Diseños A-B-A-B y diseño de inversión
 Diseños de intervenciones multiples
 Diseños de cambio de actitud
 Diseños de linea base múltiple
 Diseños Ex post facto
 Introducción de Diseños Ex post facto
 Caracteristicas generales de Diseños Ex post facto
 Técnicas de control de Diseños Ex post facto
 Parte1: Clasificación de los diseños Ex post facto
 Parte2: Clasificación de los diseños Ex post facto
 Parte3: Clasificación de los diseños Ex post facto
 Utilización de los diseños Ex post facto en la investigación aplicada
 Método de Encuesta y Método Observacional
 Introducción del Método de Encuesta
 Procedimientos de recogida de información del método de encuesta
 Diseños de encuestas
 Validez y informe de las investigaciones de encuestas
 Introducción del Método Observacional
 Planificación de la investigación del método observacional
 Categorización del método observacional
 Introducción de la investigación observacional
 Métrica de la observación
 Fiabilidad y validez del método observacional
 Diseño y analisis de datos del método observacional
 Ética y el informe científico
 Introducción de ética e investigación
 Fuentes documentales
 Presentación de informes científicos

Psicometría
 Introducción a la psicometría
 Introducción a la Psicometría
 Recorrido histórico de la Psicometría
 Orígenes y desarrollo de la teoría clásica de tests
 Teoría Clásica de test
 Teoría Clásica de test
 Paralelismo entre las medidas de un test
 Paralelismo entre dos test
 Fiabilidad, validad y tipificación de los test
 Fiabilidad de los test
 Validez de los test
 Tipicidad de los test
 Teoría de respuesta al ítem
 Teoría de respuesta al ítem
 Distintos modelos de la teoría de la respuesta al ítem(TRI)
 Estimación de parámetros de la teoría de la respuesta al ítem
 Construcción de tests de la teoría de la respuesta al ítem
 Aplicaciones de la teoría de la respuesta al ítem
 Interpretación de las puntuaciones de la teoría de la respuesta al ítem

III. Psicología de la Personalidad y Diferencial

Personalidad

 Introducción: (Conceptualización y modelos teóricos)


 Concepto de personalidad
 La Psicología de la personalidad como disciplina
 Las teorías científicas de la personalidad
 Aplicación de las teorías de la personalidad
 Modelos teóricos en psicología de la personalidad
 Elementos de una teoría de personalidad
 La psicología de la personalidad en el siglo XXI
 Estrategias de investigación de personalidad
 Estrategias tradicionales en la investigación de personalidad
 La investigación en personalidad
 Modelos estructurales (Cattell, Eysenck y los 5 factores de personalidad)
 Definición de rasgo
 La teoría de Cattell
 La teoría de Eysenck
 Modelo de cinco factores de personalidad
 Historia del modelo de personalidad
 Instrumentos de evaluación del modelo de personalidad
 Concenso alcanzado sobre los cinco grandes
 Estatus causal de los cinco grandes
 Relaciones con otros elementos de la personalidad
 Aplicaciones en psicología clínica y de salud
 Valoración del modelo sobre la estructura de la personalidad
 Estudio sociocognitivo de la Personalidad y la conducta
 Determinante externo de la personalidad: situación
 Análisis de la situación de la personalidad
 Determinante externo de la personalidad: cultura
 Cultura y personalidad
 Estudio sociocognitivo de la personalidad y la conducta
 Conceptualización de la personalidad
 Características de la situación de la conducta
 Explicación de la conducta
 Perspectivas futuras de la personalidad

 Autoeficacia y procesos de atribución


 Percepción de Autoeficacia
 Origen y desarrollo de la percepción de autoeficacia
 Procesos psicológicos de la percepción de autoeficacia
 Efectos de la percepción de autoeficacia
 Procesos de atribución de la conducta
 Consecuencias de la atribución de la conducta
 Aplicación de las aportaciones sobre atribución a la motivación de
logro
 Motivación y Personalidad
 Introducción de motivación y personalidad
 La aproximación de metas de la motivación y personalidad
 La motivación intrínseca
 La necesidad de control de la persona
 Necesidad de logro de la persona
 La aproximación de metas aplicada a la motivación de logro
 Necesidad de poder
 Necesidad de afiliación
 Control y Personalidad
 Tendencia al incremento de acción: La reactancia psicológica
 Tendencia al decremento de acción: La indefensión aprendida
 Integración de las consecuencias ante la pérdida de control
 Aportación del modelo integrador al estudio de la personalidad
Diferencial

 Marco conceptual en Psicología Diferencial


 Objeto y objetivos de la Psicología de las Diferencias Individuales
 Constructos relevantes en la investigación sobre diferencias
individuales
 Unidades fundamentales de análisis
 Unidades procesuales
 Definición propuesta para una Psicología de las Diferencias
Individuales actual
 Enfoque estructural y procesual en Inteligencia
 Conceptos sobre la naturaleza de la inteligencia
 Metáforas de inteligencia de Sternberg
 La inteligencia está basada en procesos simples o complejos
 La inteligencia es una o múltiple
 La organización de la conducta inteligente
 Pricipales aportaciones del grupo de 50 expertos psicométricos
 Requisitos para el estudio de la estructura de la inteligencia desde un
enfoque psicométrico
 Inteligencia fluida e inteligencia cristalizada
 Semejanzas y diferencias conceptuales entre Cattell y Horn
 Pricipales ideas del libro " Capacidades cognitivas humanas" de Carrol
 Modelos de los tres estratos de Carroll

 La Creatividad, Estilos Cognitivos e Inteligencia Práctica


 Definición de creatividad y sus aproximaciones
 Estilos cognitivos
 Aproximaciones a la integración de la inteligencia y la personalidad
 Constructos representativos en la integración personalidad-
inteligencia
 Ámbito emocional
 Inteligencia Práctica
 Integración de los distintos tipos de inteligencia no académicas
 La herencia y el ambiente en las Diferencias Individuales
 El papel de la herencia y el ambiente en la diversidad psicológica
humana
 Diseños de investigación en Genética Cuantitativa
 Limitaciones de la Genética Cuantitativa
 Nuevos procedimientos estadísticos como posible solución ante las
dificultades metodológicas de la Genética Cuantitativa
 Algunas propuestas teóricas acerca de la clasificación del ambiente
IV. Psicología Social y de las Organizaciones

Psicología Social

 Introducción a la Psicología Social


 Introducción a la Psicología Social
 La tesis de la mente grupal
 El individualismo
 El interaccionismo
 Investigación empírica y experimental en Psicología social
 La segunda guerra mundial planteó exigencias a la psicología social
 Disonancia cognitiva, atribución causal y cognición social
 Procesos de atribución y Cognición Social
 Procesos de atribución
 Las inferencias correspondientes: Jones y Davis
 El modelo de covariación y los esquemas causales: Kelley
 Diferencias actor-observador: Jones y Nisbett
 Errores, sesgos y las funciones de la atribución
 Cognición social
 Representaciones mentales
 La activación del conocimiento
 Consecuencias de la activación del conocimiento
 El proceso de inferencia
 Percepción de personas y los Estereotipos
 Percepción e interacción de personas
 Desarrollo histórico sobre percepción de personas
 Definición y características de percepción de personas
 Teorías implícitas de la personalidad
 Factores que influyen en la percepción de personas
 Definiciones de estereotipo y su clasificación
 Relación entre estereotipo, prejuicio y descriminación
 Historia de los estereotipos en Psicología Social
 Teorías en el estudio de los estereotipos
 El cambio de los estereotipos
 Funciones de los estereotipos
 Las actitudes
 Definición de actitud
 La actitud y sus respuestas
 Surgimiento de las actitudes
 Algunas características estructurales de las actitudes
 Funciones de las actitudes
 Relación entre actitud y conducta
 Análisis de la relación entre actitud y conducta
 El modelo Mode
 La teoría de la acción razonada, desarrollos posteriores
 Revisión de la relación entre actitud y conducta
 Persuasión, acción y cambio de actitudes
 Persuasión y cambio de actitudes
 Determinantes de la probabilidad de elaboración
 Elementos clave en el proceso persuasivo
 Variables relacionadas con el mensaje
 Modelo de Mcguire
 Grado de implicación del receptor
 Discrepancias entre la posición defendida en el mensaje y la posición
del receptor
 Resistencia ante la persuasión
 Persistencia de los efectos persuasivos
 Cambio de actitud como consecuencia de la acción
 Teoría de la disonancia cognitiva
 Paradigma de la Complacencia Inducida
 Racionalizar la conducta
 Reformulaciones de la Teoría de la disonancia
 Visión radical de la Teoría de la disonancia
 Altruismo, atracción y relaciones interpersonales
 Altruismo y conductas de ayuda
 Formas de ayudar de la gente
 Motivos por los que se ayuda
 La conducta de ayuda desde el punto de vista de quien la recibe
 Atracción y relaciones interpersonales
 Atracción interpersonal
 Factores que influyen en la atracción
 El amor
 Problemas en las relaciones amorosas
 La soledad

 La influencia social
 La influencia social
 Técnicas de influencia
 Reciprocidad
 La simpatía
 Compromiso y coherencia
 Vulnerabilidad a la influencia
 La agresión
 Definición de agresión
 Supuestos psicosociales en el estudio de la agresión
 Antecedentes de la agresión
 El proceso de agresión
 Efectos de los medios de comunicación de masas sobre la agresión
 Agresión grupal y societal
 El prejuicio y conductas colectivas (rumore, catástrofes, etc.)
 El prejuicio y su definición
 Prejuicio como sesgo cognitivo
 Prejuicio como actitud negativa
 Función actitudinal del prejuicio
 Prejuicio en las relaciones entre grupos
 Definición de rumor y su contenido
 Antecedentes de los rumores
 La forma de circulación de los rumores
 Funciones de los rumores
 Estudio de los rumores desde la psicología social
 Conductas colectivas: Rumores y catástrofes
 Tipos de catástrofes y conductas colectivas
 Conductas de huida y rumores
 Efectos psicológicos traumáticos provocados por las catástrofes
 Catástrofes y procesos sociocognitivos
 Dinámica social ante las catástrofes
 Grupos y la relación entre grupos
 Definición y características de Grupos
 Proceso de categorización
 Actividad grupal coordinada
 El cambio social a través del grupo
 El pensamiento grupal
 La socialización grupal de los nuevos miembros
 La formación del grupo
 Relaciones entre grupos
 Enfoques grupales
 Investigación clásica sobre comportamiento intergrupal
 Teoría de la identidad social
 Teoría de la categorización del yo o autocategorización
`
 La Psicología Social aplicada. Salud
 La distinción entre psicología social básica y psicología social aplicada
 Definición de psicología social aplicada
 Aplicaciones de la psicología social
 Psicología social aplicada: salud
 Resultado de la relación paciente/médico: Calidad sanitaria
 Aplicación de la Psicología Social al ámbito Jurídico
 Introducción: Aplicación de la psicología social al ámbito jurídico
 Aspectos psicosociales relacionados con la justicia
 Aproximación psicosocial al fenómeno de la delincuencia
 Factores sociales que influyen en la delincuencia
 Delincuencia juvenil y femenina
 Aspectos psicosociales del encarcelamiento
 Introducción: Aspectos psicosociales del encarcelamiento
 Efectos psicosociales de la prisionización
 Alternativas psicosociales al encarcelamiento: En busca de la
reinserción social

Psicología de las organizaciones

 Aproximación histórica a la Ps. de las Organizaciones (modelos teóricos)


 La organización científica del trabajo
 Fayol.La Administración de la empresa y resolución de problemas
organizativos
 Críticas a la teoría administrativa clásica
 Surgimiento de la psicología de las organizaciones: Factor humano
 Elton Mayo y los experimentos de Hawthorne
 Otras aportaciones y desarrollos de la escuela de las relaciones
humanas
 El interaccionismo de la escuela de Chicago
 Aportaciones de la Psicología de grupos
 Aportaciones desde la sociología
 Primeras aportaciones al estudio de la Burocracia
 Teoría de la burocracia de WEBER
 Diferencias entre la teoría de la burocracia y la escuela de las
relaciones humanas
 Aportaciones sociotécnicas
 Los modelos humanistas
 La obra de D.McGregor: La teoría y de la organización frente a la
teoría X
 Las aportaciones de R. Likert: Organizaciones participativas frente a
organizaciones autoritarias y jerarquizadas
 Las contribuciones de C. Argyris: Oposición entre individuos y
organización, vías para una solución
 La Organización como Sistema
 Introducción de la organización como sistema
 La contribución de la teoría general de sistemas al estudio de las
organizaciones
 Las organizaciones como sistemas abiertos
 Características definitorias de un sistema abierto
 Las organizaciones como sistemas sociales
 Limitaciones e insuficiencias de la consideración de la organización
como sistema abierto
 Los efectos ecológicos de la acción organizacional
 Las disfunciones en la teoría de las organizaciones
 Algunos problemas teóricos olvidados
 Los miembros de la organización y el modelo de hombre del que se
parte
 Las estructuras organizacionales
 Introducción de la estructura en la organización
 Concepto de estructura organizacional
 Dimensiones contextuales que influyen sobre la estructura
organizacional
 Principales dimensiones estructurales de la organización
 Centralización del poder y toma de decisiones en la organización
 Complejidad organizacional
 Relaciones entre la complejidad organizacional y los factores
contextuales
 Relaciones entre complejidad organizacional y otras dimensiones
estructurales de la organización
 Formalización de la organización como variable estructural
 Relaciones entre la formalización organizacional y los factores
contextuales
 Relaciones entre formalización y otras dimensiones estructurales de la
organización
 Principales configuraciones de las estructuras de organizaciones
 Tipos de organización : Estructura simple
 Estructura burocrática de carácter mecánico
 Burocracia profesional
 La estructura divisionalizada
 La estructura Adhocratica
 Roles y socialización
 Roles y socialización
 Expectativas de rol
 El modelo de adopción de roles (role taking) de la escuela de
Michigan
 Factores que influyen sobre el proceso de adopción de roles
 El proceso de elaboración de roles (role making)
 Sistemas de elaboración de rol (role making)
 Proceso de definición de rol
 Socialización del individuo en la organización
 Fases del proceso de socialización
 Las dimensiones tácticas de la socialización organizacional
 Respuestas del individuo ante la socialización organizacional
 El liderazgo en las organizaciones
 Introducción del liderazgo en las organizaciones
 Concepto de liderazgo
 Aproximaciones teóricas al liderazgo
 El liderazgo como conducta
 Los estudios de la universidad de Ohio
 Estudios de la Universidad de Michigan
 La malla gerencial (red administrativa): Blake y Mouton
 Aproximación humanista : McGregor
 El modelo de contingencia de la efectividad del Liderazgo
 Relaciones entre el líder y los miembros
 Teoría de los Caminos de meta (Path Goal)
 El modelo de liderazgo participativo: Vroom y Yrtton (1973)
 La posición interaccionista
 El liderazgo como proceso de atribución

 Motivación, Satisfacción y Moral en las Organizaciones


 Introducción de la motivación en las organizaciones
 Las necesidades del individuo: un aspecto motivacional básico.
Teorías de la motivación centradas en el contenido
 La teoría de las necesidades de murray y la de McClelland sobre los
motivos de logro, de poder y de afiliación
 La jerarquía de necesidades de Masllow y las aportaciones de
McGregor
 El modelo jerárquico erc de Alderfer
 Teorías de la motivación centradas en el proceso
 Teorías de las expectativas-valor
 Teoría del establecimiento de metas u objetivos: Locke (1968)
 Teoría de la equidad
 Teoría del refuerzo
 Variantes intervinientes en la motivación: Motivación extrínseca e
intrínseca
 Introducción: Satisfacción laboral y moral
 Delimitación conceptual: Satisfacción laboral y moral
 Modelos teóricos de la satisfacción laboral
 Modelo teórico basado en la satisfacción de necesidades
 La teoría del grupo de referencia
 Teoría de los valores: El modelo de Locke
 La moral laboral
 Determinantes y características de la moral laboral
 Moral y productividad
 Estrés y salud laboral
 Introducción: Estrés y salud laboral
 Definición de estrés
 El estudio del estrés
 Problemas metodológicos: McGrath(1970)
 Modelos teóricos en el estudio del estrés
 Modelo descriptivo de una situación de estrés según McGrath
 El modelo del institute for social research de la universidad de
Michigan: French y Kahn(1962)
 Fuentes de estrés en el trabajo y en la organización
 Factores de estrés intrínsecos al propio trabajo
 Factores de estrés procedentes del desempeño de roles en la
organización
 Factores procedentes de las relaciones interpersonales en la
organización
 Factores de estrés relacionados con el desarrollo de la carrera
 Estresores procedentes de la estructura y el clima organizacional
 Fuentes de estrés extra-organizacionales que afectan a los miembros
de la organización
 Influencia de los factores personales y sociales sobre el estrés en el
trabajo
 La carrera profesional
 El desarrollo de la carrera profesional
 La organización desde la perspectiva del desarrollo de la carrera de
sus miembros
 Etapas de la carrera
 La carrera en la organización
 Los patrones de la carrera
 La organización y la carrera del individuo
 Los grupos en las organizaciones
 Introducción: Los grupos en la organización
 Principales funciones y tipos en los grupos organizacionales
 Principales propósitos de los grupos en la organización
 Propósitos perseguidos por los miembros de la organización
 Principales dimensiones de clasificación de los grupos de una
organización
 La permanencia temporal de los grupos
 Grupos informales en la organización
 Introducción: Grupos permanentes y grupos temporales
 Grupos permanentes en las organizaciones
 Grupos directivos de planificación
 Grupos de ejecutivos y mandos intermedios que desarrollan y
controlan la realización de los planes de la organización
 Grupos que proporcionan los servicios especializados
 Grupos de empleados y trabajadores no directivos
 Grupos temporales en la organización
 Los comites temporales o grupos AD HOC
 Grupos para el estudio de proyectos
 Los grupos de negociación
 La Comunicación en las Organizaciones
 Concepto, naturaleza y elementos de la comunicación en las
organizaciones
 Redes de comunicación en las organizaciones
 Estudios de laboratorio sobre redes de comunicación
 Dirección de los flujos de comunicación
 La importancia de la comunicación informal
 Toma de decisiones, el poder y la autoridad
 Toma de decisiones y sus modelos conceptuales
 Toma de decisiones y liderazgo: el modelo normativo de Vroom y
Yetton (1973)
 Participación en la toma de decisiones
 La organización como sistema decisor complejo
 El poder y la autoridad
 Dirección del poder
 Comportamiento político en las organizaciones
 Clima y Conflicto en las Organizaciones
 El clima organizacional
 Dimensiones del clima organizacional
 Percepciones de clima compartidas: niveles de análisis
 El conflicto en la organización
 Definiciones conductuales vs. definiciones más comprensivas
 Competición, intereses conflictivos y conflicto
 Niveles de conflicto
 Funciones y disfunciones del conflicto en la organización
 El proceso de conflicto y sus fases

V. Psicología Evolutiva

 Introducción al estudio del desarrollo


 Introducción a la psicología evolutiva (perspectiva historica)
 Influencias sobre la psicología evolutiva de otras disciplinas
 Tres conjuntos de presupuestos: racionalismo, empirismo y
constructivismo
 Perspectiva histórica de la psicología evolutiva
 Los estudios estadísticos y el primer constructivismo sobre el
desarrollo cognitivo
 El surgimiento de las grandes teorias y la convergencia con la
investigación experimental
 Emergencia del enfoque cognitivo
 Desarrollo-Aprendizaje
 Teorías sobre los mecanismos del cambio de estadio
 Introducción: Teorías sobre la estructura y mecanismo de cambio en
la psicología evolutiva
 La teoría de los estadios de Piaget
 Estructuras y mecanismos de cambio en la psicología evolutiva actual
 Modelos post-piagetianos sobre los mecanismos de cambio
 Los modelos conexionistas
 Teorías de sistemas evolutivos dinámicos
 El Apego
 Introducción: Desarrollo del apego
 Características del apego
 Teorias de apego
 El desarrollo del apego
 Seguridad del apego a traves de la situación extraña de Ainsworth
 Factores que afectan al desarrollo del apego
 El apego de los padres
 Desarrollo del juego y la interacción entre iguales
 Teorías y desarrollo del juego
 Algunas características comunes de lo que se denomina juego
 La risa y la sonrisa
 Evolución de los juegos infantiles
 Teorías sobre el desarrollo del juego
 El juego simbólico en niños ciegos
 La interacción entre iguales
 Relación entre hermanos
 Relaciones entre iguales y desarrollo cognitivo
 Interacción entre iguales contextos educativos
 Desarrollo de la identidad personal y la identidad de género
 Los inicios del estudio del autoconcepto
 Definición del autoconcepto
 La evolución del autoconcepto a lo largo de la infancia
 El autoconcepto en la adolescencia
 La autoestima
 La evolución de la autoestima
 Autoestima y adolescencia: Alcanzar una identidad
 La adquisición de la identidad de género
 Elementos que constituyen la dimensión psicológica del género
 Algunas teorías sobre la adquisición de los estereotipos y roles de
género
 Los modelos cognitivos-evolutivos
 Los modelos del procesamiento de la información: el esquema de
género
 El aprendizaje como base de la adquisición de los estereotipos y roles
de género
 La socialización del género en la escuela

 Desarrollo del conocimiento de la sociedad y la cultura


 El campo de estudio del conocimiento social
 Perspectivas teóricas sobre la adquisición del conocimiento social
 Cultura y desarrollo
 Vida cotidiana, cultura y desarrollo
 Desarrollo y adquisición de patrones culturales
 El desarrollo moral
 Conceptos de moral
 Perspectivas no cognitivas del desarrollo moral
 Teorías cognitivo-evolutivas del desarrollo moral
 Descripción de los niveles de juicio moral según Kohlberg
 Criticas al modelo de Kohlberg
 La teoría de los dominios de Turiel
 El problema de las relaciones entre conducta y juicio moral
 La conducta prosocial
 Piaget y Vygotsky
 Introducción: Piaget y Vygotsky
 La Teoría piagetiana
 La perspectiva vygotskyana
 Las relaciones entre pensamiento y lenguaje según las perspectivas
clásicas
 El desarrollo cognitivo y lingüístico
 Introducción: El desarrollo cognitivo y linguistico
 La perspectiva de la psicología del desarrollo
 La adquisición del lenguaje y el desarrollo cognitivo
 Lev Vygotsky y las raices del lenguaje y el pensamiento
 El desarrollo conceptual
 Introducción: El desarrollo conceptual
 Los conceptos como representaciones basadas en rasgos definitorios
 Los conceptos como representaciones probabilísticas
 Los conceptos como representaciones basadas en teorías
 El pensamiento preoperatorio y las operaciones concretas
 Introducción: El pensamiento preoperatorio y las operaciones
concretas
 Las raíces afectivo-cognitivas del simbolismo
 La función simbólica
 Características del pensamiento pre-operatorio
 El lenguaje natural y la neurofisiología de la función simbólica
 Otros enfoques del estado mental
 Introducción: Las operaciones concretas
 Definición de operación mental
 Aspectos cualitativos de las operaciones concretas
 Aspectos cuantitativos de las operaciones concretas
 La construcción de la noción de número
 El aprendizaje de las operaciones concretas
 Estudios transculturales

VI. Terapias y técnicas de intervención de Psicología

 Aproximación histórica de la terapia psicológica


 Raíces de la psicoterapia en la antigüedad
 Constitución de la terapia psicológica
 Situación actual de la psicoterapia
 Modelos conductuales
 Historia de la Terapia y Modificación de conducta
 La aproximación experimental al tratamiento psicológico: psicología
experimental y psicología clínica
 Los primeros intentos: Paulov y las neurosis experimentales
 Watson y Las Fobias Infantiles
 El Grupo de Yale
 Orígenes de la Terapia de Conducta
 El Grupo de Sudáfrica
 El Grupo de Inglaterra
 El Grupo de Estados Unidos
 Etapa de Fundamentación Teórica
 Etapa de Fundamentación Metodológica
 Etapa de Reconceptualización
 Conceptos y postulados básicos de la terapia conductual:Un breve
resumen de lo anterior
 Técnicas de control de la activación
 Entrenamiento autógeno
 Técnicas de control de la respiración
 Mindfulness o atención plena
 Hipnosis
 Técnicas de exposición
 Técnica De Desensibilización Sistemática
 Técnicas de implosión e inundación
 Procedimientos operantes para crear o desarrollar conductas
 Reforzamiento positivo
 Reforzamiento negativo
 Moldeamiento y encadenamiento
 Moldeamiento
 Encadenamiento
 Procedimientos operantes para reducir o eliminar conductas
 Coste de respuesta o castigo negativo
 Procedimientos de Reforzamiento diferencial
 Tiempo fuera de reforzamiento (TFR)
 Sistemas de organización de contingencias
 Contratos conductuales
 Técnicas aversivas
 Técnicas que se basan en el modelamiento
 Entrenamiento asertivo
 Entrenamiento en habilidades sociales
 Técnicas basadas en el condicionamiento encubierto
 Sensibilización encubierta
 Reforzamiento positivo encubierto
 Reforzamiento negativo encubierto
 Extinción de respuesta encubierta
 Coste de respuesta encubierto
 Modelado encubierto
 Ensayo de conducta encubierto
 Técnicas basadas en los principios de autocontrol
 Técnicas de biofeedback
 Procedimientos de psicología aplicada
 Nuevas tecnologías en modificación de conducta
 Modelos psicoanalíticos
 Conceptos y métodos básicos en el psicoanálisis
 La tradición neufreudiana
 La psicología analítica de Carl Jung
 Diferencias fundamentales entre Freud Y Jung
 Eric Fromm
 Teoría interpersonal de Benjamin
 Hs.Sullivan y su psiquiatría interpersonal
 La tradición analítica del yo
 El objeto transaccional de Winnnicott
 Enfoque psicopatológico de Fairbain
 Los mecanismos de defensa:Anna Freud
 Psicoterapias psicoanalíticas
 El psicoanálisis de J.Lacan
 Terapias psicoanalíticas de grupo
 Modelos cognitivos
 Modelos,conceptos y métodos en las terapias cognitivas
 Terapias de reestructuración cognitiva
 Terapia cognitiva de Beck
 Técnicas cognitivo conductuales
 Entrenamiento en autoinstrucciones de Meichenbaum
 Reestructuración racional sistémica de Goldfried y Goldfried
 Terapia centrada en los esquemas de Young
 Terapias de habilidades de afrontamiento
 Técnicas de resolución de problemas
 Técnica de resolución de problemas de Spivack y Shure
 Proceso de solución de problemas de D´Zurilla y Goldfried
 Técnicas constructivistas
 Terapia cognitivo-estructural de Guidano y Liotti
 Terapia cognitivo post-racionalista de V.Guidano
 Terapia de constructos personales de Kelly
 Terapia cognitivo narrativa de Goncalves
 Perspectivas actuales en Psicología cognitiva
 Modelos humanistas-existenciales
 Modelos humanistas-existenciales
 La terapia de análisis existencial de Bingswanger,May y Laing
 La psicoterapia centrada en el cliente de Carl Rogers
 Fritz Perls y la Psocoterapia Guestaltica
 Técnicas de la Gestalt
 El psicodrama
 Terapias corporales y energéticas
 La terapia del análisis transacional
 Modelos sistémicos
 Modelos sistémicos
 La Escuela internacional del MRI (Mental Research Institute)
 La escuela estructural/estratégica
 Recursos técnicos en las escuelas sistémicas
 Desarrollos actuales de las terapias sistémicas
 Las terapias de tercera generación
 La Terapia de Activación Conductual
 La terapia Integral de Pareja
 Terapia de Aceptación y compromiso
 Psicoterapia Analítico funcional
 Terapia Conductual Dialéctica de Linhehan
 Terapia basada en Mindfulness
 Tendencias actuales en Psicoterapia
VII. Psicopatología adultos

 Historia de la Psicopatología
 Origenes en Grecia de la Psicopatología
 Los órigenes en Roma de la Psicopatología
 Los orígenes en la Edad Media de la Psicopatología
 Los orígenes en el renacimiento de la psicopatología
 Los orígenes en la ilustración de la Psicopatología
 Origenes de la Psicopatología en el siglo XIX
 Los orígenes de Psicopatología en el siglo XX
 Sistemas clasificatorios
 Tipos de clasificación en psicopatología
 Modelos de clasificación en psicopatología
 Clasificaciones modernas: DSM y CIE 10
 Revisión del DSM-IV: Aspectos fundamentales
 Trastornos mentales y del comportamiento
 Críticas y garantías de las clasificaciones psiquiátricas
 Epideomiología en Psicopatologia
 Epidemiología es la disciplina que estudia la enfermedad en
poblaciones humanas
 Algunas Definiciones de epidemiología
 Niveles de análisis en epidemiologia
 Métodos de investigación en psicopatología
 Psicopatología de la conciencia
 Trastornos de la conciencia
 Trastornos productivos de la conciencia
 Trastornos del estrechamiento de la conciencia
 Alteraciones positivas de la conciencia
 Psicopatología de la atención
 Psicopatología de la atención
 Trastornos de la atención
 Psicopatología cognitiva de la atención
 Psicopatología de la orientación
 Psicopatologia de la orientación
 Alteraciones atencionales en trastornos mentales
 Psicopatología de la sensopercepción
 Psicopatología de la sensopercepción
 Engaños Perceptivos
 Teorías psicológicas sobre las alucinaciones
 Tratamiento psicológico de las alucinaciones y delirios
 Psicopatología de la memoria
 Psicopatología de la memoria
 Evaluación de la memoria mediante tareas
 El síndrome amnésico
 Fases del sindrome amnesico
 Explicación de la amnesia
 Amnesia y Demencias
 Memoria y emoción
 Alteraciones del reconocimiento
 Psicopatología del pensamiento
 Psicopatología del pensamiento y trastornos formales del
pensamiento
 Teorías acerca del pensamiento
 Los delirios
 Diferencias de los delirios con otras creencias anomalas
 Clasificación de los delirios: según su forma o según su contenido
 El delirio y los trastornos mentales
 Explicaciones psicológicas acerca de los delirios
 Los factores de germinación y los factores de mantenimiento
 Psicopatología del lenguaje
 Concepto y clasificación de los trastornos mentales
 Alteraciones secundarias del lenguaje
 Disfasias infantiles
 Dislalias infantiles y retraso simple del habla
 La tartamudez
 Psicopatología del lenguaje y cuadros clínicos
 Psicopatología de la Afectividad
 Psicopatología de la afectividad
 Síntomas afectivos
 Trastornos Psicomotores
 Evaluación de la Psicomotricidad
 Trastornos Psicomotores
 Trastornos de la mímica

VIII. Psicopatología infantil

 Psicología clínica infantil


 Evolución histórica de la psicología clínica infantil
 Las intervenciones surgidas en el marco conductual
 Características de la psicopatología infantil
 Prevalencia
 Grupos diagnósticos
 Tipos de clasificaciones en Psicopatología infantil
 Evaluación en Psicopatología infantil
 Tratamiento en Psicopatología infantil
 Retraso mental
 Retraso Mental
 Criterios para el diagnóstico del retraso mental
 Clasificación etiologica
 Síndrome de Patau
 Síndrome de Edwards
 Síndrome de Down
 Asociado al cromosoma X: Síndrome de X fragil
 Síndrome de Turner
 Sindrome de Klinefelter
 La Galactosemia
 Sindrome de Tay-Sachs
 Sindrome de Lesch-Nyhan
 Sindrome de Hurler-Schele
 Sindrome DeSanctis-Cacchione
 Trastornos generalizados del desarrollo
 Trastorno Autista
 Trastorno de Rett
 Trastorno desintegrativo infantil
 Trastorno de Asperguer
 Trastornos del Aprendizaje
 Trastorno de la Lectura
 Trastorno de cálculo
 Trastorno de la expresión escrito
 Trastornos de la comunicación
 Trastorno del lenguaje expresivo
 Trastorno mixto del lenguaje expresivo
 Trastorno fonológico
 Tartamudeo
 Comportamientos de la Disfemia
 Habilidades o hábitos motores
 Trastorno de desarrollo de la coordinación
 Tratamiento del Trastorno de desarrollo de la coordinación
 Trastornos por conductas perturbadoras
 Criterios para el Trastorno por déficit de atención e hiperactividad
 Criterios para el Trastorno negativista
 Criterios para el trastorno disocial
 Trastornos de la ingesta
 Trastornos por pica
 Trastorno de rumiacion
 Trastorno de la ingestión alimentaria de la infancia y la niñez
 Trastornos de la eliminación
 Enuresis
 Encopresis
 Trastornos del sueño
 Disomnias
 Parasomnias
 Trastornos por tics
 Trastorno de la Tourette
 Trastorno de Tics motores o vocales crónicos
 Trastorno de tics transitorios
 Trastornos emocionales
 Trastornos de ansiedad
 Miedos y fobias
 Trastorno de angustia
 TEP:trastorno de estrés postraumático
 Trastorno obsesivo compulsivo
 Otros trastornos de la infancia y adolescencia
 Trastorno de ansiedad por separación
 Trastorno de mutismo selectivo
 Trastorno reactivo de vinculación de la infancia
 Trastorno de movimientos estereotipados
 Malos tratos y abandono en la niñez
 Malos tratos
 Síndrome de alienación parental
 Abuso sexual

IX. Psicología Clínica

 Delirium y demencias
 Descripción del delirium
 Diagnostico diferencial del delirium
 Tratamiento del delirium
 Envejecimiento Normal
 Deterioro Cognitivo
 Las demencias
 Tipos de Demencias
 La Enfermedad de Alzheimer
 Evaluación de la demencia
 Tratamiento de la demencia
 Trastornos amnésicos y otros trastornos con etiología orgánica
 Definición y criterios diagnósticos
 Tipos de amnesia
 Síndrome amnésicos
 Evaluación y Tratamiento de trastornos amnésicos
 Trastornos mentales con etiología orgánica identificada
 Cambio de personalidad orgánico
 Trastorno de ideas delirantes orgánico
 Trastorno disociativo orgánico
 Trastorno cognoscitivo leve
 Trastornos del humor orgánicos
 Trastorno de ansiedad orgánico
 Trastorno sexual orgánico
 Trastorno del sueño orgánico
 Trastorno postencefálico
 Trastorno postconmocional
 Trastornos relacionados con sustancias
 Definición y conceptos básicos de los Trastornos relacionados con
sustancias
 Trastornos por consumo de sustancias: Dependencia de sustancias y
abuso de sustancias
 Trastornos inducidos por sustancias: Intoxicación por sustancias y
abstinencia de sustancias
 Modelos teoricos sobre drogas: Modelos psicoanalíticos
 Modelo de salud pública, de creencias de salud y de competencia
 Teorías del aprendizaje
 Teorías actitud-conducta
 Teorías psicológicas basadas en causas intrapersonales
 Modelos basados en el enfoque sistémico y en los modelos de familia
derivados de ellos
 El modelo social de Peele
 Otros modelos teóricos
 Clasificación de las drogas
 Trastornos inducidos por el alcohol
 Trastornos relacionados con alucinógenos
 Trastornos relacionados con anfetaminas
 Trastornos relacionados con los opiáceos
 Trastornos relacionados con los sedantes, hipnóticos o ansiolíticos
 Modelo de Prochaska y Diclemente
 Prevención de recaídas
 Aproximación al refuerzo comunitario
 Tratamiento cognitivo-conductual
 Terapia conductual de pareja y familiar
 Terapia de exposición a pistas o señales
 Tratamiento de la adicción al alcohol
 Tratamiento de adicción a la cocaína :Manejo de contingencias,
Exposición a pistas o señales, técnicas de manejo de la ira.
 Tratamiento del tabaquismo: Tratamientos medico-farmacológicos,
Tratamientos psicológicos
 Adicción al cibersexo
 Esquizofrenia
 Concepto de esquizofrenia y diagnostico diferencial
 Criterios para el diagnóstico de Tipo paranoide de esquizofrenia
 Criterios para el diagnóstico de Tipo desorganizado de esquizofrenia
 Criterios para el diagnóstico de Tipo catatónico de esquizofrenia
 Criterios para el diagnóstico de Tipo indiferenciado de esquizofrenia
 Criterios para el diagnóstico de Tipo residual de esquizofrenia
 Síntomas positivos de la esquizofrenia
 Síntomas negativos de la esquizofrenia
 Tipos de esquizofrenia
 Curso de la esquizofrenia
 Modelos teóricos de la esquizofrenia: Teorías genéticas
 Teorías bioquímicas de la esquizofrenia
 Teorías de la autoinmunidad
 Teorías virales
 Teorías neurofisiológicas
 Teorías Psicosociales
 El tratamiento de la esquizofrenia
 Trastornos psicóticos
 Trastorno esquizofreniforme
 Trastorno esquizoafectivo
 Trastorno delirante
 Trastorno psicótico breve
 Trastorno psicótico compartido
 Trastorno esquizotipico
 Trastornos del estado de ánimo
 Introducción y conceptos básicos de los trastornos del estado de
ánimo
 Dicotomías descriptivas
 Episodio depresivo mayor
 Episodio maniaco
 Criterios para el episodio maníaco
 Episodio mixto
 Episodio hipomaniaco
 Criterios para el episodio hipomaníaco
 Trastorno depresivo mayor
 Trastorno distimico
 Trastorno depresivo no especificado
 Trastorno bipolar I
 Trastorno bipolar II
 Trastorno ciclotímico
 Trastorno bipolar no especificado
 Otros trastornos del estado de animo
 Criterios para el diagnóstico deTrastorno del estado de ánimo debido
a.
 Trastorno del estado de ánimo inducido por sustancias
 Criterios para el diagnóstico de trastorno del estado de ánimo
inducido por sustancias
 Modelos psicodinamicos
 Modelos conductuales
 Modelos cognitivos
 Teoría de la indefensión aprendida de Seligman
 Teorías conductuales-cognitivas
 Teorías interpersonales de los trastornos depresivos
 Modelos psicológicos y biológicos explicativos de los trastornos
bipolares
 Tratamiento depresión
 Terapia cognitiva para la depresión
 Objetivos Terapéuticos de la depresión
 El proceso de intervención de la depresión
 Técnicas conductuales del tratamiento de la depresión
 Tratamiento farmacológico
 Tratamiento para el trastorno bipolar
 Trastornos de ansiedad
 Introduccion histórica,clasificación y conceptos básicos
 Algunos conceptos sobre la ansiedad
 Trastorno de pánico
 La Agarofobia
 Modelos cognitivos de la agorafobia: El modelo de Beck (1985) y el
modelo de guidano y Liotti (1985)
 El modelo cognitivo del trastorno de pánico: El modelo de Clark
(1988)
 Evaluación del trastorno de pánico y la agarofobia
 Tratamiento del pánico y la agarofobia
 Terapia farmacológica
 Trastorno de ansiedad generalizada y modelos explicativos
 Evaluación de la ansiedad
 Intervención en ansiedad
 Trastornos fóbicos
 Modelos explicativos para las fobias especificas
 Evaluación de las fobias especificas
 Fobia social
 Modelos explicativos para la fobia social
 Evaluación y tratamiento para la fobia social
 Teorías del aprendizaje en la fobia
 Teorías de la preparación
 Teorías incubación de la ansiedad
 Teorías de condicionamiento y procesos cognitivos
 Teorías de la ansiedad y procesamiento de la información
 Ansiedad y procesamiento cognitivo: hacia una integración
 Teorías biológicas de la ansiedad
 Teorías y trastornos de ansiedad
 Trastorno obsesivo compulsivo
 Introducción histórica y descripción del TOC
 Criterios para el diagnóstico de Trastorno obsesivo-compulsivo
 Tipos de obsesiones
 Manifestaciones clínicas del Trastorno obsesivo compulsivo
 Modelos explicativos del Trastorno obsesivo compulsivo
 Mecanismos y distintos factores moduladores implicados en las
obsesiones y compulsiones
 Modelos conductuales del trastorno obsesivo compulsivo
 Modelos biológicos del trastorno obsesivo compulsivo
 Evaluación del Trastorno Obsesivo Compulsivo
 Tratamiento psicológico del Trastorno Obsesivo Compulsivo
 Tratamiento farmacológico del Trastorno Obsesivo Compulsivo
 Tratamiento para obsesiones sin conducta compulsiva manifiesta
 El estrés en la salud
 Factores psicológicos en la salud
 Concepto de Psicosomático
 Los trastornos psicosomáticos
 Teorías Psicosomáticas
 Teorías de especificidad estímulo-respuesta(E-R)
 Teorías de especificidad individuo-respuesta(I-R)
 Teorías de especificidad psicológico física (P-F)
 Teoría del conflicto o teoría de la emoción especifica
 Los trastornos psicosomáticos como fenómenos multifactoriales
 Enfermedad o salud: medicina psicosomática,medicina conductual y
psicología de la salud
 Trastorno asociados al sistema inmune
 Relaciones entre el sistema neuroendocrino y el sistema inmune
 Factores psicológicos e inmunocompetencia
 El cáncer
 Estrés y cáncer
 Cáncer y sistema inmune
 Síndrome de inmunodeficiencia adquirida(SIDA)
 Alergia y problemas en la piel
 Artritis reumatoide
 Trastornos Cardiovasculares
 Hostilidad, ira y agresión
 El tipo2 o propensión a trastornos cardiovasculares
 Trastornos gastrointestinales
 Trastornos inflamatorios del intestino
 Trastornos respiratorios: El asma bronquial
 El dolor crónico
 Modelos teóricos en el dolor crónico
 Trastornos somatomorfos
 Introducción: Aproximación histórica y conceptual
 Clasificación de los trastornos somatoformes
 Trastornos somatomorfos: Trastorno de somatización
 Trastorno somatomorfo indiferenciado
 La hipocondría
 Criterios para el diagnóstico de Hipocondría
 Trastorno por dolor
 Trastorno de conversión
 Trastorno dismorfico corporal
 Trastorno de somatización
 Trastorno por somatización vs hipocondría
 Diferencias entre el trastorno por somatización y el Trastorno por
conversión
 Trastornos disociativos
 Concepto de disociación
 Fuga disociativa
 Trastorno Disociativo De Identidad (Personalidad Múltiple)
 La Despersonalización
 Síndrome De Ganser
 Trastornos disociativos y Síndromes orgánicos mentales
 Trastorno de despersonalización
 Trastornos de personalidad
 Concepto de personalidad
 Tipos diferenciados en los sistemas de clasificación
 Cuestiones etiológicas y epidemiológicas
 La contrastación empírico-estructural
 Aspectos no incluidos en las clasificaciones que necesitan aclaración
 Cuales son los trastornos de personalidad
 Criterios diagnósticos generales para un trastorno de la personalidad
 Trastorno paranoide de la personalidad
 Criterios para el diagnóstico de Trastorno paranoide de la
personalidad
 Trastorno esquizoide de la personalidad
 Criterios para el diagnóstico de Trastorno esquizoide de la
personalidad
 Trastorno esquizotipico de la personalidad
 Trastorno antisocial de la personalidad
 Criterios para el diagnóstico de Trastorno antisocial de la
personalidad
 Trastorno límite de la personalidad
 Criterios para el diagnóstico de Trastorno límite de la personalidad
 Trastorno histriónico de la personalidad
 Criterios para el diagnóstico de Trastorno histriónico de la
personalidad
 Trastorno narcisista de la personalidad
 Trastorno de la personalidad por evitación
 Trastorno de personalidad por dependencia
 Trastorno obsesivo-compulsivo de la personalidad
 Trastornos de la conducta alimentaria
 Anorexia nerviosa
 Tipos de anorexia nerviosa
 Epidemiología de la anorexia nerviosa
 Etiopatogenia de la anorexia nerviosa
 Manifestaciones clínicas de la anorexia nerviosa
 Complicaciones en la anorexia nerviosa
 Tratamiento e intervención en anorexia nerviosa
 Bulimia nerviosa
 Epidemiología de la bulimia nerviosa
 Etiopatogenia de la bulimia nerviosa
 Manifestaciones clínicas de la bulimia nerviosa
 Diagnóstico de la bulimia nerviosa
 Tratamiento e Intervención de la bulimia nerviosa
 Modelos cognitivos de la anorexia nerviosa y la bulimia nerviosa
 Trastornos del control de los impulsos
 Definición y criterios diagnósticos de trastornos del control de los
impulsos
 Los trastornos del control de los impulsos
 Cleptomanía
 Piromanía
 Juego patológico
 Tricotilomanía
 Trastornos sexuales y de la identidad sexual
 Trastornos sexuales y de la identidad sexual
 Deseo sexual hipoactivo
 Aversion al sexo
 Excitacion de la mujer
 Ereccion en el varón
 Trastorno orgásmico femenino
 Trastorno orgásmico masculino
 Trastorno de Eyaculación precoz
 Trastorno por Dispareunia
 Criterios para el vaginismo
 Trastorno sexual no especificado
 Criterios para el diagnóstico de Trastorno sexual inducido por
sustancias
 Trastornos de la erección
 Eyaculación precoz
 Trastorno de deseo sexual hipoactivo
 Trastorno de la excitación sexual
 Trastorno orgásmico
 Dispareunia y vaginismo
 El exhibicionismo
 El Fetichismo
 El Frotteurismo
 La Pedofilia
 Masoquismo sexual
 Sadismo Sexual
 Fetichismo Transvestista
 Modelos explicativos de las parafilias y de los delitos sexuales que
pueden implicar
 Trastorno de la identidad sexual
 Trastornos del sueño
 Las disomnias
 El insomnio
 Causas del insomnio
 Alteraciones cronobiológicas del insomnio
 Tratamiento del insomnio
 Tratamiento farmacológico del insomnio
 Tratamiento conductual del insomnio
 Criterios para el diagnóstico de Insomnio primario
 La Hiperinsomnia
 Criterios para el diagnóstico de Hipersomnia primaria
 Criterios para el diagnóstico de Narcolepsia
 Criterios para el diagnóstico de Trastorno del sueño relacionado con
la respiración
 Criterios para el diagnóstico de Trastorno del ritmo circadiano
 Las Parasomnias
 Criterios para el diagnóstico de Pesadillas
 Criterios para el diagnóstico de Terrores nocturnos
 Criterios para el diagnóstico de Sonambulismo
 Criterios para el diagnóstico de Trastorno del sueño debido a...
(indicar enfermedad médica)
Sensación, Percepción, Atención y
Memoria
TEORÍA, MÉTODO Y PRINCIPALES PERSPECTIVAS EN
PSICOLOGÍA CIENTÍFICA

PSICOLOGÍA APLICADA, PSICOLOGÍA BÁSICA Y PSICOLOGÍA


GENERAL

Toda ciencia aplicada debe fundamentarse en la ciencia básica. Así, la


Psicología aplicada se apoya en los conocimientos de la Psicología básica. La
psicología básica explica, describe y define las leyes que rigen el organismo,
entendiéndolo como conducta, y los procesos subyacentes a ella. Las distintas
ramas de la Psicología aplicada se ocupan de la funcionalidad de esos procesos
en los distintos entornos del individuo.
Las diferentes ramas de la Psicología se asientan en el método experimental.
La Psicología básica abarca todos los conocimientos de la mente y la conducta
que no son aplicados. La Psicología General es la parte de la Psicología básica
que estudia los procesos mentales y la conducta en el individuo normal y
maduro.
La definición de psicología general.
Los contenidos específicos de la Psicología General no coinciden exactamente
con todos los conocimientos de la Psicología básica.
La Psicología General sí coincide con la definición de psicología científica; por
tanto, ambas buscan establecer leyes generales. La generalidad de la Psicología
General hace referencia a que establece las bases teóricas generales de toda la
psicología y describe y explica los procesos mentales y las funciones de la
conducta general de los sujetos normales y maduros.
La psicología general frente a otras disciplinas psicológicas.
Existen otras materias psicológicas que no son aplicadas y tampoco se incluyen
en la Psicología General. Entre ellas están:
 La Psicología Evolutiva, que estudia cómo se desarrollan los procesos
psicológicos a través del tiempo.
 La Psicología Diferencial, que investiga las diferencias de los individuos
en los diversos tipos de procesos mentales y sus conductas. Sirve para
clasificar.
 Materias instrumentales o de apoyo como la Psicología Matemática y la
Psicobiología.
La Psicología General ha derivado de la Psicología Cognitiva, la cual supone
una vuelta al estudio de la mente. Su objetivo es conocer las operaciones
internas en cuanto que son realizadas por la mente.
Para ello, la psicología cognitiva establece:
 que la mente funciona mediante procesos, transformando una
representación en otra por la aplicación de una regla.
 la concepción de un proceso como la transformación de un input en
un output mediante una operación.
 la analogía del ordenador-mente, estudiando cómo procesa el
ordenador para conocer potencialmente cómo trabaja la mente.
 como modelo de funcionamiento los diagramas de flujo.
 la concepción de la mente como programas que se ejecutan en el
cerebro.
La Psicología General considera que la mente y la conducta funcionan
mediante procesos, abarcando todas las actividades psicológicas (procesos
cognitivos, aprendizaje, emoción, motivación...).

LA METODOLOGÍA CIENTÍFICA EN PSICOLOGÍA

Paradigmas de la Psicología Científica.


Para llegar a la definición actual de Psicología, se hace un análisis de cómo se
ha constituido su estructura científica a través del tiempo.
Estructuralismo y Funcionalismo
En los primeros momentos de la Psicología Científica, y por la influencia del
dualismo cartesiano (mente-cuerpo), surgen dos alternativas sobre su objeto
de estudio:
 mentalista, centrada en lo mental e interesada por los hechos de la
conciencia. Comenzó con el estructuralismo elementalista antiguo y
llega hasta la psicología cognitiva.
 fisicalista, centrada en lo corporal; surge como rechazo al mentalismo y
defiende sólo los hechos observables directamente. Produjo el
paradigma del conductismo.
Los paradigmas mentalistas, en su interés por el conocimiento de la
conciencia, se aracterizan por ir alcanzando una mayor complejidad; su objeto
de estudio parte de un continuo que va desde la búsqueda de los elementos
de la conciencia hasta la búsqueda de su estructura:
 Inicialmente surge el estructuralismo elementalista antiguo:
o su objeto de estudio son los elementos de la conciencia.
o utiliza el método de la introspección, consistente en la
autorreflexión del observador de sus experiencias conscientes.
 Posteriormente, el funcionalismo:
o su objeto de estudio son los actos de la conciencia en interacción
con su entorno.
o su principal representante es William James.
El Conductismo Conductismo radical.
Sus máximos representantes fueron Watson y Skinner. Defienden el estudio
de la conducta observable en estímulos y respuestas y se oponen radicalmente
a la conciencia y a la introspección. Establecen cuatro principios
fundamentales para que la psicología pueda ser una ciencia realmente
científica:
 asociacionismo.- la conducta se explica por estímulos y respuestas.
 mecanicismo.- entre las conductas sólo hay diferencias cuantitativas, no
cualitativas.
 principio de la continuidad biológica de la evolución.- las leyes de la
conducta son generales para todos los organismos.
 positivismo.- sólo se estudiarán los hechos científicos que cumplan las
características de la ciencia positiva:
o observables (que se puedan medir)
o verificables (sometibles a experimentación)
o fenoménicos (que ocurren en la naturaleza)
o positivos (sólo hechos observables explicables por otros hechoss
observables).
Los conductistas radicales establecen el modelo E-R (estímulo-respuesta), o
bien R = f (E) (la respuesta en función del estímulo). Se dedican al estudio de
los estímulos y respuestas abiertas.
Neoconductismo
Por la insuficiencia del conductismo radical, surge el neoconductismo que
considera progresivamente algunas modificaciones que introducen factores
mentalistas. Así:
 se admiten variables intermedias entre los estímulos y las respuestas. Se
establece el modelo E-O-R (estímulo-organismo-respuesta), y se
considera la respuesta en función del estímulo y del organismo, R = f
(E,O).
 se intentan estructurar los aspectos conscientes del mentalismo, pero
con la metodología conductista.
 el desarrollo de variables intermedias permite la creación de estructuras
intermedias.
De este modo, Tolman concibe la conducta como consciente y defiende la
existencia de mapas mentales. Introduce el concepto de propositividad en la
conducta.
La Psicología Cognitiva
Se trata de una vuelta al mentalismo al postular de nuevo el estudio de la
mente, pero rechazando su postura asociacionista inicial. Surge como
consecuencia de:
 la insuficiencia del conductismo.
 la aparición de tres nuevas concepciones teóricas que afectan al modo
de estudio de la psicología:
o .- la Teoría de la Información de Shannon.- considera al sistema
humano como un canal que transmite información, la cual se
puede cuantificar en bits (unidades de información). El principal
problema radica en la dificultad de contabilizar determinadas
conductas humanas de esta forma, por lo que se abandona el
estudio del estímulo en bits.
o .- el modelo racionalista de Broadbent.- sigue considerando al
sistema humano como un canal que transmite información, pero
formula sus teorías basándose en modelos racionales. Utiliza
diagramas de flujo, que son modelos que indican cómo es
procesada serialmente la información proporcionada por el
estímulo, a través de las distintas estructuras mentales.
o .- la metáfora del ordenador.- considera al hombre y al
ordenador funcionalmente análogos; el individuo es tratado
como un sistema procesador de información. La Psicología
Cognitiva establece los procesos cognitivos como programas de
ordenador intentando comprobar su funcionamiento en el
mismo ordenador, frente a la Inteligencia Artificial, que pretende
conseguir artificialmente los resultados de la mente humana.
Junto con la influencia de estas tres disciplinas, surgen otros dos hechos que
determinan, en parte, el nacimiento de la psicología cognitiva:
 la Teoría General de Sistemas.- que defiende una nueva concepción
sistemática de la ciencia, no mecanicista.
 la Gramática Transformacional de Chomsky.- que postula un
planteamiento racionalista del lenguaje.
En resumen, la Psicología Cognitiva establece modelos racionales a través de
los cuales la mente funciona mediante procesos que transforman una
representación en otra por la aplicación de una regla.
Procesamiento de la Información
La Psicología Cognitiva concibe los procesos psicológicos como
procesamiento de la información. Se aplican los principios del procesamiento
de la información en el ordenador para conocer cómo trabaja la mente y cómo
puede ser estudiada. Este procesamiento se refiere al programa a nivel mental
(mente), no al fisiológico (cerebro).
Parte de tres supuestos fundamentales:
 descripción informacional.- conocer una operación interna realizada
por la mente, que transforma un input informativo en un output, a
través de una operación.
 descomposición recursiva.- descomponer el proceso sucesivamente
hasta poder llegar a los acontecimientos primitivos informacionales o
últimos elementos que lo componen. Es recursiva porque el output de
un acontecimiento informacional anterior se convierte en el input del
acontecimiento informacional siguiente.
 incorporación real del sistema en nuestra mente.- es necesario que los
supuestos anteriores se puedan dar en la realidad.
La mente realiza el procesamiento de la información por sus estados del
sistema o representaciones, y por los cambios de estos estados o procesos.
Parte del establecimiento de la analogía con el ordenador. La mente se
concibe como un programa de ordenador que se ejecuta en máquinas
llamadas cerebros.
Mantiene una postura menos drástica que el computacionismo al aplicar el
paradigma del procesamiento de la información a la psicología; mientras para
éste todo acontecimiento es computable, por lo que puede ser simulado en el
ordenador, para la psicología cognitiva no todos los acontecimientos mentales
se pueden someter a la descomposición recursiva.
Pero, ¿qué es la computación?. Marr distingue tres niveles de computación:
 nivel computacional.- emparejar input-output a través de una función.
 nivel algorítmico.- establecer una operación matemática concreta para
indicar a través de un programa cómo se ha de llevar a cabo la función
anterior.
 nivel de implementación.- aplicación física de la operación.
Por tanto, para la psicología cognitiva la mente es como un programa de
computar información que se implementa en un sistema físico que es el
cerebro.
Los componentes del algoritmo en nuestra mente son las representaciones
(pueden ser símbolos), que son unidades como palabras (con significado) a
las que se aplican procesos, que son como reglas sintácticas de composición.
El Conexionismo
Fue fundado por Rosenblatt y consiste en un sistema de representaciones y
transformaciones del conocimiento y se enmarca dentro de la psicología
cognitiva. Surge como consecuencia del nivel de abstracción al que estaban
llegando los modelos cognitivos en su representación del conocimiento.
El conexionismo:
 postula el establecimiento de un sistema de representación del
conocimiento (sin significado) que constituye un patrón de pesos de
conexiones que se transforma mediante asociación según señales de
excitación e inhibición por aprendizaje y en interacción con el medio.
 defiende un procesamiento de infinidad de elementos en paralelo.
 establece como modelo un patrón de redes neuronales donde los
elementos son como neuronas. Se trata más bien de un patrón de
acción que de representación.
 postula que los procesos se producen por aprendizaje y no por la
aplicación de reglas sintácticas. Este aprendizaje tiene lugar cuando la
actividad del organismo, producida por los patrones de acción, se ajusta
o no a las demandas del ambiente en el que se interactúa.
Sus características principales son:
 el procesamiento se produce de modo simultáneo y en paralelo entre
elementos simples que se envían entre sí señales de excitación e
inhibición.
 el conocimiento se almacena en asociaciones o pesos de las fuerzas de
conexión entre esos elementos.
El Constructivismo
Defiende que los contenidos se construyen apoyándose en conocimientos
anteriores. Se basa en la idea kantiana de que el conocimiento se construye
sobre los datos de la experiencia en esquemas a través de la aplicación de
reglas conceptuales universales.
Las distintas posiciones evolucionistas imperantes en cada momento han
influido en gran medida en la psicología. Así:
 el conductismo se mueve dentro de la concepción darwinista de la
selección natural. Es el ambiente el que determina las conductas,
reforzándolas o no.
 la psicología cognitiva defiende el papel de la herencia. La mente
supone una serie de programas innatos.
 a partir del neodarwinismo se empieza a aceptar que ciertas variaciones
en el desarrollo ontogenético, esto es, las habidas desde el nacimiento
hasta la muerte de un individuo, se puedan heredar y que las conductas
de los individuos determinan la construcción de sus nichos ecológicos.
Con ello se abandona la concepción de nicho ecológico como algo
preexistente.
Según esto, la ontogenia, la biología y las características psicológicas de los
individuos son factores de gran importancia en la evolución.
Dicho esto, el constructivismo psicológico, evolutivo principalmente, defiende
que los procesos mentales no son heredados, sino algo que se desarrolla en la
ontogenia; las estructuras mentales se construyen conforme se desarrolla el
sujeto.
Los iniciadores del constructivismo fueron los psicólogos de la Gestalt, ya que:
 describen fenómenos creados por el observador que se dan en todos
los individuos.
 tratan de imponer relaciones lógicas sobre los datos sensoriales para
construir un mundo representado.
 rechazan la hipótesis de la constancia, según la cual a cada estímulo
elemental le correspondía una respuesta, también elemental.
 defienden una posición fenomenológica rechazando el método
mecanicista de la introspección. Se centran en las totalidades y no en
los hechos aislados.
La psicología de la Gestalt parte de tres supuestos: el dinamicismo, la física de
los campos eléctricos y la hipótesis del isomorfismo (la correspondencia E-R
no es puntual sino de configuraciones). Esta hipótesis no es aceptada hoy en
día por no producirse en fisiología.
Lo que perdura de la Gestalt son sus planteamientos sobre la percepción, que
han retomado otras corrientes.
Dentro de la psicología evolutiva, se defienden las teorías sobre el desarrollo
de Piaget y Vygotski como precursoras del constructivismo.
Piaget rechaza que el conocimiento provenga exclusivamente de la
experiencia:
 el aprendizaje es distinto en los diferentes niveles del desarrollo puesto
que depende del nivel de competencia, entendida ésta como la
capacidad de proporcionar algunas respuestas.
 en contra de las teorías innatistas y las ambientalistas extremas, defiende
que entre ambas se sitúan las autorregulaciones características del
desarrollo.
 las autorregulaciones, a través del equilibrio de asimilación-
acomodación producen la dinámica que constituye las estructuras, y no
son las estructuras construidas previamente las que contendrían el
resultado del proceso mental.
Para Vygotski las funciones mentales se construyen por asimilación de las
interacciones sociales y laborales, las cuales provocan nuevas reorganizaciones
y estructuras.
Genéricamente, el constructivismo defiende que la representación del mundo
se deriva de las acciones en él. Nuestras acciones son posibles por la
formación de esquemas, tanto representativos como motores.

EL MÉTODO EN PSICOLOGÍA CIENTÍFICA

Teoría del método científico.


El método común a toda ciencia es el método hipotético-deductivo o método
científico. Consta de cuatro momentos:
 observación: medición de los hechos conductuales o cognitivos.
 formulación de hipótesis: conjeturas que formula el científico sobre los
hechos observados. La hipótesis tiene que permitir la posibilidad de ser
falseada en la experimentación.
 deducción de conclusiones: en la experimentación se someten a prueba
casos concretos de la hipótesis, nunca la hipótesis en general. Tiene que
plantearse en términos de condicional (si...entonces).
 contrastación: es someter a experimentación los casos concretos
deducidos de la hipótesis. Es ahora cuando se utiliza la técnica
inductiva. Con la realización del experimento la hipótesis puede ser
verificada, cuando los datos la avalan o rechazada, quedando así
falseada.
Con la verificación de las hipótesis, el método científico busca regularidades
para la formulación de leyes y teorías.
Las técnicas metódicas.
Hacen referencia a las distintas maneras de llevar a cabo cada uno de los
momentos del método hipotético-deductivo.
En psicología se emplean fundamentalmente tres técnicas metódicas en la fase
de contrastación: experimental, correlacional y observacional.
La Técnica Experimental
Es una manera de contrastar las hipótesis mediante experimentos, a través de
los cuales se crea una situación, normalmente en el laboratorio, en la que se
pretende averiguar los efectos de una variable (independiente) sobre otra
variable (dependiente) y así poder establecer una relación entre ellas.
La principal característica de esta técnica es que el investigador puede
manipular y controlar la variable independiente según convenga, para
averiguar dicha relación.
Para la investigación en laboratorio se requiere un diseño previo donde se
describan:
 los sujetos que van a formar parte del experimento.
 los aparatos necesarios.
 el procedimiento y la situación en que se va a llevar a cabo el
experimento.
 el análisis matemático que se realizará con los datos obtenidos.
Como consecuencia de todo este proceso, se podrá decidir si se cumple o no
la hipótesis de partida.
El experimento más elemental en el que se estudia el efecto de una variable
independiente sobre la variable dependiente utiliza un tipo de diseño
llamado bivariado (sólo se busca la relación entre dos variables). Pero también
se puede estar interesado en averiguar el efecto de varias variables
independientes para lo que es preciso utilizar diseños multivariados.
Las principales ventajas del método experimental son:
 La gran capacidad de manipulación que se ejerce sobre la situación.
Para un mayor control del efecto de la variable independiente se utiliza
el grupo de control. Este grupo se somete igualmente a la situación
experimental, excepto en lo que a la variable independiente se refiere.
Así se puede comprobar con gran seguridad que los cambios habidos
en el grupo experimental son debidos únicamente al efecto del
tratamiento.
 Permite la repetición del experimento en el momento que el
experimentador estime oportuno; a esto se llama duplicación. Cuando
en la repetición del experimento se introducen algunos cambios, se
denomina repetición constructiva.
Las principales críticas al método experimental vienen del entorno
conductista:
 las situaciones creadas en el laboratorio son excesivamente artificiales.
Si bien esto es cierto, en esas situaciones se pueden estudiar las
funciones y procesos que determinan la conducta en su medio natural.
 no se controlan realmente todas las variables intervinientes.
 el experimentador aumenta la ambigüedad de los aspectos observables
de la conducta.
Estas críticas han llevado al uso del informe introspectivo, aunque con algunas
limitaciones, dado su carácter privado.
En relación a la validez interna, o existencia de relación entre las variables, se
han planteado dos críticas:
 el efecto experimentador.- determinadas características del
experimentador pueden influir en los resultados. Esto se corrige
empleando varios experimentadores.
 las características de la demanda.- el sujeto suele contestar conforme a
lo que cree que se espera de él.
En cuanto a la validez externa, o posibilidad de generalización de los
resultados, se ha solucionado mediante la reduplicación del experimento.
Método Correlacional
Dado que no siempre es posible realizar un experimento para contrastar una
hipótesis, cuando se estudian variables psicológicas, como los constructos
hipotéticos (ej. inteligencia), que no pueden ser manipuladas por el
experimentador, sino que se dan entre los sujetos de una población, se utiliza
la técnica comparativa o correlacional.
Esta técnica se basa en el coeficiente de correlación, que viene a determinar
la relación entre dos variables pero no su causa. Su uso es descriptivo, no
explicativo y sirve para establecer comparaciones.
Se emplea principalmente en psicología de la personalidad a través de la
técnica matemática del análisis factorial.
Método Observacional
Con este método se estudian los fenómenos tal y como ocurren en la
naturaleza.
Se utiliza principalmente en psicología clínica, cuando se trata de variables que
sólo pueden observarse.
Existen dos clases de observación:
 pasiva: es la realizada en la fase de recogida de datos del método
hipotético-deductivo.
 activa: se lleva a cabo de modo controlado y se denomina observación
sistemática. Se emplea en la contrastación.
LOS NIVELES DE ANÁLISIS DE LA MENTE Y LA CONDUCTA

Dada la diferente complejidad psicológica de las conductas, se pueden


establecer distintos niveles en el análisis psicológico:
 personalidad.- cuando se estudian los rasgos estables del
comportamientos de un individuo estamos indagando a nivel del todo
orgánico, esto es, su personalidad; de esta forma se estudia la mente y
la conducta en función de las características del sujeto.
 procesos psicológicos aislados.- pero si observamos algunas de sus
estructuras funcionales, estudiamos los procesos mentales y
conductuales que siempre existen aunque sea en mayor o menor grado.
 conductas elementales.- a veces nos fijamos en hechos puntuales, tanto
mentales como conductuales, que pueden darse o no en los individuos.
A lo largo del tiempo, las distintas escuelas psicológicas han puesto su objeto
de estudio en uno y otro de los niveles expuestos:
 el conductismo realiza un análisis de la conducta en elementos, aunque
estos sean complejos. La conducta así entendida es una respuesta
observable en función de los estímulos que la provocan, donde la
relación E-R es lineal.
 la psicología cognitiva realiza un análisis de la actividad psicológica en
procesos, puesto que hace depender la respuesta de los procesos
subyacentes y sus componentes (descomposición recursiva).
El estudio de las dimensiones psicológicas se puede realizar de dos formas
diferentes:
 buscar los principios que rigen la dimensión en que nos encontremos.
Es el enfoque de la psicología general.
 indagar las diferencias que se producen en los individuos en cuanto a
una dimensión en concreto. Este sería el enfoque diferencialista.

LOS NIVELES DE ANÁLISIS DE LA ACTIVIDAD PSICOLÓGICA

En la actividad de los organismos, existen tres niveles de análisis:


 el nivel psicológico.- se puede estudiar desde la perspectiva de la
personalidad del individuo como conjunto, sus procesos o sus
elementos, pero en todos los casos esa actividad psicológica es compleja
y la realiza el individuo como un todo.
 el nivel fisiológico.- la actividad de los organismos se estructura en
órganos y sistemas. Cuando esos órganos actúan como parte del
organismo, como subsistemas, realizan una actividad psicológica.
Cuando actúan independientemente, esa actividad es exclusivamente
fisiológica.
 el nivel bioquímico.- es el más básico y configura la parte estructural del
nivel fisiológico.
Los tres niveles se relacionan de manera que cada nivel superior abarca al
anterior y todos se afectan e influyen mutuamente entre sí.
Para saber dónde hay que intervenir, hay que distinguir en qué nivel se está
desarrollando la actividad del organismo.
El funcionalismo fue el primero en defender que sólo se podía llamar
conducta a la actividad compleja y distal del organismo y que la psicología sólo
debía centrarse en el estudio de estímulos y respuestas distales.
Se puede entender por conducta la actividad que realiza el organismo como
un todo.

LA PSICOFÍSICA Y LA TEORÍA DE DETECCIÓN DE SEÑALES

LA NATURALEZA DE LA SENSIBILIDAD

La reactividad de los organismos más inferiores y simples evolucionó a formas


más complejas en dos direcciones:
 la de la eferencia, produciéndose respuestas eferentes cada vez más
complejas,
 y la de la conciencia, llegando a constituirse en auténtica respuesta,
consiste fundamentalmente en la captación de información.
A partir de la reactividad físico-química, el ser vivo ha desarrollado dos tipos
de respuestas: una la motricidad y actividad glandular y la otra la sensibilidad.
Ambas constituyen la base de la conducta y de la mente y configuran sus
aspectos más elementales y básicos:
 Conducta, es la respuesta motriz o glandular de un organismo ante el
medio.
 Mental, es la característica de los procesos psicológicos de procesar la
información que proporciona el ambiente.
Por ello, el acto conductual, aunque se constituye estructuralmente de
elementos bioquímicos y fisiológicos, se manifiesta según sus características
propias de motricidad.
La actividad mental por su parte, aunque consiste en procesar información, se
basa muchas veces en elementos conscientes que son respuestas sensoriales.
Estas son lo que conocemos por sensibilidad.
LA CUALIDAD SENSORIAL

Podemos decir que todo el problema psicofísico se reduce a explicar cómo se


conectan estructuras y procesos físicos o fisiológicos con experiencias
sensoriales de diversa modalidad (cualidad sensorial) y de diversa intensidad
(cantidad sensorial).
La psicofísica la constituye el estudio métrico de las intensidades sensoriales
que establece las relaciones cuantitativas entre estímulos físicos y respuestas
sensoriales.
La sensibilidad se presenta según diversas modalidades. Hay sensaciones
visuales, táctiles, olfativas, etc., incluso dentro de estas aparecen multitud de
cualidades diferentes.
Esto hace plantearse dos problemas:
 cómo se explica el fenómeno de las diversas modalidades cualitativas
de la sensibilidad (causalidad de la cualidad sensorial).
 cuántas modalidades sensoriales hay (descripción o clasificación) de las
modalidades sensoriales.
1. Ley de Johannes Müller
Johannes Müller fue el primero que intentó dar una explicación científica a la
existencia de distintas sensaciones y lo explicó a través de la ley de la energía
específica de los nervios sensoriales que dice: "La cualidad de la sensación
depende del tipo de fibra nerviosa que se excita y no de la clase de energía
física que inicia el proceso".
Semejante explicación negaba no sólo la opinión según la cual las modalidades
de la cualidad sensorial se deben a las propiedades reales de los objetos en
una relación de identidad, sino también la teoría que defendieron los
psicólogos hasta muchos años después, tal como la explicación de Wundt.
Analizando el problema psicofísico de la cualidad sensorial, pueden
distinguirse dos aspectos:
 estudiar cómo se conectan estructuras y procesos nerviosos básicos con
experiencias sensoriales de diversa modalidad cualitativa (psicología da
repuesta sólo a niveles psicofisiológico).
 estudiar el cómo de la transmutación de lo físico o fisiológico en lo
psíquico (no puede dar respuesta).
En 1950, fuera de la Ley de Müler, pero en conexión con ella, aparece la
hipótesis de las "áreas de proyección" defendida por Penfield y Rassmussen.
A partir de la "ley de la identidad esencial de los impulsos nerviosos", llegaron
a la conclusión de que el único modo posible para explicar la diversidad
sensorial es hacerla depender de las áreas corticales de proyección.
Pero hace falta también la especificación receptora para que el sentido de
adaptación de tal conducta se explique que cualquier forma de energía no
produzca a la vez todas las sensaciones.
Actualmente se defiende la especialización funcional de la corteza visual.
2. Clasificación de las modalidades sensoriales
El origen y sentido de la sensibilidad es adaptativo, por ello sólo se puede
hablar de estímulos adecuados y de respuesta sensorial integradora.
Haremos un doble tipo de clasificación:
 la primera, tomando como base el tipo de información
 la segunda, tomando como base el nivel de conducta sensorial.
Clasificación de la sensibilidad por el tipo de información que
suministra.Interoceptivas.
Son sensaciones que constituyen señales del medio interno. Son de carácter
elemental y difuso y su función principal es informar al organismo de su
situación homeostática en el sentido más amplio. Evolutivamente, constituyen
un intermedio entre las respuestas emocionales simples y las sensaciones
superiores que soportan la actividad simbólica del pensamiento.
Propioceptivas.
Informan de la situación en el espacio del organismo en general y del aparato
motriz sustentador en particular. En un sentido más amplio, informan de las
respuestas motoras y de las sensoriales. Por su valor de información de
retroalimentación los psicólogos han llamado a estas sensaciones "conciencia
refleja". No sólo veo algo, sino siento que veo.
Exteroceptivas.
Nos informan del ambiente externo al que debemos o podemos responder
efectorialmente. Tiene una dimensión informativa bastante elaborada y
distinta; se acerca ya a la actividad simbólica de la función del pensamiento.
Según esta clasificación sacamos como conclusiones ciertas características en
la sensibilidad.
 Las mismas sensaciones interactúan de distinta forma, de una forma
recíproca, estimulando e inhibir mutuamente. De una manera
mancomunada, interactúan las diversas modalidades sensoriales
constituyendo el fenómeno llamado cinestesia, en cuanto que hay una
transferencia de las características de una modalidad sensorial a otras.
 Las sensaciones tienen un residuo de carácter emocional y motor. El
que el origen evolutivo de las diversas respuestas motoras, emocionales
y sensoriales, haya sido una misma reactividad del simple sistema vivo
ante la estimulación ambiente, explica este fenómeno residual de las
funciones sensoriales.
De esta clasificación sensorial hay que sacar como conclusiones ciertas
características en la sensibilidad:
 por su carácter de sistema informativo las mismas sensaciones
interactúan de diversas formas, constituyendo el fenómeno
llamado sinestesia.
 Además de su carácter propio y esencial informativo, las sensaciones
tienen un residuo de carácter emocional y motor.
3. La privación sensorial.
Si se suprimen los estímulos del medio exterior, aparecen los interiores;
palpitaciones del corazón, los sonidos de la respiración, etc.
La privación sensorial se refiere fundamentalmente a la privación de estímulos
sensoriales, pero esto viene aparejado con el aislamiento social, y a estas
sensaciones anómalas se les denomina "fiebre de canoa".

EL ESTUDIO CUANTITATIVO DE LA SENSORIALIDAD

Todo lo que sean relaciones de estímulos físicos ambientales o actividad


fisiológica y experiencias sensoriales cae dentro del campo de la psicofísica.
Pero hay que hacer una serie de distinciones.
 Una primera distinción, la cualidad sensorial y la calidad sensorial.
o El estudio de la cualidad sensorial es un estudio psicofísico, pero
en un sentido amplio. Estudia aspectos de las relaciones entre
los estímulos físicos y la experiencia sensorial.
 En segundo lugar, la distinción entre psicofísica interna y externa,
realizada por Gustavo Teodoro Fechner, creador de la psicofísica.
o La interna trata de las relaciones entre la actividad cerebral y la
sensación.
o La psicofísica externa trata de las relaciones cuantitativas entre
los estímulos ambientales y la sensación. Este tipo de estudio es
lo que constituye la psicofísica.
o Fechner consideraba que había una correspondencia biunívoca
entre estímulo externo y sensación, y entonces la psicofísica
interna se infiere de la externa.
 En tercer lugar, la psicofísica por un lado puede extenderse a sectores
cognitivos, emocionales o motivaciones, etc., más extensos que la
sensación.
o Por otro lado puede extenderse a otros tipos de estímulos, como
los psicosociales.
La psicofísica así entendida ha tratado tradicionalmente de dos temas
fundamentales: Las leyes psicofísicas y la determinación de los umbrales
sensoriales.
Para hallar matemáticamente los umbrales se han desarrollado una serie de
métodos que han recibido el nombre de métodos psicofísicos.
Los métodos psicofísicos. El enfoque de la psicofísica fechneriana o clásica.
Hay que establecer una distinción entre la psicofísica clásica, en donde se
produce una correspondencia entre el continuo estimular (físico) y el continuo
de respuesta (sensación) y la psicofísica moderna en donde no se mantiene
ese paralelismo y se introducen otros factores determinantes de la sensación.
El enfoque de la psicofísica fechneriana, clásica o tradicional, es que el juicio
que emiten los sujetos sobre su experiencia sensorial se corresponde
exactamente con el valor de su sensación.
Así para la psicofísica clásica sensación y juicio coinciden. Para la psicofísica
moderna, por el contrario, el juicio no viene determinado sólo por el valor de
sensación, sino por la decisión del sujeto en la que influyen la motivación de
ganancia o pérdida de la decisión.
La psicofísica clásica estudia la relación estímulo-sensación, mientras que la
psicofísica moderna hace hincapié en el estudio de la relación sensación-juicio
del perceptor.
En consecuencia, la psicofísica clásica cuidaba mucho de que los sujetos
emitiesen sus juicios en pura dependencia de sus sensaciones, para ello
utilizaban siempre sujetos muy entrenados, que estuvieran siempre en guardia
para emitir sus juicios en completa dependencia de sus sensaciones y no de la
información adicional que pudieran tener sobre el estímulo. Cuando el sujeto
emitía su juicio teniendo en cuenta esa información adicional sobre el
estímulo, la psicofísica clásica lo consideraba como "error de estímulo".

LOS UMBRALES SENSORIALES

La psicofísica clásica se interesó por el estudio de los umbrales sensoriales que


vienen a ser "los márgenes" de nuestra sensación, esto es, existen determinadas
magnitudes de estímulo tan bajas que ya no provocan sensación (umbral
absoluto o límite inferior) y, por el contrario, otras tan altas que lo que
producen no es una sensación sino dolor (umbral terminal o límite superior).
Umbral diferencial (UD) es la distancia (cambios mínimos en la intensidad)
sobre el continuo de estímulos entre el valor de un estímulo dado y otro
superior o inferior a éste, que provoca un cambio de sensación justamente
perceptible (d.j.p).
La psicofísica se ha centrado, principalmente, en el estudio del umbral
absoluto o valor mínimo del estímulo capaz de evocar sensación. Este valor
cambia en función del sujeto y las circunstancias, por lo que no existe un punto
único en todos los individuos, sino que se sitúa en una zona de transición.
La moderna Teoría de Detección de Señales ha prescindido del umbral; dicha
teoría de lo que se ocupa es del rendimiento en detectar una señal por
cualquier operador humano, y no de si existe el umbral o no.
Para evitar el "error del estímulo" se acudió al entrenamiento de los sujetos.
Para el problema de la probabilidad del estímulo se acudió a la corrección
estadística de los datos.
Varios métodos:
 Método de los límites.
 Método de los estímulos constantes.
 Método del error promedio.

DETERMINACIÓN DEL UMBRAL ABSOLUTO POR EL MÉTODO


DE LOS LÍMITES

Se localiza, al azar o mejor mediante cálculo aproximativo, un punto que


pueda estar cercano al umbral absoluto que buscamos.
Después se escoge un rango de estímulo por encima y por debajo de dicho
punto, de tal manera que las intensidades más altas estén por encima del punto
y las más bajas por debajo.
En el rango los estímulos han de estar separados por la misma diferencia de
intensidad.
A continuación se presentan los estímulos al sujeto en orden decreciente o
creciente, comenzando por los límites del rango.
Se realizan tantas series descendentes como ascendentes (5 ascendente y 5
descendentes), total 10 series. El sujeto responde en cada presentación del
estímulo si lo percibe o no, y se anota SÍ o NO.
Así el Umbral Absoluto (UA) será el valor obtenido al hallar la media
aritmética de todos los valores de puntos de transición (valor medio entre el
valor del estímulo que es detectado por última o primera vez y el que ya no es
detectado por primera o última vez) en las series descendentes y ascendentes.
UA = ( ΣT )/n = T
ΣT : suma de todos los puntos de transición.
n: número de ensayos realizados.
T : media aritmética de todos los T.
La variabilidad es importante, porque además de desear un umbral absoluto
bajo en su grupo, se desea baja variabilidad. Para ello la medida de variabilidad
más frecuente es la DS o desviación estándar.
Finalmente, se debe tener en cuenta el control de lo que se ha
llamado variables relevantes. Entre estas variables hay que señalar la dirección
de las series(descendente o ascendente).
Las secuencias pueden producir efectos de orden y efectos de arrastre.
EL efecto de orden se ralaciona a la posición ordinal de cada una de las
secuencias.
Hemos usado un orden alternante DADA..., aunque otras veces se emplea
DAAD...
EL efecto de arrastre se produce cuando las condiciones de cada serie son
bastante diferentes, y entonces, con un orden fijo de presentación, la ejecución
llega a depender de qué tipo de series fueron las precedentes.
En definitiva, hay una serie de efectos que deben ser controlados para una
buena determinación del UA.
Conviene pues, que cada serie tenga un número distinto de presentaciones
del estímulo, comenzando cada vez con un valor distinto.
Se trata de evitar que el sujeto pueda tener ninguna información adicional,
distinta de la propia experiencia sensorial.
Tanto el error de habituación como el error de expectación se refieren a
Errores Constantes.

DETERMINACIÓN DEL UMBRAL DIFERENCIAL POR EL


MÉTODO DE LOS LÍMITES

Estudiar la percepción de diferencias de sensación o diferencia justamente


perceptible (djp).
Se trata de un valor estadístico, este es igual a la distancia entre el estímulo
percibido como mayor a uno dado y la distancia entre el estímulo percibido
como menor a ese mismo valor estimular dado, dividida por dos.
Así, se presentan al sujeto dos estímulos en cada ensayo (un estímulo
estandar E1y un estímulo variable E2) y la tarea de los sujetos es juzgar si la
magnitud de la sensación evocada por E2 es mayor, menor, o igual que la
evocada por E1.
El objetivo de nuestro ejemplo será determinar el mínimo incremento o
decremento, necesario para juzgar un segundo estímulo menor o mayor.
Se prepara una serie de aumento de estímulo. Y que hará de estímulo
estándar. El experimentador pondrá en la hoja de datos los signos + , - ó =.
Se va repitiendo hasta que el sujeto registra un cambio de más a menos en las
series descendentes (D) o de menos a más en las ascendente (A).
El Umbral Diferencial sería igual a la distancia entre el estímulo detectado
como inmediatamente mayor al estándar (umbral alto UA) y el estímulo
detectado como menor al estímulo estándar (umbral bajo o UB), dividido
entre dos.
UD = ( UA - UB ) / 2
Otra forma de hallar el Umbral Diferencial es a través del Umbral de
Incertidumbre (UI).
UI = UA - UB
Así nos queda que el UD = UI / 2 = 1
El punto de Igualdad Subjetivo (PIS) es otra cantidad, porque el sujeto no
siempre juzga E1 y E2 iguales cuando de hecho lo son.
Es normal tomar la medidad de los valores de PIS de cada serie para obtener
el valor medio o Punto de Igualdad Sujetiva.
El Umbral Diferencial para cada serie es siempre el UA menos UB dividido
por dos.
Se pueden obtener también el UD Alto, que es la distancia de umbral alto del
estímulo estándar, y el UD Bajo, que es la distancia desde el estímulo estándar
al Umbral Bajo.
UD alto = UA - E1 y UD bajo = E1 - UB
El método de los estímulos constantes y el método del error promedio.
En el método de los estímulos constantes los estímulos que el sujeto juzga no
se presentan en series, sino por azar. Al evitarse la dirección (ascendente o
descendente) de la serie se evitan los errores por habituación y expectación.
El método del error promedio es uno de los métodos más clásicos en
psicofísica.
Lo característico de este método es que el experimentador o el propio sujeto
manipulan el estímulo disminuyendo o aumentando la intensidad de forma
continua hasta que la sensación cambia del SI al NO o a la inversa. Este
método sólo puede utilizarse cuando el estímulo puede variarse de forma
contínua. Aquí la media no será estadística sino de tendencia central, o media
geométrica.

EL ENFOQUE DE LA PSICOLOGÍA MODERNA. MÉTODOS


PSICOFÍSICOS DIRECTOS

Frente a los métodos fechnerianos o indirectos, Stevens desarrolló en 1951


los métodos directos.
Fechner medía directamente las magnitudes del contínuo físico y, sólo por la
relación a ellas, medía la cantidad de d.j.p., que en la sensorialidad equivalían
a aquellas magnitudes medidas en el continuo físico. Por eso se le ha llamado
indirecta. También se han denominado medidas acumulativas, porque se
basan en acumular d.j.p. para igualar la magnitud física correspondiente.
Finalmente, tales métodos de medidas se han llamado de confusión.
Los métodos psicofísicos directos se basan fundamentalmente en
emparejamientos de estímulos. Estos no se hacen con un patrón de medida,
sino que se utilizan en referencia a unas cantidades arbitrariamente elegidas.
Hay genéricamente tres métodos directos:
1. El emparejamiento de magnitud
 El emparejamiento de magnitud consiste en que el sujeto ajuste un
estímulo manipulándolo con una magnitud dada.
 Si esta magnitud es la sensación producidad por otro estímulo de
diversa modalidad sensorial, el método recibe el nombre
de "emparejamiento de magnitud de modalidad cruzada (cross-
modality)".
 Si la magnitud a la que se empareja es la serie de los números naturales,
el método se llama "estimulación de magnitudes".
 Cuando el mismo sujeto, dado el número, empareja manipulándo el
estímulo, el método recibe el nombre de producción de magnitudes.
2. El emparejamiento de razones
 El emparejamiento de razones, se presentan al sujeto dos estímulos
diferentes que guardan entre sí una determinada proporción. Entonces
tiene que emparejar otros dos estímulos de tal manera que guarden la
misma proporción que los estímulos dados.
 Cuando los estímulos dados son de una modalidad sensorial y los
estímulos que han de emparejar de otra, el método recibe el nombre
de "modalidad cruzada".
 Si la razón o proporción que ha de ser emparejada se da
numéricamente, entonces el método recibe el nombre de "estimación
de razones".
 Si por el contrario, dada una razón o proporción numérica el sujeto
tiene que manipular dos estímulos para producir una proporción o
razón en sensorialidad, el método recibe el nombre de "producción de
razones".
3. El emparejamiento de intervalos
 El emparejamiento de intervalos, se suele usar cuando se considera que
el continuo sensorial no forma una escala cuantitativa, sino de tipo
cualitativo.
 Se trata de emparejar intervalos y no razones, lo que se nos da o se nos
pide son diferencias que son las que hay que ajustar.
 En esta modalidad genérica de emparejamiento de intervalos también
encontramos tres modos específicos de realizarla: intervalos de
modalidades cruzada, estimación de intervalos y producción de
intervalos.

LAS LEYES PSICOFÍSICAS: LEY DE WEBER

Las leyes Psicofísicas


Una de las partes más importante de la psicología es el análisis funcional entre
estímulos físicos y las respuestas efectoriales o abiertas (interiores) lo que ha
dado lugar al establecimiento de leyes psicofísicas.
El estudio de los estímulos y las respuestas públicamente observables ha
permitido el conocimiento de los condicionamientos sensomotrices.
Pero también se puede estar interesado en conocer cómo estímulos exteriores
producen respuestas interiores, que serían experiencias subjetivas sólo
accesibles mediante procesos introspectivos, este es el caso de las sensaciones.
Las constantes y la ley de Weber.
Las leyes psicofísicas parten de una de las pocas constantes halladas en
psicología.
Ernst Heinrich Weber, fisiólogo alemán, fundador de la psicofísica, descubrió
que, en la sensorialidad, percibimos cambios relativos, no absolutos, en la
intensidad de los estímulos. Lo que hizo fue poner en relación el incremento
del estímulo cuando se produce una diferencia sensorial justamente
perceptible. Entonces, si al valor físico correspondiente al umbral diferencial
o d.j.p. lo llamamos ΔE (incremento de intensidad del estímulo) la
discriminación sensorial relativa ha de definirse como
ΔE / E = Fracción de Weber y expresa la relación del incremento de la
intensidad que tenía dicho estímulo antes de poderse percibir una d.j.p..
Ley de Weber
Weber descubrió que esta fracción era igual a una constante, para los
diferentes valores de la intensidad del estímulo k = constante de Weber,
dando lugar a la llamada Ley de Weber.
Ley de Weber = Todo estímulo requiere ser aumentado en una proporción
constante de su magnitud, para que se perciba un cambio de sensación.
Pero tal fracción no es realmente constante ya que al acercarse los valores del
estímulo a los umbrales de absoluto y terminal, la fracción cambia y la ley no
se cumple (se cumple para valores moderados o intermedios) pues el
incremento del estímulo crece en mayor proporción que el estímulo, y la
fracción no es constante sino que consiguientemente aumenta.
Para corregir este defecto se añadió un factor corrector a su ley consistente en
el valor "a" que es una pequeña cantidad constante que se relaciona con el
valor del estímulo, quedando la ley de Weber K = ΔE / (E + a).
Cuando el valor del estímulo es muy pequeño, entonces "a" tiene peso
suficiente como para producir una modificación significativa en el valor de la
fracción pero no a intensidades medias del estímulo. Esta modificación es de
G.A. Miller.
Surgen problemas en torno a su interpretación.
La conclusión final es que la ley de Weber establece dos cosas:
 Que la relatividad es el principio de la intensidad sensorial. EL umbral
diferencial aumenta cuando el valor del estímulo aumenta, es decir, ΔE
aumenta cuando E aumenta.
 Que la constante de Weber difiere notablemente de una modalidad
sensorial a otra. La constante de Weber sirve para determinar la
agudeza o sutileza de las diferentes modalidades sensoriales.
Las magnitudes que se relacionan se miden siempre sobre el continuo físico,
por eso, muchos autores no consideran esta ley una ley psicofísica en sentido
estricto, sino una ley que relaciona lo físico con lo físico. Esto no es del todo
correcto ya que el incremento del estímulo se determina por las diferencias
justamente perceptibles (d.j.p), que son ya experiencias subjetivas.
LAS LEYES PSICOFÍSICAS: LEY DE FECHNER

Las leyes Psicofísicas


Una de las partes más importante de la psicología es el análisis funcional entre
estímulos físicos y las respuestas efectoriales o abiertas (interiores) lo que ha
dado lugar al establecimiento de leyes psicofísicas.
El estudio de los estímulos y las respuestas públicamente observables ha
permitido el conocimiento de los condicionamientos sensomotrices.
Pero también se puede estar interesado en conocer cómo estímulos exteriores
producen respuestas interiores, que serían experiencias subjetivas sólo
accesibles mediante procesos introspectivos, este es el caso de las sensaciones.
Ley de Fechner.
Fechner, partiendo de la Ley de Weber, intentó medir la experiencia sensorial
no por referencia a medidas físicas sino a través de las djp del umbral
diferencial. Así a través de la acumulación de djp se podía medir el continuo
psíquico y relacionarlo con el continuo físico, por lo que postuló la igualdad
de las djp para poderlas utilizar como patrón de medida.
Partió para elaborar su ley de:
 un principio: la ley de Weber;
 un postulado: la igualdad de las diferencias justamente perceptibles.
El enunciado de la ley es: "la intensidad de la sensación es proporcional al
logaritmo de la intensidad del estímulo".
La formulación matemática de su ley es:
S = K logeE + C = Ley de Fechner
Con esta formulación, Fechner defiende que cuando la intensidad del
estímulo crece según una progresión geométrica la sensación crece según una
progresión aritmética.
Hay que hacer tres matizaciones a su ley:
 Mide la sensorialidad de modo indirecto ya que permite una medida
de la sensación tan solo por la referencia de acumulación de djp a las
magnitudes físicas del estímulo (por ello, estas escalas se llaman
acumulativas o de confusión, es decir, no expresa unidades de medida
de la subjetividad).
 Corresponden sus mediciones a una escala de intervalos y no a una
escala de razón, por lo que las operaciones de transformación que
puedan realizarse con la ley son limitadas.
 La igualdad de las "d.j.p." ha sido finalmente rechazada por la psicofísica
moderna, pues son proporcionales a la magnitud de los estímulos.
La moderna psicofísica establece dos críticas:
 el último punto anterior
 la ley sólo se cumple para valores intermedios, al igual que ocurría con
la ley de Weber.
LA PSICOFÍSICA MODERNA

Ley general de la psicofísica (Ley de Stevens).


Stevens partiendo de la ley de Weber, mantiene que las djp
son proporcionales a la magnitud del estímulo y no independientes como
postula Fechner.
El enunciado de la ley de Stevens o de la ley General de la Psicofísica es: el
cambio en la respuesta subjetiva o sensación es proporcional a la magnitud
del estímulo percibido, antes del cambio de la sensación.
Lo que ahora se considera constante es la fracción entre la relación del
incremento de la sensación a la sensación y del incremento del estímulo al
estímulo.
Su formulación matemática es: S = C x Ek = Ley general de la psicofísica
En esta ley se establece que la relación entre los estímulos y las sensaciones
varía en función de un exponente, que es indicativo de la modalidad del
atributo psíquico de que se trate y de la magnitud del estímulo.
Hay que hacer dos consideraciones: las leyes de Weber y Fechner quedan
reducidas a casos particulares de esta ley general.
 cuando K < 1, en este caso la sensación crece más lentamente que el
estímulo.
 cuando K > 1 la sensación aumenta más rápidamente que el estímulo.
 cuando K = 1 la sensación es directamente proporcional al estímulo.
Así, sólo en el caso de K < 1 se cumple la ley de Fechner.
Las d.j.p. no son consideradas iguales, por lo que no se pueden tomar como
patrón de medida.
Las escalas subjetivas.
Con las escalas subjetivas se inicia la psicofísica moderna.
La psicofísica moderna construye métodos para medir las respuestas
sensoriales. Va a dejar los métodos indirectos de medir la subjetividad y, en
su lugar, va a hacerlo de modo directo. Ahora se va a intentar medir las
sensaciones en escalas subjetivas, no acumulativamente y por referencia a las
escalas físicas.
El método de intervalos iguales de Plateau ha sido el primer intento de medir
directamente las intensidades de la sensación.
Modernamente, sobre todo con Stevens, se intentan construir escalas
subjetivas basándose en juicios de razón.
Por este procedimiento, algunos modernos psicofísicos han intentado
establecer una serie de unidades de medida fundamentales de los atributos
psíquicos, por ejemplo, el Sono se estableció como unidad de medida de la
sonoridad.
El problema de las dimensiones subjetivas radica en si se puede construir un
sistema de unidades fundamentales de medida en psicología, para ello haría
falta encontrar medidores de las dimensiones psicológicas como existen en la
física.
El problema en psicología es que los indicadores se relacionan a las
dimensiones psicológicas por leyes desconocidas, los indicadores no están
calibrados.
En consecuencia, es fácil que no se sepa cómo se mide, ni lo que se mide.
Por ahora no hay unidades de medida fundamentales.
Ante este problema hay tres posturas:
 Unos niegan de modo a priori la posibilidad de medir dimensiones
fundamentales por unidades, se fundan en que no existen relaciones
invariantes entre todos los sujetos.
 Otros opinan que es posible construir ese sistema de unidades
fundamentales, con tal de utilizar los informes introspectivos
debidamente.
 Otros pretenden considerar como única dimensión fundamental la
probabilidad de respuesta y consideran las medidas psicofísicas como
derivadas de ellas.
Esta tercera no parece muy verosímil.
La solución alternativa que hoy día más se defiende proviene de la teoría de
detección de señales. Consiste en considerar a los organismos como artificios
de medida y establecer que la finalidad de la psicofísica no es encontrar un
sistema estructural de medidas, sino revelar la naturaleza de esos artificios.
Esta es la posición de Duncan Luce.
El valor de las escalas estaría entonces en descubrir cómo el sujeto típico
traduce la intensidad física de los estímulos sensoriales en medidas comunes
para el sistema nervioso.
En esta psicofísica contemporánea la ley general de la psicofísica relacionaría
medidas de tiempo de los impulsos nerviosos con medidas en unidades físicas
de intensidad del estímulo.
Esta psicofísica moderna renuncia a descubrir la estructura algebraica de la
subjetividad, en su lugar, sólo pretenden conocer cómo las intensidades
estimulares se traducen en el sistema nervioso (ejemplo: número de impulsos
nerviosos por unidad de tiempo)

INTRODUCCIÓN A LA TEORÍA DE DETECCIÓN DE SEÑALES

La psicofísica clásica pretendía establecer una medición de la sensorialidad.


En la Teoría de Detección de Señales (TDS) lo que se busca es el estudio
psicofísico del rendimiento sensorial humano, alejándose del estudio de la
sensación.
La TDS parte de dos supuestos:
 conocer qué criterios utiliza el sujeto para detectar un estímulo.
 dos tipos de estímulos:
o Señal, en toda situación estimular se presenta siempre una señal
bajo un fondo de ruido: Señal + Ruido (S).
o Ruido sólo (R), lo que implica admitir que siempre hay
sensación, lo que importa ahora son las posibilidades de los
diferentes valores de sensación, no el umbral.
Según esto lo que interesa a la psicofísica es el juicio del sujeto que no depende
sólo de la sensación sino, además, de las expectativas y las motivaciones del
sujeto.
Genéricamente, en una situación experimental se presentan una serie de
señales y de ruidos y el sujeto debe de responder sobre su detección.

EL PARÁMETRO Β

Probabilidades a priori.
El experimentador determina previamente el número de veces que va a
aparecer la S y el R. A esa distribución de la S y el R se
denomina "probabilidades a priori" y se representan siempre en
proporciones: P(S), P(R).
Razón de probabilidades a priori.
Es el cociente de las dos probabilidades anteriores P(R) / P(S).
Ante la situación experimental el sujeto puede emitir dos respuestas:
 decir Sí cuando cree detectar la señal.
 decir No cuando cree que no se ha presentado.
Esto da lugar a cuatro posibles clasificaciones de las respuestas:
 aciertos: el sujeto dice Sí y había aparecido la señal.
 falsa alarma: el sujeto dice Sí y no se había presentado la señal.
 fallo: el sujeto dice No pero la señal había sido presentada.
 rechazo correcto: dice No y no se había presentado la señal.
Probabilidades condicionadas.
Son las probabilidades de cada una de las respuestas posibles.
Razón de verosimilitud (Ls).
Puesto que lo que interesa en la TDS es la detección de la señal por parte del
sujeto, para la obtención de este criterio sólo se consideran las respuestas Sí,
es decir, los aciertos y las falsas alarmas. Ls = P(Sí/S) / P(Sí/R).
La TDS parte de que la respuesta sensorial se encuentra determinada por el
criterio de decisión del sujeto, determinado, a su vez, por sus motivaciones y
expectativas. Para crear experimentalmente esos estados motivacionales en los
sujetos, se establecen recompensas diferenciales a sus respuestas según una
matriz de pagos.
Matriz de pagos.
Es una matriz de confusión en donde el experimentador establece las
consecuencias de cada una de las respuestas posibles. Según cómo se
administren las recompensas diferenciales será la actuación del sujeto.
Razón de consecuencias.
Es un cociente donde se sitúan por un lado las ganancias y pérdidas asociadas
al ruido y, por el otro, las ganancias y pérdidas asociadas a la señal.
Parámetro b.
Consiste en la multiplicación de la razón de consecuencias y la de
probabilidades a priori. Si no se establecen recompensas diferenciales, el
parámetro dependería de la razón de probabilidades a priori.
Regla de decisión.
Sirve para decidir si el sujeto ha detectado la señal:
 se dice que el sujeto Sí ha detectado la señal cuando el valor de la razón
de verosimilitud es igual o mayor que el parámetro b (Ls > b ).
 se dice que el sujeto No ha detectado la señal, cuando el valor de la
razón de verosimilitud es menor que el parámetro b (Ls < b ).
Para representar gráficamente esta decisión se tiene que hallar:
Parámetro de detectabilidad -d'-. Es la distancia entre la distribución del ruido
y la distribución de la señal.
 cuanto más se separen estas distribuciones más se detectará la señal.
 el criterio de decisión se deriva, por tanto, de las probabilidades a priori,
de los resultados de la matriz de pagos y del objetivo que se establezca
el sujeto.
 la distancia entre ambas curvas se calcula estadísticamente.

CURVA ROC

Permite la representación gráfica de la detectabilidad. Es una curva en la que


se consideran sólo los aciertos y las falsas alarmas.
 a medida que la distribución de la S y la del R se distancian, el
parámetro d' va aumentando, ya que se incrementan los aciertos y se
reducen las falsas alarmas.
 cuanto mayor sea el parámetro d', la curva ROC presentará mayor
convexidad.
La conclusión de la TDS es que el criterio de decisión se deriva de las
probabilidades a priori (de donde se muestra la detectabilidad) de los
resultados de la matriz de pagos (en donde interviene la motivación y de los
objetivos que se imponga el observador.
La TDS no sustituye a los métodos psicofísicos, se trata sólo de una cosa más.
En primer lugar, los objetivos son diferentes. En segundo lugar, la psicofísica
clásica pretende medir la sensorialidad, sin embargo la TDS mide un
parámetro de detectabilidad entre dos estímulos físicos. Esta separación entre
ruido y señal se llama "detectabilidad, porque relaciona con la sensorialidad
del operador

TIEMPOS DE REACCIÓN

ESTUDIO DE LOS TIEMPOS DE REACCIÓN

Se trata de estudiar el tiempo que transcurre entre la presentación del estimulo


y la aparición de la respuesta. A este periodo de tiempo se llama tiempo de
reacción o latencia de respuesta.
La latencia empleada por un sujeto es una de las variables dependientes más
importantes en psicología.
Definición del Tiempo de Reacción.
El tiempo de reacción es el tiempo que media entre la estimulación de un
órgano sensorial y el inicio de una respuesta o reacción manifiesta.
Hoy muchas veces se utiliza el nombre más amplio de latencia de respuesta y
se define como el tiempo invertido en la realización de una tarea.
Los Primeros Estudios del Tiempo de Reacción
Los astrónomos fueron los primeros en caer en la cuenta que los tiempos que
tardan en reaccionar los diversos sujetos a la presentación de un estímulo no
son siempre iguales a causa de mediciones de velocidad de estrellas en el
espacio, diferentes en pocos segundos, entre varios astrónomos. A esa
diferencia se le llamó ecuación personal.
Posteriormente Helmholtz encontró diferencias de tiempo en la respuesta
muscular cuando se estimulaba el nervio ciático en la rana en distintos sitios y
lo llamó tiempo fisiológico.
Hirs fue el primero en utilizar el cronoscopio (de Mathias Hipp) para la
medición de un tiempo de reacción simple.
Un cronoscopio fundamentalmente consta de un presentador de estímulos
(como un dispositivo que emite una luz o un sonido), un cronometro capaz
de medir milésimas de segundo y, finalmente, una palanca o botón de
respuestas. Al presentar el estimulo, el aparato pone en funcionamiento el
cronometro, el cual se detiene cuando el sujeto oprime el botón de respuestas.

EL MÉTODO SUSTRACTIVO DE DONDERS


En 1869 Donders expone un método para medir la duración de los diversos
procesos mentales mediante el análisis de los tiempos de reacción
(fisiológico), método que recibiría el nombre de método sustractivo.
El fisiólogo austriaco Exner dio el nombre de tiempo de reacción en 1873.
La base teórica del procedimiento sustractivo consiste en admitir la presencia
de diversos procesos cognitivos que actúan en la ejecución de una tarea y que
se reflejan en la longitud del tiempo necesario en la realización de dicha
ejecución. El tiempo de reacción del proceso total resulta de la suma de los
tiempos de reacción correspondientes a los diversos procesos cognitivos que
se implican.
Los procesos cognitivos implicados en la realización de una tarea actúan de
manera serial y aditiva.
Donders diseño tres tipos de tareas:
 Tiempo de reacción simple (tarea A) en dos etapas: Detección de un
solo estímulo y emisión de la respuesta.
 Tiempo de reacción disyuntivo (tarea B): pueden aparecer dos
estímulos y cada uno tiene su respuesta con 4 etapas:
 Detección del estímulo.
 Identificación de éste.
 Selección de la respuesta.
 Emisión de la misma.
 Tiempo de reacción de elección (tarea C): se presentan dos estímulos
pero sólo se responde a uno de ellos con 3 etapas: Detección del
estímulo, identificación de la respuesta y emisión.
Donders hizo un experimento en que el sujeto experimental tenia colocado
un electrodo en cada pie, que podía dispensar una pequeñísima descarga. Si
la descarga se recibía en el pie derecho, el sujeto tenía que apretar con el dedo
índice de la mano derecha una llave de Morse. Si, por el contrario, era el pie
izquierdo, entonces era el índice de la mano izquierda el que tenía que pulsar
la llave de Morse. Esta tarea era de tiempo de reacción disyuntivo. Donders
media el tiempo de reacción de esta tarea y de ahí restaba el tiempo de
reacción de la tarea del tiempo de reacción simple en que se hacia la pura
detección del estimulo.
TR (disyuntivo) - TR (simple) = m
Donde "m" es la cantidad en milésimas de segundo y aquí sería el valor del
tiempo necesario para el proceso de identificar el pie que ha sido estimulado
y elegir la respuesta adecuada. Con esto se conseguía el ideal de Donders:
medir la duración de los procesos mentales. Además de ello, los tiempos de
reacción se utilizaron siempre como medio de medir la dificultad de una tarea.
El método de Donders ha sido posteriormente muy criticado. El trabajo
experimental demostró que no siempre un tiempo de reacción disyuntivo de
una tarea tipo B era siempre más largo que el tiempo de reacción de elección
de una tarea C. Hoy día que se habla tanto del procesamiento en paralelo y
distribuido, el método de Donders es difícilmente aceptado.
Ha sido posteriormente muy criticado, luego el trabajo experimental mostró
que no siempre un tiempo de reacción disyuntivo de una tarea tipo B era
siempre más largo que el tiempo de una de tipo A. Además no hay
correspondencia entre los informes introspectivos de los sujetos y los datos
obtenidos por este método.

EL MÉTODO DE LOS FACTORES ADITIVOS

En lugar de medir tales tiempos, Sternberg y la psicología cognitiva moderna


se conforman con intentar identificar los procesos mentales. La psicología
cognitiva para conocer los procesos implicados en la ejecución de una tarea,
emplea fundamentalmente, como variable dependiente, el tiempo de
reacción.
Dentro de este enfoque Sternberg creó el método de los factores aditivos en
el que defiende que lo que se suma no son etapas sino los factores que
intervienen en el procesamiento que se realiza en cada etapa.
Sternberg llegó a la conclusión de que:
 Hay etapas que dependen de un solo factor y aquí si que sus etapas son
aditivas y sus tiempos de reacción sí se pueden sumar.
 Otras tareas dependen de varios factores, por lo que su tiempo de
reacción no es aditivo, sino interactivo y dichas etapas no se pueden
sumar, teniéndose que emplear un diseño factorial. Así, se resuelve el
problema haciendo un análisis de la varianza.
El método no pretende medir la duración de cada etapa, sino poder inferir
qué etapas intervienen en la actividad de la mente que actúa entre la
presentación de una situación estimular y la respuesta.
Si los resultados del análisis de varianza arrojan que los factores afectan
significativamente a los resultados, pero que no existe interacción entre ellos,
tenemos que concluir que hay dos etapas de procesamiento mental entre el
estimulo y la emisión de la respuesta por parte del sujeto.
 Una etapa que se ve afectada por la intensidad (poca o mucha) del
estimulo. Corresponde al proceso de detección del estímulo.
 Otra etapa que se ve afectada en su duración temporal por el tipo de
respuesta (manual o verbal). Corresponde al proceso de ejecución de
la respuesta.
Si el análisis de varianza arroja una interacción entre los factores, los tiempos
de las etapas de procesamiento no serían aditivos, porque a los efectos de las
dos variables habría que añadir el efecto conjunto de ambos factores cuando
interactúan.
El método de Sternberg ha tenido muchas críticas, entre otras no ser un
método universalmente válido para descubrir en todos los casos qué procesos
mentales corresponden a la ejecución de diversas tareas.

FUNCIONES VISUALES BÁSICAS

EL ESTÍMULO FÍSICO: LA LUZ

El estímulo característico de la percepción visual es la luz. La luz es una


porción del espectromagnético (que es muchísimo más amplio) con la cual el
sistema visual funciona. El espectro es como un fenómeno ondulatorio, en el
que es importante las longitudes de onda, va desde los rayos gamma, pero
somos insensibles a la mayoría de los rayos.
La luz que nosotros percibimos tiene un matiz que depende de su longitud de
onda (el color), cuando cambia la onda cambia la percepción de la luz. La luz
es un fenómeno ondulatorio que se caracteriza por una alternancia de crestas
y valles. Los cambios de crestas y valles, en el caso de la luz, se deben a un
cambio en la cantidad de energía. La función de alternancia se define como
un coseno. El fenómeno se puede describir en unos pocos parámetros con
significado psicológico:
a) Longitud de Onda:
Es la distancia existente entre dos picos consecutivos de la onda (donde hay
más energía). Se mide en metros, aunque nosotros hacemos referencia a
nanómetros (1 nm = 10-9 m).
b) Amplitud de Onda / Intensidad:
Cantidad de desplazamiento máximo del fenómeno ondulatorio, se mide
desde cualquier pico hasta el punto de reposo de la onda. Las amplitudes
lumínicas a las cuales somos sensibles son excesivamente amplias, por eso la
medición de la amplitud se realiza en unas escalas de medida llamadas escalas
de belios. Estas son relativas, nos dicen cuantos belios es una intensidad
lumínosa mayor que otra.
Cuando hablamos de belios decimos que una luz es mayor que otra, por lo
que debemos tener un punto de referencia, si a este lo llamamos I0 y
llamamos I1 a la luz de la cual queremos saber los belios diremos que:
Nº de Belios = log (I1 / I0)
Habitualmente no hablamos de belios, sino de decibelios, que es una tercera
parte del belio.
c) Frecuencia:
La frecuencia hace referencia a como se repite el patrón de alternancia de
crestas y valles. Para poder definir la frecuencia es necesario introducir el
concepto de ciclo. La onda recorre un ciclo cuando partiendo de un punto de
reposo llega otra vez al mismo punto de reposo.
La frecuencia es el número de ciclos recorridos por el fenómeno ondulatorio
por unidad de tiempo o espacio. Si hablamos de tiempo es el número
de ciclos/seg. y lo expresamos en herzios. Cuando nos referimos al espacio la
frecuencia es espacial y se habla de ciclos/cm. o ciclos/angulo visual.
d) Período de onda:
Hace referencia al tiempo que se invierte en recorrer un ciclo completo. Se
calcula a partir de la frecuencia, ya que es su inversa, t = 1/F.
e) Amplitud (nº de fotones):
La alternancia de brillo y oscuridad es más rápido cuanto menor distancia
haya entre dos picos de onda.
f) Fase de onda:
Hace referencia a la cantidad de desplazamiento a lo largo del eje horizontal
(tiempo o espacio) recorrida por el fenómeno ondulatorio en un momento
determinado. En un proceso normal la fase de la onda es el desplazamiento
comenzando a contar desde el origen del primer máximo de onda. Esto se
mide en grados o radianes.
g) Fenómeno de modulación sinusoidal:
La modulación del patrón sinoseidal es horizontal o diagonal, se mide por
grados entre la modulación sinoseidal y el eje horizontal.

LAS MEDIDAS DE AMPLITUD LUMINOSA

1) Medidas radiométricas:
Consideran toda la potencia lumínica emitida por la fuente luminosa dentro
del rango del espectro visible, son independientes del observador.
2) Medidas fotométricas:
Las medidas fotométricas tienen en cuenta al sujeto perceptual. Somos poco
sensibles a las longitudes de onda extremas. Nuestra curva de sensiblidad iría
del azul al rojo, pero sería en el centro (verde) donde la sensibilidad sería
mayor.
Para medir la intensidad luminosa de una bombilla podríamos hacerlo de dos
formas:
 Capturar y medir la energía que emite, es decir, utilizando todas las
longitudes de onda de la bombilla dandole a todas el mismo valor.
Entonces estamos interesados en medir la potencia radiométrica total.
La unidad de medida que se utiliza son los watios.
 Si estamos interesados en la potencia fotométrica lo importante es que
utilizemos todas las longitudes de onda, pero no todas tendrán el
mismo valor, sino que será una función de la curva de sensibilidad
espectral. La unidad de medida es el lumen (1w azul=24 lumenes, 1w
verde=64 lumenes)
Desde el punto de vista perceptual estas medidas son insuficientes por dos
motivos:
 1º La fuente luminosa no tiene por qué ser fototrópica, puede no emitir
la misma energía en todas direcciones. Hay que tener en cuenta la
dirección.
 2º Es importante tener también en cuenta la distancia a la que se situa
el observador o la distancia a la que están los objetos de la fuente
luminosa.
Para hablar de orientación hay que introducir el concepto de estereoradian,
que es un ángulo sólido, se puede entender como un cono cuyo ángulo está
situado en la fuente luminosa y cuya base sea igual a 1 radian. Lo que medimos
ahora es la cantidad de energía dentro del cono. Si medimos toda la energía
medimos intensidad radiante (W/estereoradian), si medimos la intensidad
fotométrica la unidad es lumen/estereoradian.
La medida que tiene en cuenta la distancia (más bien la superficie del objeto
iluminado), si utilizamos la radiométrica sería la irradiancia (watios/cm2). La
medida fotométrica sería la cantidad de luz que llega al objeto que es util para
nosotros, la llamamos iluminancia y se mide en
lux (lumen/estereoradian/m2).
Hasta ahora hemos hablado de fuentes puntuales, ahora lo haremos de
fuentes difusas, que son muy utilizadas (fluorescentes, televisión) y nos
interesan porque las podemos conceptualizar como la cantidad de luz que
cualquier objeto refleja. Esta potencia radiométrica tiene una medida
radiométrica llamada radiancia, y una fotométrica llamada luminancia, que es
la que nos interesa y se mide en candelas/m2.

EL SISTEMA VISUAL

Todo el procesamiento visual se inicia en los ojos y todas sus estructuras son
importantes. Le damos más importancia a la retina, que consideramos
dividida en dos partes: hemiretinas nasales (desde el nervio óptico hasta la
nariz) y hemiretinas temporales (desde el nervio óptico en dirección
temporal).
Esta división es importante porque en el ojo se producen varios fenómenos,
uno de los cuales es el cruzamiento de información, y otro es el
de convergencia de información.
A partir del ojo la información va al cortex visual. Antes se produce un
cruzamiento de fibras e información en el quiasma óptico, las fibras proyectan
en las fibras geniculares del tálamo y a las fibras coliculares.
Lo que nos interesa son los cruces de información a nivel del ojo y a nivel del
quiasma óptico. El campo visual se divide en izquierdo y en derecho. La
proyección del estímulo en el ojo izquierdo sufre una inversión en los dos
ejes. De estos una parte se proyectan en una hemiretina y la otra en la otra.
Esta información pasa por el quiasma óptico, donde un cruzamiento hace que
la información de nasal-temporal pase al campo derecho y los de nasal-
temporal pasen al campo izquierdo. El campo visual izquierdo pasa al
hemisferio derecho y el campo visual derecho pasa al izquierdo.
El ojo está compuesto de varias partes además de la retina. La cornea es
transparente, presenta una curvatura característica y además conduce la luz a
una velocidad superior a la del vacio. A continuación encontramos la cámara
gris que está llena de humor acuoso. Después está la pupila y el conjunto
múscular del iris. La pupila es importante por su capacidad de variar de
tamaño. El cristalino tiene forma de lente, lo que es muy importante para que
las imágenes de los objetos se formen en la retina. La curvatura del cristalino
es variable, este proceso se llama acomodación. Esta se produce por la acción
de los músculos ciliares. A continuación está la cámara posterior del ojo
rellena de humor vitreo.
Finalmente encontramos la retina, que contiene células sensibles a la luz. En
ella podemos distinguir dos elementos:
 Fóvea o mácula, que contiene solo un tipo de fotoreceptores, los conos,
que se caracterizan por ser sensibles a distintas longitudes de onda. Se
encargan de la percepción del color.
 Conforme nos alejamos de la fóvea encontramos que disminuye el
número de conos y aumentan los bastones. Estos serían los encargados
de la visión nocturna o escotópica, son más sensibles a la luz. A 20º de
la fóvea casi todo son bastones.

LA FORMACIÓN DE LA IMAGEN EN LA RETINA

Para que se produzca la focalización de los objetos el plano de la imagen debe


formarse en la retina. Si se forma antes o después el objeto no está focalizado
y la imagen es borrosa. La mejor imagen se forma en la fóvea.
Cuando la luz llega a un medio óptico pueden pasar varias cosas:
 Que sea absorbido, lo cual no nos sirve para ver
 Que el rayo se disperse
 Que el rayo se transmita por el medio
 Que sea reflejado
De estas posibilidades nos interesa sobre todo:
Dispersión:
Este es el fenómeno que hace que el cielo tenga color azul, debido a la
dispersión de la luz por toda la atmósfera. La luz puede interactuar con las
pártículas y en el choque cambiar su trayectoria. Contribuye a la borrosidad
de la imagen y nos proporciona claves para percibir la tercera dimensión. A
esto es a lo que se le llama perspectiva aérea.
Difracción:
Se produce cuando la luz, en su trayectoria, interactúa con un cuerpo opaco.
En nuestro ojo esta interacción se produce con el iris y la pupila lo que
produce un cambio de trayectoria. La difracción solo se produce en la parte
del rayo en contacto con el borde pupilar.
Reflexión:
Podemos imaginar que la luz llegue a la retina y allí rebote, pero su capacidad
de reflexión es mínima. Para nosotros es más importante la capacidad de
reflexión de los objetos, que es llamada reflectancia. Esta se puede calcular
como el cociente de la cantidad de luz reflejada por la recibida, es
decir, luminancia / iluminancia. Esta medida es independiente de la luz total
existente en el medio. Esto es importante para explicar constancia
perceptuales como la percepción de la claridad. La reflectancia dependerá de
las características superficiales del objeto. Podríamos distingüir tres clases de
superficies:
 Espejo, está desprovisto de rugosidades, toalmente pulido. Devuelve la
luz en la misma dirección que la recibe.
 Mate, tiene tanta rugosidad que refleja la luz en todas las direcciones.
Esto hace que la superficie mate sea dificil de ver.
 Semimate, son rugosas y devuelven la luz en todas las direcciones, pero
más en unas que en otras.
Refracción:
Es el cambio de dirección de la luz dentro del medio. La normal a una
superficie es la perpendicular a la tangente que pasa por ese punto. El cambio
de trayectoria se produce cuando la luz pasa de un medio a otro, si y solo si la
velocidad de la luz es diferente en los dos medios. El cambio depende
entonces de la diferencia relativa de velocidades de la luz en ambos medios, y
es expresada en índice refractivo: la velocidad de la luz en el vacio entre la
velocidad de la luz en el medio en cuestión. El cambio de trayectoria se explica
por la Ley de Snell:
"La trayectoria de la luz depende del índice refractivo de los medios y del
ángulo de la luz respecto del medio, medido como el ángulo formado por la
normal de la superficie y la luz."
La ley permite calcular el ángulo que trazará la luz con respecto a la normal
en el segundo medio.
La refracción es el causante fundamental de que la imagen del objeto se forme
sobre la fóvea. Para ello la luz ha de tener un cambio de trayectoria que haga
a los rayos converger allí. Los medios ópticos tienen una capacidad muy
grande de cambiar la trayectoria de la luz. A esto es a lo que se le
llama potencia refractiva. Se mide en dioptrías que es la inversa de la distancia
focal del medio. La longitud focal es la distancia entre el centro del medio
refractivo y el punto donde el medio hace converger rayos paralelos y que se
llama foco.
Otro factor es la curvatura. Buena parte de los medios son curvos. La cornea
y el cristalino son curvos. El grado de curvatura es fundamental para
determinar el grado de refracción. A mayor grado de curvatura la refracción
va a ser mayor.
Supongamos que a la cornea llegan rayos paralelos al eje central y son
refractados de forma peculiar, confluyende en un punto situado en el eje de
la superficie y que se llama foco. La longitud suele expresarse en metros y se
usa para medir la potencia de la lente. Se expresa habitualmente en dioptrias y
se calcula como la inversa de la longitud focal en metros. Conocer esto nos
permite calcular donde va a estar situado el plano de la imagen. Es muy
importante que nuestro sistema ocular tenga gran potencia refractiva. Nuestra
cornea tiene la mayor parte de la potencia refractiva total (43 dioptrias). La
potencia refractiva asociada al resto de los medios (humores) es también fija.
El único elemento que tiene la potencia rafractiva variable es el cristalino.
La cara anterior pasa de 7 a 15-16 dioptrias y la cara posterior de 12-13 a 15-
16 dioptrias. El cambio de potencia refractiva se debe a un cambio de
curvatura del cristalino, esto es lo que se llama acomodación. Esta se produce
de forma automática por la acción de los músculos que lo rodean a lo largo
de su borde y que se llaman músculos ciliares. Están sujetos al cristalino a
través de unas fibras llamadas zonales. Cuando los músculos se relajan se
expanden hacia fuera, tiran de las fibras zonales y entonces el cristalino se
aplana, focalizando objetos lejanos. Cuando los músculos ciliares se retraen
tiran hacia dentro, las fibras zonales se relajan y esto produce como
consecuencia que el cristalino se abombe y podamos focalizar objetos
cercanos.

ANOMALIAS DE LA VISIÓN

Anomalias de la cornea
 Astigmatismo, una cornea normal tiene un radio de curvatura
constante. En el astigmatismo no lo tiene igual. Esto hace que partes del
objeto se focalicen bien y otras no. Este problema se puede tratar,
algunas veces es innato y otras se debe a lesiones mecánicas.
 Hay otras lesiones o infecciones producen defectos, como marcas rayas
o incrustaciones.
Anomalias de la retina
Desprendimiento, retinopatía, degeneración macular, retinitis pigmentaria,...
Anomalias del nervio óptico
La más frecuente es su destrucción o deterioro producida por el glaucoma, se
caracteriza por una presión anormalmente grande en la cámara posterior del
ojo. La causa más frecuente es que el humor acuoso debe ser renovado, si el
canal de drenaje se ocluye la presión sube.
Anomalías de convergencia
Son producto de la función de acomodación que realiza el cristalino. Hay dos
importantes:
 Hipermetropía, se caracteriza por una dificultad de acomodación
respecto a los objetos situados a corta distancia del individuo. No se
consigue abombar lo suficiente para que la imagen se forme en la retina.
El hipermétrope puede ver bien los objetos lejanos pero no los
cercanos. También puede deberse a que el ojo sea demasiado corto.
 Miopía, consiste en un exceso de abombamiento. Si el objeto está cerca
no hay problema. El problema está en los objetos lejános. También se
puede entender que el ojo es excesivamente largo, en cuyo caso la
mayoría de los objetos se verían borrosos. Se puede corregir
reduciendo la potencia refractiva, colocando una lente concava delante,
lo que hace que se acerquen los objetos lejanos. También se puede
recurrir a la queratotomían o tallar el cristalino para aplanarlo.
La intervención de los medios oculares produce borrosidad en la imagen. Esto
podríamos llamarlo función de dispersión del punto. La imagen es nítida en
el centro y conforme nos alejamos en cualquier dirección se hace más borrosa.
Esto quiere decir que tras los procesos anteriores habrá otros que corregiran
esto.

ASPECTOS DINÁMICOS DE LA VISIÓN: ADAPTACIÓN

La retina es el lugar que contiene las células fotosensibles. Es aquí donde se


produce la transducción. Está compuesta por varias capas de células:
fotorreceptores, horizontales, bipolares, amacrinas y ganglionares. Los
fotorreceptores son de dos tipos: conos y bastones.
Los conos son de gran tamaño y poco sensibles a la luz. Por eso son las células
encargadas de la visión diurna o fotópica. Hay varias clases de conos, y cada
una se caracterizaría por ser máximamente sensible a luces de una
determinada longitud de onda: 440 (azul), 530 (verde) o 560 (rojo). Esto no
quiere decir que no se activen con otros colores. Existen unos 8 millones por
ojo que se concentran sobre todo en la zona de la retina que llamamos fóvea.
Los bastones son mucho más sensibles a la luz que los conos. Son los
responsables de la visión escotópica o nocturna. Hay un solo tipo y es
máximamente sensible a longitudes de onda intermedias. Hay unos 120
millones por ojo.
Convergencia
Consiste en que tenemos alrededor de 130 millones de receptores y alrededor
de 10 millones de células ganglionares. Por consiguiente debe producirse una
convergencia, varios fotorreceptores conectan con una ganglionar. Este
fenómeno plantea varias cuestiones: la convergencia lleva aparejada la
sensibilidad, la posibilidad de trabajar en condiciones mínimas de luz.
También perdemos resolución.
Sensibilidad
Es la capacidad de detectar cantidades mínimas de luz. La forma de asegurar
esto es la integración espacio-temporal. Si tenemos un punto luminoso no
detectable este se suma con otros puntos que aparecen y que inciden enotro
fotorreceptor. Esto también se produce a nivel temporal. Estas dos
sumasiones se explican por las Leyes de Ricco y Block respectivamente.
Vienen a decir que el umbral absoluto de luminosidad del individuo dentro
de unos límites es constante para la intensidad y tamaño del punto luminoso
(intensidad *area o intensidad *duración del estímulo).
Equilibrio Sensibilidad - Resolución
Hay como dos subsistemas, uno encargado de la sensibilidad y otro de la
resolución. Podría haber un sistema basado en bastones y el otro en conos.
Hay evidencias acerca de los dos sistemas:
 Adaptación a la oscuridad: Esto se basa en que la sensibilidad cambia
según el ambiente esté más o menos iluminado. En el procedimiento
se mide el umbral a lo largo del tiempo. En la gráfica se ven dos
componentes, lo que podría indicar que cada uno corresponda a un
sistema. Si proyectamos a una zona en la que solo hay conos el efecto
que se produciría solo puede deberse a estos.
Si el rango lo desviamos a 20º de la fóvea la curva que se obtendría se
debería solo a los bastones. La adaptación a la oscuridad ha sido
aplicada a diversos campos:
o Lectura, los dislexicos parecen tener problemas con la parafóvea.
Es posible que el sistema de bastones de estos sujetos no
funcione correctamente.
o Los niños y algunos ancianos muestran curvas de adaptación a la
oscuridad distinta, la anomalía se produce en lo relativo a
bastones.
o Se cree que está implicado en el desorden afectivo estacional.
 Efecto Purkinje: Tanto conos como bastones son sensibles a luces de
distinta longitud de onda, pero no son sensibles de igual forma. En
condiciones de poca luz los colores no se ven iguales que con mucha
luz. De noche el único color que se percibe bien es el verde. Cambia la
cualidad del color cuando cambia la intensidad. El sistema visual
resolvería el problema teniendo un doble sistema: para mucha
sensibilidad y para resolución.

REQUISITOS BÁSICOS PARA LA INTERPRETACIÓN DE LA


IMAGEN RETINIANA

Campo receptivo
El campo receptor de una célula ganglionar sería la zona de la retina en la cual
la estimulación luminosa produce que la actividad de la ganglionar cambie.
En la retina hay varios campos receptivos. El que nos interesa es el campo
periférico. En una parte la actividad luminosa aumenta la actividad de la
ganglionar y en otra la disminuye, una es la zona ON y la otra es la OFF. Las
ganglionares ON-OFF tienen centro excitador y periferia inhibidora y
los OFF-ON al contrario.
Si se actúa sobre todo el campo receptivo la actividad no cambia ya que on y
off se contrarrestan. Si ilumina en dos partes, la zona oscura sobre off y la
luminosa sobre on, entonces habrá un aumento de actividad.
Estas células nos ayudan a codificar el tamaño de los estímulos y a identificar
los bordes. Las células no nos sirven para notar orientación. Las
ganglionares ON-OFF son importantes porque nos sirven para entender
cómo el sistema visual detecta los bordes, para ello están las llamadas bandas
de Mach que detectan los cambios de luminosidad.
Otro fenómeno es el de la rejilla de Hermann, en el cual se observan puntos
oscuros entre las rejillas y cuando miramos al lugar en el que había puntos
estos desaparecen. Los puntos entre intersección se perciben oscuros y
desaparecen cuando se intenta enfocar. Esto se debe a que los campos
receptores focales son pequeños (hay poca convergencia) y los campos
receptores peri y parafoveales son mayores.

PERCEPCIÓN DEL BRILLO Y LA CLARIDAD

 Brillo: Intensidad luminosa que percibimos de un objeto.


 Claridad: Intensidad acromática percibida, que va desde el blanco al
negro (gama de grises).
Rock da una definición para distinguir ambos conceptos. El carbón al sol es
más brillante aunque es igual de oscuro. Para cualquier objeto su reflectancia
es siempre la misma y no cambia en función de la luz que le llegue. Lo que si
cambia en un objeto es la cantidad de luz que refleja.
Podriamos decir que la cantidad de luz que refleja es la unidad física que nos
indica el brillo, mientras que el sistema visual utiliza la reflectancia para
percibir la claridad. El brillo percibido puede cambiar, sin embargo la claridad
percibida es constante. ¿Por qué percibimos la misma claridad en un objeto?.
Esta constancia se ha querido explicar de diversas maneras:
Helmholtz: "Para percibir la claridad el sujeto realiza una inferencia
inconsistente, en la cual para utilizar la reflectancia y que sea util, hay que tener
en cuenta la iluminación ambiental."
Wellach dice que la claridad se percibe fundamentalmente del contexto, si es
oscuro es percibido distinto de si es claro. Así solo se tiene en cuenta la
iluminación ambiental.
Gelb utilizó un dispositivo experimental con el que conseguía varias cosas. Se
descontextualiza el objeto y la cartulina se percibe como blanca, si colocamos
la blanca al lado de la negra hace que esta se vea negra. Si no hay contexto,
aunque haya experiencia previa sigue habiendo errror en la percepción. La
constancia de la claridad se puede romper con cierta facilidad. El sujeto se
descontextualiza en las claves de distancia.

AGUDEZA VISUAL

Es la capacidad del sujeto para ver detalles finos de los objetos. Será mayor
cuanto más pequeños sean los detalles que los sujetos son capaces de percibir.
Lo que nos interesa no es el tamaño del objeto, sino el tamaño de la imagen
en la retina. Por esto definimos el ángulo visual, que es el que forma la
proyección de un objeto sobre la retina. Llamamos a éste, ángulo alfa, y pone
en relación el tamaño del objeto con la distancia al observador. Es esta la
medida independiente que nos interesa.
Diferentes medidas de agudeza:
 Agudeza de reconocimiento: Implica presentar al sujeto estímulos
complejos. El test de Snellen presenta letras que van variando de
tamaño de fila en fila. Lo que el sujeto tiene que hacer es leer las letras,
el test cesa cuando el sujeto no puede reconocer ya las letras. Una
persona con visión normal tiene una resolución de 1´ de arco.
 Agudeza de resolución: Requiere del sujeto que sea capaz de localizar
en ese patrón algún detalle característico. El test de Landolt consiste en
decir hacia qué lugar está la abertura del objeto. Con este test se obtiene
una agudeza de 30" de arco. También se puede utilizar el test de onda
cuadrada que da información también de la sensibilidad al contraste.
 Agudeza de detección: Consiste en pedir al sujeto solo que detecte la
presencia del objeto. Se obtiene una agudeza de 1/2 de arco.
 Agudeza de verniero de localización: Se presentan dos lineas y la tarea
del sujeto es desplazar una de ellas para ponerla a una distancia mínima
antes de que la linea se perciba como una sola. Esta agudeza es
extraordinaria, en algun sujeto es a veces menor del tamaño de un cono
retiniano.

MOVIMIENTOS OCULARES

Si nuestros ojos no se movieran no seríamos capaces de ver. Nos interesan


aquellos movimientos cuyo objetivo es focalizar la escena en la fóvea. Hay dos
clases de movimientos: de versión y de vergencia.
Movimientos de Versión
Los movimientos son de versión si los ojos están paralelos. Dentro de estos
encontramos:
 Sacádicos, son fundamentales en la lectura. Son extraordinariamente
rápidos (600º/s) y la lectura se produce entre movimiento y
movimiento.
 De persecución, están implicados en mantener los objetos en
movimiento focalizados en la fóvea. Son movimientos suaves y lentos
(10º/s).
Movimientos de Vergencia
Los movimientos de vergencia son aquellos en los que los ojos confluyen en
algún lugar del espacio, en el cual está el objeto a focalizar. Tienen un papel
importante en la percepcíon de la tercera dimensión.

LA PERCEPCIÓN DEL COLOR

COLORIMETRÍA

LLamamos color a algo que realmente o técnicamente no podemos


considerar color, pero inferimos un aspecto analítico de la iluminancia de la
luz. Para entender el color debemos considerar que la luz nos proporciona
varios aspectos fundamentales: longitud de onda, intensidad luminosa y
pureza de la onda.
En la absorción del color de longitud de onda, cuando cambia esta cambia
también el matiz del color que percibimos. Además, la cualidad del color
percibido es función de otra variable como es la intensidad luminosa (efecto
Purkinje). La intensidad se traduce en brillo, podemos hablar de brillo o
claridad percibida en ese color. La cualidad percibida de la longitud de onda
depende de las mezclas de luz que se pueden hacer, cuanto mayor sea la
mezcla la pureza disminuye.
¿Cómo se estudia el color?
La estrategia usada se llama círculo colorimétrico, el cual consiste en una
manipulación experimental en la cual el círculo se divide en dos partes, en
una el experimentador presenta un color determinado y en la otra el sujeto
tiene que intentar reproducir el color que se le ha presentado con tres
colores: longitud alta (azul), longitud media (verde) y longitud baja (rojo). El
sujeto dispone de estas tres variables y puede manipular la cantidad de color
de cada uno.
Lo interesante del experimento es ver qué cantidad de cada color utiliza el
sujeto para igualar el color de la muestra. Esto es importante para comprender
cómo procesa el individuo el color.
Mezcla de colores:
La mezcla aditiva se forma cuando se mezclan luces de color. La mezcla si es
la suma de las intensidades luminosas el resultado es más brillante que en
la mezcla sustractiva. Con tres colores se puede reproducir cualquier otro
color de prueba, se usan rojo, verde y azul, aunque pueden ser otros. La
mezcla sustractiva es diferente porque se obtiene cuando se utilizan pinturas
y se llama así porque se produce una resta de intensidades, lo que hace es
reducir el brillo del color resultante.

DIAGRAMAS DE CROMATICIDAD: CIRCULO NEWTON Y


DIAGRAMA MAXWELL

Circulo de Color de Newton


Tiene dos características, que el nombre de los colores aparece en el
perímetro, donde se sitúa el matiz, y que en el perímetro están los colores
puros, saturados. Hacia el centro del círculo se va desaturando el color
pasando a ser blancos.
Diagrama de Maxwell:
Corrige el error de Newton que persistió durante 150 años en creer que los
colores básicos eran rojo, amarillo y azul, que son colores básicos en
pigmentos pero no en luces.
A partir de los diagramas anteriores se elabora otro en el que el matiz está en
el perímetro y en el centro se representa la saturación. Hay un problema en
el sistema de representación y es el de los colores no espectrales, que son los
que no hay ninguna longitud de onda que los reproduzca y solo se obtienen
por mezcla de otros colores.
Para predecir el resultado de la mezcla debemos partir del diagrama y ver
donde se cruzan la x y la y. El color a percibir puede ser el mismo siendo la
mezcla de colores distinta una de otra físicamente. Son colores
metámeros aquellos que se obtienen de forma diferente pero se perciben
iguales.
Otra cuestión es que la cantidad que tenemos que emplear de cada color para
obtener otro no siempre es la misma, hay varias mezclas posibles. Cuando los
colores que se mezclan son opuestos, es decir, la linea que los uno es un
diámetro del círculo, se anulan uno al otro y se obtiene el color blanco que
está situado en el centro geométrico del círculo, esto es, en el origen.
Son colores complementarios.
Las coordenadas del color resultante se obtiene realizando la suma
ponderada de los colores que se emplean, siendo a y b las cantidades de color
que empleamos:
xi = ax1 + bx2 / a+b
yi = ay1 + by2 / a+b
Este diagrama de cromaticidad tiene algunos inconvenientes:
 No representa adecuadamente colores espectrales.
 Hace predicciones erroneas cuando se trata de colores
complementarios.
Principio de tricromaticidad:
Cualquier conjunto de tres colores pueden ser empleados como conjunto de
colores básicos, lo único que se necesita es que no sean ortogonales, que
ninguno de ellos pueda obtenerse mezclando los otros dos. Se usan rojo,
verde y azul y se puede obtener cualquier color en la mayoría de casos.
Otros diagramas de cromaticidad: Munsell (1925):
Utiliza un sólido que podría visualizarse como dos conos pegados por la base.
Tiene tres ejes. El eje vertical representa el brillo (del blanco al negro). Este
sólido podría partirse en cualquier punto del eje, lo que daría lugar a un
círculo. En este el perímetro representa matices y hacia el interior se
representa la saturación. La ventaja es que representa la dimensión del brillo
y que está compuesto de gran cantidad de láminas.
CIE (1931):
Es el más utilizado y se basa en las curvas obtenidas en varios experimentos
de la mezcla de colores. En esos experimentos se presentaban colores que el
sujeto tiene que obtener con tres colores básicos. Se vió que hay colores de
prueba imposibles de obtener a no ser que se dirija una de las luces al campo
del experimentador. La suma de las tres coordenadas va a ser siempre 1. En
el perímetro están las longitudes de onda de los colores puros. Conforme nos
acercamos a un punto central tenemos menor saturación. Los colores no
espectrales estarían situados en la linea imaginaria que uniría los dos extremos.

MECANISMOS DE CODIFICACIÓN DEL COLOR

Teoría tricromática:
Ya que hay tres colores fundamentales podemos pensar que también hay tres
fotorreceptores retinianos encargados cada uno de codificar un color,
sensibles a las longitudes de onda cortas, medias y largas.
David Brewser (1831) fué el primero en medir las curvas de sensibilidad a los
colores. Encuentra un pico en las longitudes de onda del rojo anaranjado,
verde y azul. Desde el punto de vista de la sensibilidad parece que hay tres
máximos.
Young (1802) escribió: "Es completamente imposible concebir que cualquier
punto de la retina contiene un número infinito de partículas, cada una capaz
de vibrar al unísono con cada posible ondulación, es necesariuo suponer que
hay un número limitado, por ejemplo, a los tres colores rojo, amarillo y azul".
Helmholt corrigió el error de Young señalando que los colores eran rojo
anaranjado, verde y azul. Estos fotorreceptores son máximamente sensibles a
estos colores pero también lo son a otros.
¿Cómo se discriminan los matices?
Si son colores básicos esto es muy sencillo, los activan fotorreceptores
distintos. El problema es cuando son matices distintos.
¿Cómo se codifica el brillo?
Los colores más brillantes activan más fotorreceptores que los menos
brillantes. Si hay más intensidad luminosa habrá más actividad.
¿Cómo se codifica la saturación?
El blanco incrementa la actividad de todos los receptores. Si el verde es puro
solo se activa el fotorreceptor del verde, si se desatura activará a otros, porque
lo que hacemos es añadir luz blanca.
Los colores metámeros produccen la igualación del patrón de actividad en los
tres receptores. Se considera que los receptores se activan en los dos colores
de la misma manera. Los colores complementarios igualan la actividad en los
tres fotorreceptores.
Se encuentran tres tipos de fotorreceptores con máxima sensibilidad 570 nm
(amarillo-rojizo), 535 nm (verde) y 445 nm (azul-violeta), pero estos colores
no son básicos. Este es un punto debil de la teoría.
Teoría de los procesos oponentes:
Fué formulada por Hering (1878) y se apoyó en datos psicofísicos:
 1) Igualación de colores: Se presentan matices de color y el sujeto tiene
que utilizar el mínimo número de categorías para definir esos colores.
Casi todos utilizan cuatro, rojo, amarillo, verde y azul.
 2) Postefectos del color: Se presentan cuatro círculos de color y se le
pide que mire el punto del centro. Se retira y se produce un efecto en
el que se tiene la ilusión de ver los colores opuestos.
 3) Deficiencias en la visión del color: Los que tiene problemas con la
visión del rojo lo tienen también con el verde. Los que confunden el
azul con un color también confunden el amarillo con ese color. Esto
apoya la idea de cuatro colores que se organizan por pares.
 4) Mezclas imposibles: Hay mezclas que son dificiles de procesar, con
verde y rojo los verdes se perciben sin color, una tonalidad oscura que
los separa. El color que se percibe no tiene nombre en ningún idioma.
Hering propone a nivel retiniano la existencia de tres sistemas de receptores:
uno para rojo-verde, otro para azul-amarillo y otro para blanco- negro. Esto es
falso a nivel fisiológico.
Svaetiche encontró a mediados de siglo células en las células horizontales de
la retina que se comportanban de forma curiosa. Unas tenían una respuesta
bifásica ante la luz verde, sube y cae, esto último asociado a la presencia del
rojo. Lo mismo encontró con azul-amarillo.
DeValois y Jacobs (1975) descubren un mecanismo semejante en el sistema
visual del macaco. Hay varios sistemas celulares en el sistema geniculado
lateral que sirven para los pares anteriores.
Una buena teoría del color debe ser tricromática a nivel de receptores, pero
debe incluir un mecanismo oponente a un nivel superior.
Teoría Retinex:
Fué formulada por Land, y lo que dice es que el color percibido en un objeto
es constante aunque cambie el grado de luminosidad. El color percibido en
una superficie se determina por las longitudes de onda que refleja, pero
también por las de las superficies circundantes. Esta teoría dice que el sistema
visual debe basarse en la reflectancia más que en la luminosidad. El sistema
visual realiza una comparación entre comparaciones, lo cual se realizaría en
V4.

ANOMALIAS EN LA VISIÓN DEL COLOR

Acromatopsia Cerebral:
Es la pérdida de la visión del color a consecuencia de una lesión en V4 o en
las vías que conducen a esa área.
Taxonomía:
 Monocromatismo: Debido a la ausencia de conos.
 Dicromatismo: Son problemas en la diferenciación de pares de
colores: rojo-verde (protanopía y deuteranopía) o del azul-amarillo
(tritanopía).
 Tricromatismo anómalo: Requiere diferente proporción de los tres
colores primarios para obtener el de prueba.
ILUSIONES ÓPTICAS

Ilusiones ópticas de la percepción de la forma.


(http://www.educacionplastica.net/ilusiones.htm)

Ilusión de Zolner: Distorsión del paralelismo.

Ilusión del Muro: Distorsión del paralelismo.


Ilusión de Titchener: Engaño en el tamaño de las formas.

Ilusión del Triángulo: Engaño en la percepción de las distancias.

Ilusión de Hering: Curvatura falsa en líneas rectas.


El Camuflaje: La percepción de objetos es mayor cuando estos se encuentran
en movimiento. Los reptiles prácticamente sólo distinguen a sus víctimas o
enemigos si estos están en movimiento. El efecto del camuflaje viene
determinado por la tendencia de la percepción a unificar todo aquello que
tenga propiedades similares.

Ilusión óptica de Akiyoshi KITAOKA: Distorsión de las líneas rectas.


Aplicación en la que se pueden elaborar nuevas ilusiones siguiendo el modelo
del psicólogo y profesor japonés Akiyoshi KITAOKA. Se puede imprimir
como una lámina de dibujo.
Ilusiones ópticas de la percepción del espacio.

Ilusión de la perspectiva: Engaño en la percepción del tamaño. Gráfico


interactivo.
Figuras imposibles en perspectiva isométrica:

Con la perspectiva isométrica podemos generar fácilmente figuras imposibles.


Éstas parecen ser coherentes al primer vistazo, pero con una detenida
observación encontramos detalles que no guardan coherencia con el resto de
la figura.
Este tipo de figuras son muy interesantes para darnos cuenta de como
funciona nuestra percepción del espacio.
Al dibujar en perspectiva isométrica existe una coincidencia entre objetos que
se encuentran a diferentes profundidades y que además, si tienen el mismo
tamaño, se verán representados con el mismo tamaño (la perspectiva
isométrica es una proyección ortogonal).
Esto provoca una ambigüedad fácilmente manipulable, uniendo objetos que
en la realidad no podrían estar unidos.

Ilusión de Ouchi: Engaño a la sensación de profundidad y del movimiento.

Fíjate como el círculo central parece un hueco a través del que vemos a cierta
distancia un fondo que parece vibrar al mover nuestros ojos.
Ilusiones ópticas de la percepción del color y el contraste.

En este gráfico el cansancio de la retina por el contraste entre zonas claras y


oscuras próximas produce el efecto de sombras "fantasma" en las zonas
situadas entre los cuadrados negros. Comprueba como varía el efecto
dependiendo del tamaño de los cuadrados y del color del fondo en este gráfico
interactivo.

Las barras de color gris parecen más claras u oscuras dependiendo de que
esten situadas entre las barras negras o sobre ellas. Compruébalo con este
gráfico interactivo.
La zona donde convergen los cuatro rectángulos de color degradado parece
mucho más clara que el resto del fondo.

Ilusiones ópticas de la percepción del movimiento.

Ilusión Rotating Snakes: En esta obra del japonés Akiyoshi KITAOKA el


cansancio de las células de la retina y la sucesión de zonas claras y oscuras
provoca la sensación de que los círculos de colores giran en diferentes
sentidos. Para que te cerciones de que no es un truco de animación de
ordenador, imprime una copia en papel. Verás que el efecto no disminuye.
El efecto de post-imagen causado por el cansancio de la retina (como cuando
después de recibir un destello intenso de luz como un flash nos que da un
punto oscuro en nuestra visión) produce este tipo de ilusiones sorprendentes.
Hasta que no lo imprimes y lo ves en un papel piensas que es un efecto de
animación de ordenador. Puedes ver muchas más ejemplos similares a este
en la página del japonés Akiyoshi KITAOKA, psicólogo y profesor de la
universidad de Kyoto, que dedica su trabajo al estudio y divulgación de la
percepción y las ilusiones ópticas.

Efecto Moiré: La intersección de dos retículas produce unos efectos


sorprendentes de movimiento y transformación de formas y tonos,
especialmente si una de ellas se mueve sobre la otra. Es el efecto indeseado
del que huyen los impresores al imprimir tramas de color superpuestas.
Comprueba este efecto en el gráfico interactivo.

http://www.educacionplastica.net/moire.html

PERCEPCIÓN DE LA PROFUNDIDAD

CONJUNTO DE CLAVES OCULOMOTORAS

Berkeley aludió a la dificultad de percibir el mundo en tres dimensiones, ya


que el mundo lo vemos realmente en dos dimensiones. Clásicamente se han
propuesto dos aproximaciones:
 Innatista: La percepción de la tridimensionalidad es posible porque el
organismo está dispuesto para que la percepción tridimensional se
produzca.
 Empirista: No estamos genéticamente preparados, es nuestra
experiencia con la realidad lo que permite esto.
Estas dos aproximaciones coinciden en que funciona por indicios, captura de
la formación retiniana datos para construir la tridimensionalidad.
Oculomotoras:
La información proviene de grupos musculares implicados en la visión. Hay
dos grupos: extraoculares y ciliares. La información de estos dos grupos suele
ser redundante. Una parte de los movimientos son los que tienen como
objetivo focalizar el objeto en la retina, movimientos de convergencia en los
que los ojos convergen en el lugar donde está situado el objeto. Para el
movimiento algunos musculos deben contraerse y otros retraerse. Esto puede
ser una clave de distancia.
Cuando miramos un objeto del infinito visual el cristalino está
aplanado, mientras más cercano esté más abombado estará el cristalino. Sería
una clave asociada a la acomodación.
Pero, ¿puede haber tridimensionalidad solo con esas dos claves? La respuesta
es sí, pero a partir de 6 metros el cristalino no cambia, por lo que a partir de
ahí no es util como clave. Por lo tanto un sistema basado solo en estas dos
claves no sería un sistema muy fiable.

CONJUNTO DE CLAVES VISUALES

Berkeley aludió a la dificultad de percibir el mundo en tres dimensiones, ya


que el mundo lo vemos realmente en dos dimensiones. Clásicamente se han
propuesto dos aproximaciones:
 Innatista: La percepción de la tridimensionalidad es posible porque el
organismo está dispuesto para que la percepción tridimensional se
produzca.
 Empirista: No estamos genéticamente preparados, es nuestra
experiencia con la realidad lo que permite esto.
Estas dos aproximaciones coinciden en que funciona por indicios, captura de
la formación retiniana datos para construir la tridimensionalidad.
a) Binoculares (Estereopsis):
Los campos visuales de cada ojo están solapados. Vemos prácticamente el
mismo campo de visión, pero con diferente punto de vista. Existe disparidad
cruzadacuando la disposición de los objetos cambia según se mire con un ojo
o el otro. Si trazamos un círculo imaginario que pase por el observador y por
el objeto los objetos situados en su perímetro producen la misma proyección
en la retina, entonces la disparidad es 0.
La prueba de que existe disparidad la encontramos en el estereoscopio. Con
este sistema el 95% de los sujetos perciben la tridimensionalidad,
el 5% restante son estereociegos. Hay dos teorías para explicar esto:
Teoría de Sherrinton:
Se realizan una serie de procesos por cada imagen. Consiste en identificar y
localizar los objetos presentes en la imagen, y luego realizar el ensamblaje.
Hasta ese momento las imágenes que se utilizaban eran objetos reales. Esta
teoría no es mantenible, ya que hay estereopsis con objetos no identificables
como los estereogramas de puntos aleatorios.
Teoría de Marr:
El problema de construir la información es encontrar la correspondencia
entre las dos imágenes retinianas. La mejor forma de resolver el problema es
reducir la complejidad de la imagen con un filtrado, que consiste en eliminar
ciertas frecuencias espaciales. Al final del proceso los puntos están
perfectamente identificados.
Las personas incapaces de ver estereogramas tienen ese defecto de
nacimiento, solo utilizan la información de un ojo. Por ello las neuronas
encargadas de calcular disparidades pierden su función.
El efecto de rivalidad binocular se produce cuando se presenta información
competitiva en cada ojo. Entonces se percibe solo un patrón cada vez, se
pueden percibir los dos pero alternativamente.
b) Monoculares (Pictóricas):
Se les llama así porque las suelen utilizar los pintores para dar sensación de
profundidad.
Estáticas:
En el abismo visual lo que se produce es un gradiente de textura de la
superficie, el cambio en ese gradiente nos hace percibir profundidad. La altura
relativa está ligada al concepto de linea en el horizonte, se mide por la distancia
a esta. El tamaño nos sirve para calcular la distancia incluso cuando el objeto
se presenta descontextualizado si se puede comparar con otros objetos en
escena. La familiaridad del objeto hace que su imagen sobre la retina sirva
para calcular la distancia. Si el objeto no es familiar no es posible, a no ser que
se presente junto a otro objeto familiar.
Gruber y Dimertein (1965) colocaban a los sujetos en un pasillo muy largo en
el que controlaban la iluminación. A 8 metros se les ponía un cuadrado y a 16
metros otro de doble tamaño. Con iluminación veian que el más lejano era el
mayor. Después se les presentaban sin luz en el pasillo y se percibían dos
cuadrados de igual tamaño a la misma distancia.La familiaridad es insuficiente.
En la habitación de Ames, una habitación con características peculiares, en la
que la distancia entre el techo y el suelo es distinta según la zona, el efecto que
podemos percibir es el de que un adulto sea menor que un niño.
La interposición o oclusión consiste en que unos objetos tapan parcialmente
a otros. Los que tapan a los demás se perciben más cercanos. Nos indica que
estamos tratando con objetos completos que se tapan y no con fragmentos.
La perspectiva lineal se refiere al efecto de que los objetos retroceden respecto
al observador. El efecto de convergencia de paralelas es el que tenemos por
ejemplo en una viña. El punto de fuga es el punto donde parecen converger
las paralelas.
La perspectiva aerea se debe a la dispersión de la luz que produce la
atmósfera. Los objetos lejanos se perciben difusos y de otro color por la
atmósfera que hay entre el observador y el objeto.
Las sombras no solo son las que proyectan los objetos tras ellos, sino las de
unas partes del objeto provocan sobre otras. Esto es muy importante en la
percepción de caras, es una clave muy poderosa de profundidad.
Suele interpretarse como que hay una sola fuente de luz y que esta viene de
arriba, si estuvieramos abajo pensaríamos que la luz viene de nuestras cabezas.
Esto produce efectos como el de la tablilla de escritura que al rotar su imagen
nos parece distinta.
Dinámicas:
El paralaje de movimiento se basa en el cambio de perspectiva que tenemos
respecto al objeto y de este con respecto a otros en escena (absoluto o
relativo). Es parecido a la estereopsis, pero las diferentes perspectivas se
producen a lo largo del tiempo

PSICOLOGÍA DE LA ATENCIÓN

LA ATENCIÓN

En el momento actual, se entiende la atención como un mecanismo de


control sobre el procesamiento. Según Tudela (1992) la atención sería un
mecanismo central de capacidad limitada cuya función primordial es controlar
y orientar la actividad consciente del organismo de acuerdo con un objetivo
determinado.
De acuerdo con Posner y Cols. (1971,1980, 1994) vamos a destacar 3 tipos
de fenómenos atencionales:
 1.- Red Atencional Posterior: La atención como mecanismo de
selección de información.
 2.- Red Atencional Anterior: La atención como mecanismo de control
cognitivo.
 3.- Red de Vigilancia: La atención como mecanismo de alerta.
Los 3 fenómenos atencionales están relacionados así que, la atención sería un
mecanismo de capacidad limitada que selecciona información y su estado de
alerta fluctúa.

TIPOS DE FENÓMENOS ATENCIONALES: POSTERIOR,


ANTERIOR Y VIGILANCIA

1.- Red Atencional Posterior: La atención como mecanismo de selección de


información:
Un sujeto puede estar atento a una tarea, leer, pero al mismo tiempo también
puede desplazar el foco de su atención hacia los ruidos ambientales. Los
mecanismos de atención permiten seleccionar una fracción relevante de todos
los mensajes concurrentes y procesarla mientras que el resto de la información
- la irrelevante - recibirá un procesamiento nulo.
La atención selecciona que aspectos del entorno son relevantes y
requieren elaboración cognitiva y cuales son irrelevantes y no la requieren.
Se trataría de un sistema de orientación atencional, implicado en dirigir la
atención a localizaciones espaciales. Existirían diferentes operaciones de
orientación espacial (enganche, movimiento, desenganche) que estarían
relacionadas con diferentes estructuras cerebrales. Por ejemplo, se considera
que ciertas partes del cerebro medio (especialmente los colículos superiores)
estarían relacionados con el movimiento atencional, la zona parietal posterior
se relacionaría con el desenganche y ciertas áreas talámicas (pulvinar) se han
relacionado con el enganche atencional.
2.- Red Atencional Anterior: La atención como mecanismo de control
cognitivo:
Desde esta perspectiva se considera que el control voluntario reside en esta
red, compuesta por el cíngulo y áreas prefrontales. Este sistema se relaciona
también con la conciencia y la memoria de trabajo.
3.- Red de Vigilancia: La atención como mecanismo de alerta:
La alerta es una disposición general del organismo para procesar información.
Los estados de alerta fluctúan, contamos con alerta fásica y alerta tónica. la
primera sería rápida y la segunda lenta.
La red de vigilancia se relaciona con las otras dos redes. Actúa sobre la red
posterior activándola, produciendo una sobreorientación hacia lo perceptual
externo. Por otra parte inhibe la red anterior.
Dentro de las teorías de la atención encontramos 2 tipos de modelos:
 1) Modelos de filtro:
o Modelo de filtro rígido (Broadbent).
o Modelo de filtro atenuado (Treisman).
o Modelo de filtro postcategorial:
 Modelo de Deutsch y Deutsch.
 Modelo de Norman.
 2) Modelos de capacidad o recursos limitados:
o Modelo de Kahneman.
o Modelo de Norman y Bobrow.
o Modelo de Navon y Gopher.
 3) Propuestas integradoras:
o Propuesta de Pashler (1998)
o Propuesta de Lavie y Tsal (1994)

MODELO DE FILTRO RÍGIDO DE BROADBENT

Modelos de Filtro:
Los modelos de filtro recurren a la analogía de cuello de botella, es decir,
postulan la existencia de un filtro que regula la entrada de los inputs.
Los experimentos realizados sobre la atención consisten en mensajes
dicóticos. Los sujetos reciben, al mismo tiempo, dos mensajes verbales, uno
en cada oído y sólo deben atender a uno de ellos. El mensaje atendido es
recordado, mientras que el mensaje no atendido no lo es. De ahí que estos
modelos postulen la existencia de un filtro que selecciona sólo uno de los dos
mensajes.
Modelo de filtro rígido de Broadbent:
Los experimentos realizados por Broadbent consisten en presentar al sujeto
simultáneamente 2 mensajes verbales de forma dicótica, el sujeto atiende a
uno de ellos y luego es capaz de recordarlo, pero el mensaje no atendido no
es recordado.
Esto no es del todo cierto ya que Cherry (1953) desarrolló una variante
experimental que consistía en introducir variaciones en el mensaje irrelevante.
Estas variaciones consistían en lo siguiente:
 el mensaje irrelevante comenzaba en un idioma y terminaba en otro.
 el mensaje irrelevante comenzaba con una voz masculina y terminaba
con una femenina.
 el mensaje irrelevante era interrumpido por una señal auditiva...
Al preguntar a los sujetos por el mensaje irrelevante no recordaban el
contenido ni el idioma, pero en algunos casos advirtieron el cambio de voz o
la señal auditiva, lo que implica que el mensaje irrelevante recibe un
procesamiento elemental, al menos en sus rasgos físicos aunque no de sus
propiedades semánticas.
Un paradigma experimental desarrollado por Broadbent (1954) conocido
como la técnica de amplitud de memoria dividida nos informa de que cuando
se presenta un mensaje verbal de modo simultáneo y dicóticamente (por
ejemplo: dígitos) los sujetos recordaban ambos mensajes, pero no en su orden
real de presentación, sino agrupados por canales. Sólo cuando la velocidad de
presentación se hace muy lenta (un ítem cada 2 segundos) los sujetos
recuerdan los ítems en su orden real de presentación.
Ej.: Oído Izquierdo: a, s, d.
Oído Derecho: q, w, e.
El orden de presentación fue: a, q, s, w, d, e.
El sujeto recuerda: a, s, d, q, w, e ó q, w, e, a, s, d. No lo recuerda según el
orden real de presentación, sino agrupado por canales.
Los principios básicos del modelo de Broadbent:
El sujeto recibe del medio muchos mensajes sensoriales, estos serán
procesados en paralelo, al mismo tiempo, y se retienen transitoriamente en la
memoria sensorial. Pero como según Broadbent, sólo podemos procesar un
mensaje cada vez para evitar la sobrecarga del canal central existe un filtro que
elige qué mensaje va a pasar al canal central. El resto de la información se
pierde.
Pero, ¿de qué depende que un mensaje sea seleccionado?
Según este autor dependerá de las propiedades del estímulo y de las
necesidades del organismo.
El modelo propuesto por Broadbent es denominado de filtro rígido porque
propone que el filtro es un dispositivo de todo-o-nada que solo se centra en
un mensaje cada vez.

MODELO DE FILTRO ATENUADO DE TREISMAN

Modelos de Filtro:
Los modelos de filtro recurren a la analogía de cuello de botella, es decir,
postulan la existencia de un filtro que regula la entrada de los inputs.
Los experimentos realizados sobre la atención consisten en mensajes
dicóticos. Los sujetos reciben, al mismo tiempo, dos mensajes verbales, uno
en cada oído y sólo deben atender a uno de ellos. El mensaje atendido es
recordado, mientras que el mensaje no atendido no lo es. De ahí que estos
modelos postulen la existencia de un filtro que selecciona sólo uno de los dos
mensajes.
Modelo de filtro atenuado de Treisman:
Treisman realizó experimentos cuyos resultados indicaban que el filtro no es
de todo-o-nada, como afirmaba Broadbent, ya que permite que el mensaje
irrelevante sea analizado, por lo menos en aquellos casos en el que es
discriminable en relación con el mensaje principal. Treisman (1969) propone
que el filtro es un mecanismo de atenuación de todos los mensajes. El mensaje
relevante traspasa el filtro mientras que los demás -irrelevantes- son atenuados
para no sobrecargar el mecanismo central de procesamiento.
El modelo propuesto por Treisman es similar al de Broadbent, la diferencia
fundamental es el modo de operar del filtro, es diferente ya que para
Treisman el filtro atenúa los mensajes irrelevantes, y el mensaje irrelevante
recibe cierto análisis.
Los mensajes atenuados reciben algún tipo de análisis, de esto se desprende
el hecho de que si se detecta algún rasgo sobresaliente en uno de los canales
no atendidos, nuestra atención se desviará hacia dicho mensaje.

MODELOS DE FILTRO POSTCATEGORIAL

Modelos de Filtro:
Los modelos de filtro recurren a la analogía de cuello de botella, es decir,
postulan la existencia de un filtro que regula la entrada de los inputs.
Los experimentos realizados sobre la atención consisten en mensajes
dicóticos. Los sujetos reciben, al mismo tiempo, dos mensajes verbales, uno
en cada oído y sólo deben atender a uno de ellos. El mensaje atendido es
recordado, mientras que el mensaje no atendido no lo es. De ahí que estos
modelos postulen la existencia de un filtro que selecciona sólo uno de los dos
mensajes.
Los modelos de filtro postcategorial defienden que el momento en que se
produce la selección del mensaje relevante es una vez se han analizado todos
los elementos de la información sensorial, es decir sitúan el filtro atencional
en los estadios finales de procesamiento de la información.
Los experimentos hechos dentro del marco de los modelos de filtro
postcategorial sugieren que todos los mensajes reciben algún análisis
semántico.
Las características operativas de los modelos de filtro postcategorial son las
siguientes:
 Los inputs se almacenan momentáneamente en el almacén sensorial.
 Los inputs se procesan en paralelo en un sistema analizador.
 El filtro recoge los inputs ya analizados y evalúa sus características con
el objetivo de seleccionar el mensaje relevante.
 El mensaje seleccionado pasa a la M.C.P.
Los modelos de filtro postcategorial, en la fase preselectiva los mensajes
reciben procesamiento de forma automática, sin control por parte del sujeto.
Dentro de los modelos de filtro postcategorial distinguimos el modelo
de Deutsch y Deutsch y el modelo de Norman.
Modelo de Deutsch y Deutsch:
El primer modelo de filtro postcategorial fue ideado por Deutsch y Deutsch
(1963).
Las señales sensoriales son almacenadas momentáneamente en el almacén
sensorial, a continuación son procesadas en paralelo por el sistema analizador,
después opera el filtro evaluando las características y con el objetivo de
seleccionar el mensaje relevante, finalmente el mensaje relevante es
transmitido a la M.C.P.
Modelo de Norman:
El modelo de Norman es un modelo de filtro postcategorial, por lo tanto
afirma que la atención entra en juego una vez se han analizado todos los
elementos de la información sensorial.
Norman añade que el mecanismo de la selección no solo se basa en las señales
sensoriales analizadas sino que también en las expectativas del propio sujeto
(pertinencia).
Los modelos de filtro postcategorial defienden que:
Se analizan en paralelo todos los mensajes sensoriales pero estos procesos de
análisis no alcanzan la conciencia del sujeto, pues solo el mensaje seleccionado
por el filtro es percibido por el sujeto. Así que los análisis previos al filtro
serían operaciones automáticas.

MODELOS DE CAPACIDAD O RECURSOS LIMITADOS

Los modelos de recursos limitados difieren de los de filtro en diversos


aspectos:
 Se abandonan los experimentos de escucha dicótica para pasar a los de
atención dividida.
 Se estudian las limitaciones de la atención más que sus propiedades
selectivas.
Los experimentos de atención dividida consisten en que los sujetos realicen 2
ó más tareas al mismo tiempo, y el grado de deterioro en el rendimiento de
una de ellas se considera como un indicio de la demanda de atención de la
otra tarea (Kerr.1973; Posner,1978; Logan,1978,1979 ).
La realización de 2 tareas simultáneamente sólo será posible cuando ambas
impliquen una baja demanda de atención.
1.- Modelo de Kahneman:
Kahneman afirma que la atención es un recurso limitado que puede ser
utilizado por el sujeto de forma flexible.
Dos puntos importantes de este modelo son:
 La política de reparto y asignación de tareas: sería un dispositivo
encargado de administrar los recursos disponibles.
 La relación arousal - atención: Como postula la ley de Yerkes-Dobson
existe una relación en forma de u invertida: con alto y bajo arousal la
atención se reduce y con niveles moderados o medios de arousal la
atención aumenta.
Según Kahneman, el grado de interferencia entre 2 tareas concurrentes es un
indicio del consumo atencional de una de ellas. La interferencia, según este
autor, puede ser de capacidad o estructural.
 Interferencia de capacidad: cuando 2 tareas compiten por los recursos
centrales.
 Interferencia estructural: cuando 2 tareas compiten por alguna
estructura perceptiva o motriz.
2.- Modelo de Norman y Bobrow:
Estos autores añaden la idea de que la realización de un proceso puede estar
limitada por los recursos o por los datos.
Si aumentamos los recursos dirigidos a una tarea y mejora el rendimiento nos
encontramos ante un proceso limitado por los recursos, por ejemplo: si
estamos leyendo nuestra comprensión aumentará si apagamos la radio.
Si aumentamos los recursos y no hay mejoría en el rendimiento, es decir que
solo las características sensoriales de los datos afectan al rendimiento,
entonces nos encontramos ante un proceso limitado por los datos. Por
ejemplo: si tenemos que detectar un determinado sonido en un lugar
silencioso, nuestro rendimiento no mejorará por prestar más atención.
3.- Modelo de Narvon y Gopher:
La aportación de Narvon y Gopher es la siguiente:
A veces lo que determina el rendimiento no son las características de los datos,
sino los parámetros sujeto-tarea.
Por otra parte también afirman que cada tarea posee una composición de
recursos, mientras que unos recursos son decisivos, otros son irrelevantes, así
que: que dos tareas concurrentes se interfieran dependerá de sus respectivas
composiciones de recursos.

PROPUESTAS INTEGRADORAS

Numerosos autores han realizado propuestas que tratan de evitar la dsyuntiva


capacidad limitada/selección temprana frente a capacidad ilimitada/selección
tardía.
1. Propuesta de Pashler (1994)
Pashler señala que existe evidencia empírica de lo siguiente:
 1) cuando la selección se realiza sobre la base de atributos
físicos claramente diferenciables la identidad de la información
ignorada no se procesa;
 2) cuando los objetivos difieren claramente de los distractores, o se
definen sobre la base de categorías muy establecidas, se pueden
procesar en paralelo muchos elementos de la escena. Pero si se
incrementa la dificultad de la discriminación objetivo-
distractor aparecen claras muestras de limitación de capacidad.
Para Pashler la evidencia
 1) apoya las teorías de selección temprana en cuanto a la selección, pero
la evidencia
 2) apoya a las teorías de selección tardía en cuanto a limitación de
capacidad.
Pashler propone como alternativa lo que llama Procesamiento Controlado en
Paralelo: la información que no es atendida no alcanza un nivel de
procesamiento superior al de las características físicas, pero si es requerido
por la situación se puede atender a la vez a más de un estímulo, ya que no
existen limitaciones importantes de capacidad. Existe por tanto necesidad de
analizar por separado los aspectos de capacidad y de lugar de la selección.
2. Propuestas de Lavie y Tsal (1994)
Según estos autores la solución podría encontrarse en la carga perceptual (la
cantidad de información que debe ser procesada). En situaciones de escasa
carga perceptual quedan recursos atencionales libres que se dedican a
procesar información irrelevante y por tanto la selección se produce a niveles
más tardíos.
Lo interesante de esta propuesta es que el sistema atencional depende de las
demandas de la tarea y por tanto es flexible. Sin embargo, señala que la
asignación de recursos no puede hacerse de forma endógena y depende de
las características estimulares.

PROCESOS AUTOMÁTICOS VS. PROCESOS CONTROLADOS

Las principales diferencias entre los procesos automáticos y los controlados


son las siguientes:
Procesos automáticos:
 No implican consumo atencional.
 Son procesos que se aprenden.
 Son difíciles de modificar una vez aprendidos.
 No requieren esfuerzo consciente.
 Se realizan fácilmente en situaciones de alto estrés o arousal.
 Son eficaces en situaciones en las que disminuyen los recursos
atencionales.
 Poca interferencia en situaciones de doble tarea.
Procesos controlados:
 Implican consumo atencional.
 No son procesos aprendidos.
 Son flexibles, se adaptan a situaciones nuevas.
 Son conscientes e implican esfuerzo.
 Pierden eficacia en situaciones de alto estrés o arousal.
 Gran interferencia en situaciones de doble tarea.

PSICOLOGÍA DE LA MEMORIA

TEORIAS Y MODELOS DE APRENDIZAJE Y MEMORIA

Memoria es un proceso psicológico que sirve para almacenar información,


codificarla y registrarla de alguna manera.
Para saber cómo funciona la memoria en el contexto natural de la vida diaria,
según Neisser, los estudios sobre la memoria deben tener validez ecológica,
es decir, en ambientes naturales.
1. Ebbinghaus y el uso de sílabas sin sentido
Intuía que las ideas que en un momento habían sido conscientes no se
perdían, debiendo estar almacenadas en algún lugar. Su objetivo fue estudiar
las leyes de la memoria de manera experimental.
Utilizó el método de los ahorros: consistía en medir el tiempo invertido en el
primer aprendizaje de una lista de sílabas sin sentido, medir la duración del
reaprendizaje después de un intervalo variable de tiempo, y calcular la
diferencia entre ambos.
Lo más importante de su trabajo fue demostrar que incluso las funciones
mentales superiores podían estudiarse de manera científica, siempre que se
hiciera en condiciones controladas y simplificadas.
Sus estudios sólo trataban el tema de la memoria permanente. William James
fue el primer autor que propuso un modelo dual de memoria: distinguió entre
una memoria primaria (inmediata- a corto plazo-) y una memoria secundaria,
más duradera, basándose en la introspección. La memoria a corto plazo es
siempre consciente y de carácter transitorio y la memoria secundaria es menos
accesible pero más permanente.
2. La importancia de los procesos constructivos: los trabajos de Barlett
Barlett construyó historias que resultaran interesantes y que estuvieran
próximas al tipo de materiales que las personas normales utilizan a diario. Los
sujetos inventaban detalles que habían olvidado de la historia hasta hacerla
compatible con sus esquemas culturales. Se producían cambios en los
nombres geográficos por otros lugares más familiares y terminaban
omitiéndose. Clasificó los resultados obtenidos en categorías:
 Omisiones: los sujetos no recuerdan la información que les parece
poco lógica y difícil de comprender.
 Racionalización: a veces añaden nueva información para intentar dar
significado al pasaje que resulta difícil de comprender.
 Transformación del contenido: nombres familiares sustituyen a otros
de la historia que resultan no familiares.
 Tema dominante: algunos temas de la historia adquieren un valor
dominante, mientras otros aspectos se intentan relacionar con ese tema
dominante.

ESTRUCTURAS Y PROCESOS DE MEMORIA

Craik y Lockhart reaccionaron contra las memorias múltiples y centraron su


trabajo en el estudio de los niveles de procesamiento. La idea principal de este
enfoque es que los estímulos que llegan al sistema cognitivo son procesados a
distintos niveles de profundidad, comenzando por una codificación superficial
basada en las carcterísticas sensoriales de los estímulos, seguida de una
codificación más profunda y abstracta que culmina en el análisis semántico.
Las estructuras de memoria constituyen almacenes fijos, mientras que los
procesos de control del flujo de información a través de los almacenes tienen
un carácter más activo y variable.
Existen tres almacenes de memoria que son los componentes estructurales
del sistema y se diferencian de la información que contienen, que se llama
memoria:
 El primer almacén lo forman los registros sensoriales (RS), en los que
la información se procesa en paralelo (1 ó 2 segundos de duración). De
aquí pasa a un segundo almacén, llamado
 almacén de memoria a corto plazo (ACP), de capacidad limitada (5 a 9
elementos) en el que la información decae rápidamente (no superior a
15 segundos) aunque no tanto como en los registros sensoriales; este es
un sistema de memoria de trabajo que retiene la información activa.
Este almacén se comunica con
 el almacén de memoria a largo plazo (ALP) o tercer almacén. El ACP
además de contener la información que posteriormente se va a
transferir al ALP, se encarga de realizar importantes funciones de
control, como la repetición y codificación del material, la decisión de
qué información se va a transferir al ALP así como de elegir las
estrategias de control, esta ALP registra hechos e información
significativa de modo permanente.
Niveles de procesamiento y su influencia en la memoria
Atkinson y Shiffrin centraron la atención, en el modo de
procesamiento (aspectos cognitivos dinámicos) en lugar de los almacenes de
memoria (aspectos estructurales), aunque mantuvieron la existencia de una
memoria primaria y trataron de comprobar cómo el tipo de procesamiento al
que era sometida la información daba lugar a distintos tipos de aprendizaje y
retención. Cuanto más profundamente se procesa más duradera es su traza
en la memoria a largo plazo y menor la posibilidad de olvido. La información
procesada sólo sensorialmente decae pronto y se pierde rápidamente porque
produce una traza muy leve de memoria; la información procesada
fonológicamente produce una traza un poco más duradera, pero mucho más
superficial que la procesada semánticamente.

NATURALEZA DE LA INFORMACIÓN ALMACENADA

La memoria episódica almacena información acerca de experiencias


personales y sus relaciones temporales; la memoria semántica es un sistema
que retiene y transmite información sobre el significado de las palabras,
conceptos y clasificación de conceptos.
Se diferencian en la tasa de olvido. La memoria procedimental es un tipo de
memoria asociativa, situada al nivel más bajo de la jerarquía.

CONOCIMIENTO Y ADQUISICIÓN DE NUEVA INFORMACIÓN

1. Aprendizaje declarativo y aprendizaje procedimental


El conocimiento declarativo es "saber qué" y conocimiento procedimental
es "saber cómo". El aprendizaje declarativo puede convertirse con la práctica
en aprendizaje procedimental.
2. Aprendizaje intencional y aprendizaje incidental
El aprendizaje intencional, explícito o consciente, se suele considerar como
un tipo de aprendizaje diferente al incidental, que es implícito o inconsciente.
Una serie de principios generales nos pueden ayudar a adquirir un nuevo
conocimiento.
Con el aprendizaje intencional, explícito y consciente aprendemos porque nos
lo proponemos y consumimos esfuerzo y tiempo para lograrlo. Seguimos
ciertas estrategias que creemos serán de utilidad. Aprendemos también una
enorme cantidad de cosas sin ni siquiera proponérnoslo, de forma
inconsciente y de manera incidental.
Existen resultados que sugieren la existencia de modos de procesamiento
distintos e independientes entre un grupo de sujetos entrenado explícitamente
y otro entrenado implícitamente. El segundo fue más rápido que el primero,
respondiendo además más deprisa a las series gramaticales. Las respuestas
basadas en conocimientos implícitos son más rápidas y diferentes desde el
punto de vista cualitativo, al ser más bien holísticas o paralelas, mientras que
las basadas en conocimientos explícitos serían más bien seriales.

SIMULACIÓN DE UNA RED CONEXIONISTA

La suposición principal de estos modelos es que en ellos se realiza cualquier


tipo de actividad mental. Son sistemas constituidos por multitud de unidades
simples relacionadas entre sí. Pueden servir para poner a prueba gran número
de hipótesis, por tanto, modelos generales que pueden aplicarse al estudio de
aspectos concretos de la conducta. Funcionan en paralelo de manera
interactiva.
Un modelo conexionista diseñado por McCleland:
Los componentes son
 1) las unidades o elementos simples.
 2) Las ecuaciones que son las que determinan la activación de cada
unidad en cada momento temporal.
 3) Los pesos de las conexiones entre las unidades,
 4) La reglas de aprendizaje, que cambian la actuación de la red
mediante el cambio de los pesos de las conexiones.
Funcionamiento de la red
Mediante uniones de flechas y círculos; las flechas representan uniones
excitatorias y los círculos uniones inhibitorias. La información no está
contenida en las unidades de la red, sino en la fuerza de las conexiones entre
las diferentes unidades. Los modelos conexionistas se diferencian claramente
de los modelos de inteligencia artificial como el ACT* en el proceso de
aprendizaje. Los conexionistas no suponen aprendizaje y generalización de
reglas sino que el conocimiento está distribuido entre todas las unidades de
red.
Resumen: la información está representada en la memoria mediante un gran
nº de conexiones entre unidades. Cuando una característica o atributo de un
conjunto de elementos contenidos en la memoria es activado, esta activación
se extenderá a todos los elementos de la red que contengan ese atributo. Por
el contrario, aquellos elementos de la red que no compartan este atributo
recibirán mensaje inhibitorio. El funcionamiento final de la red tenderá a
concentrar la activación en una palabra/as o a desactivar otras mediante
mecanismos de inhibición.
Aprendizaje
INTRODUCCIÓN AL ESTUDIO DEL APRENDIZAJE

INTRODUCCIÓN AL ESTUDIO DEL APRENDIZAJE

Aclaraciones teóricas sobre el estudio actual del aprendizaje.


Vamos a ver fundamentalmente el enfrentamiento de dos paradigmas:
 El paradigma de la psicología cognitiva, que considera que el objeto de
la psicología es la mente y a esta como un sistema de procesamiento de
la información. Sólo se preocupó en cómo se producía la retención del
conocimiento adquirido (memoria).
 El conductismo, que es fundamentalmente fuerte en el dominio de la
psicología del aprendizaje. Sólo se preocupó en cómo se producía la
adquisición del aprendizaje.
Recientemente se ha producido un acercamiento entre las dos corrientes
porque:
 a) Dentro de la psicología cognitiva se ha desarrollado el conexionismo
en el que se defiende que las representaciones mentales o patrones de
activación se adquieren y modifican por un proceso de aprendizaje en
interacción con el medio.
 b) En la psicología del aprendizaje de experimentación animal y de
preconcepciones conductistas: frente el conductismo que concebía el
aprendizaje como una asociación estímulo-respuesta puramente
mecánica, ahora se defiende un asociacionismo cognitivo y se concibe
el aprendizaje como la adquisición de información sobre la relación
entre acontecimientos de su ambiente. En el aprendizaje lo que hace el
animal es informarse de la relación causal estímulo-estímulo.
Este acercamiento de la psicología tradicional del aprendizaje a la psicología
cognitiva ha llevado a la asimilación de conceptos provenientes de ella, como:
 - conceptualización de condicionamiento clásico como conocimiento
declarativo. Se refiere más al aprendizaje de conceptos y a la
categorización.
 - condicionamiento instrumental como conocimiento
procedimental. Se refiere fundamentalmente al aprendizaje de
habilidades cognitivas.
El aprendizaje, en tanto que el resultado (lo que resulta del proceso de
aprendizaje), se concebía en el conductismo radical (Watson, Skinner) como
la adquisición o modificación de una respuesta conductual, ahora, por la
orientación cognitiva (Dickinson, Mackintosh), se concibe como
una estructura interna en la que se representan no sólo elementos del
ambiente (representaciones) que intervienen en la relación que observamos
públicamente, sino fundamentalmente la relación misma. Lo que se aprende
no es una conducta sino una representación de las relaciones entre estímulos
y conductas (aunque por la representación se adquiere también la conducta)
El estudio del aprendizaje ha pasado de un interés por los cambios
conductuales a el modo en que se adquiere el conocimiento o información
mediante la experiencia (proceso cognitivo) y a cómo es la naturaleza de lo
aprendido (representación).
Lo que se adquiere son estas estructuras internas y ellas determinan los
cambios conductuales que observamos.
Es importante distinguir entre:
 a) Aprendizaje: es adquisición del conocimiento de relaciones. Este es
un proceso mental.
 b) Ejecución: es la actuación observable del organismo como
manifestación de lo aprendido. Es el resultado conductual.
Por otra parte, ahora el condicionamiento clásico se entiende
como conocimiento declarativo (aprendizaje de conceptos) y el
condicionamiento instrumental como conocimiento procedimental
(aprendizaje de habilidades cognitivas).
Dickinson dice que la psicología del aprendizaje debe estudiar: las
condiciones, mecanismos, contenidos y determinantes de la conducta.
Conductas no aprendidas y conductas aprendidas
Fue a finales del siglo pasado y a principios de este, cuando el gran fisiólogo y
psicólogo ruso I. P. Pavlov definió claramente que las conductas son de dos
tipos: innatas y adquiridas. Nosotros tenemos que enfrentarnos con el estudio
de dos tipos de conductas: las no aprendidas (que es un concepto algo más
extenso que el de innato) y las conductas aprendidas.
Conforme ascendemos por la escala filogenética, el mayor peso de las
conductas aprendidas va aumentando, hasta el hombre, donde la conducta
aprendida es mucho más predominante que la no aprendida.
Conductas Innatas
Son conductas muy primitivas, no implican todavía la acción de un sistema
nervioso. Son los tropismos, las kinesias y las taxias. En el hombre no tienen
prácticamente ningún papel. Así, estudiaremos aquí los reflejos, conductas
simples pero que ya requieren la existencia de un sistema nervioso en los
animales, y los instintos, que son conductas mucho más complicadas y
requieren una alta programación, aunque esta no se adquiera, sino que sea
hereditaria para la especie.

EL REFLEJO
Fearing define el reflejo como la "respuesta elemental y directa de un efector
a la estimulación de un receptor". Son respuestas elementales y directas a un
estimulo exterior: la pupila se estrecha con la luz.
Así son por ejemplo los reflejos posturales, el reflejo rotular, el reflejo
tensional...
Consideración fisiológica del reflejo.
Como señala Fearing, desde el punto de vista fisiológico, el reflejo o arco
reflejo implica fundamentalmente cuatro elementos:
 - el elemento receptor que viene constituido por algún órgano de los
sentidos
 - la vía nerviosa aferente que transmite la excitación recibida en el
órgano sensorial a la médula espinal o cerebro
 - la vía nerviosa eferente que transmite el impulso nerviosos generado
en la médula o en el cerebro, como reacción a la excitación aferente
 - el efector propiamente dicho, que es un músculo o glándula que
reacciona con un movimiento o secreción, respectivamente.
Consideración conductual del reflejo.
Desde el punto de vista conductual, el reflejo es una respuesta:
 1) Innata: no se adquiere.
 2) Refleja: aunque puede ser modificada por mecanismos inhibitorios
fisiológicos.
 3) Básicamente fija: no modificable por la experiencia.
 4) Inmediata a la estimulación sobre el receptor
 5) Específica a estimulaciones concretas.
Leyes del reflejo.
El estudio desde el punto de vista conductual o de la actividad del organismo,
ha llevado a los autores a señalar las leyes primarias y secundarias del reflejo.
Entre las primarias están:
 - La ley del umbral se refiere a la intensidad mínima del estímulo que
es capaz de provocar la respuesta refleja. La adquisición de una mayor
sensibilidad de manera tal que una estimulación subliminal produzca
respuesta refleja, se llama sensibilización.
 - La ley de la latencia señala que entre la estimulación y la producción
de la respuesta refleja siempre media un período de tiempo, de
ordinario muy breve, que recibe el nombre de período latente. A mayor
intensidad en la estimulación, menor período de latencia (relación
inversa).
 - La ley de la magnitud-intensidad relaciona positivamente la magnitud
de la estimulación con la intensidad de la respuesta refleja evocada. La
relación magnitud-intensidad entre el estímulo y la respuesta refleja no
es absoluta por completo, sino que está influida por otras variables.
En cuanto a las leyes secundarias, la más importante es:
 - La ley de la fatiga del reflejo: cuando una misma estimulación se aplica
sucesivamente y con muy breve espacio de tiempo entre una aplicación
y otra, la respuesta refleja muestra fatiga, esto es, aumenta la latencia,
disminuye la intensidad de la respuesta para una misma estimulación y
el umbral de la intensidad del estímulo para provocar la respuesta
refleja aumenta.
Reflejo y conducta.
El reflejo juega un papel importante en la configuración de la conducta de los
organismos, como elemento básico a partir del cual se adquieren nuevos y
muy variados programas de conducta.
EL reflejo, sin duda, tiene una función autorregulativa conductual y fisiológica
de enorme importancia para la supervivencia.

EL INSTINTO

Evolución histórica del papel del instinto en la conducta.


Pavlov, al distinguir entre los reflejos innatos o incondicionados y los reflejos
condicionados intentó una definición científica del instinto, concibiéndolo
como una cadena de reflejos innatos.
El concepto etológico del instinto.
Los etólogos estudian las costumbres de los animales mediante la observación
de los mismos en su medio natural. Tal estudio les ha llevado a hacer
distinción importante entre la conducta instrumental o conducta instintiva y la
conducta consumatoria o instinto estrictamente dicho. El instinto
estrictamente dicho puede definirse como un patrón de conducta, heredado,
específico y estereotipado, que se descarga ante ciertos estímulos específicos
del ambiente.
Para Pavlov, es una cadena de reflejos innatos.
A partir de esta definición hay que considerar dos cosas diferentes:
 - los elementos componentes del instinto.
 - las características de esos elementos.
En cuanto al segundo punto hemos dicho que el patrón de conducta que
constituye el instinto es heredado, específico y estereotipado.
Los elementos componentes del instinto son :
Los estímulos índices.
Los estímulos índices o estímulos signo son estímulos muy concretos,
puntuales y específicos que desencadenan una pauta de acción fija y que no
pueden ser sustituidos por otros estímulos que pueden presentarse asociados
con ellos. Una reacción instintiva solo responde a muy pocos estímulos. El
procedimiento general para el estudio de estos estímulos ha sido el uso de
simulacros o señuelos que permiten separar un solo estimulo del conjunto de
estímulos generales asociados y hace posible que en un animal se desencadene
la relación instintiva ante simulacros.
Las pautas fijas de acción.
Son el verdadero patrón de acción instintiva y que tienen la característica de
ser:
 - innatas: no modificables por la experiencia
 - específicas: propias de la especie animal de que se trate y no del
individuo, esto es filogenéticas y no ontogenéticas.
 - estereotipadas: rígidas, uniformes e inmodificables por la experiencia.
Lo que sí es modificable por la experiencia es la acción instrumental de
la conducta instintiva.
Los mecanismos desencadenadores innatos.
Son las estructuras neurosensoriales que están en la base de la actividad
instintiva. Tinbergen (1970) señala que debe haber un mecanismo
neurosensorial especial que desencadena la reacción instintiva. Lo más
característico en el instinto es que esta base neurofisiológica es específica e
independiente para cada pauta fija de acción.

LAS PRIMERAS EXPERIENCIAS

Son las experiencias que tiene el animal en un período muy temprano de su


vida. Con el nombre de primeras experiencias se estudian dos fenómenos
distintos. Uno es el troquelado (imprinting), por el que un animal queda
ligado con sus padres o sustitutos de éstos. Otro es la influencia que tiene el
hecho de haber tenido experiencias en la época primera de la vida, para la
capacidad posterior de aprendizaje en general y para la realización de otras
conductas en la vida posterior del animal.
EL troquelado.
Fenómeno que se refiere a la tendencia manifiesta en determinadas especies
animales a ligarse conductualmente a un estímulo, generalmente a la madre,
al cual ha estado expuesto en una etapa muy temprana de su vida. El
troquelado se manifiesta con preferencia en ciertas aves.
Han sido los trabajos de K.Lorenz los que han provocado el interés por
investigar el troquelado.
Al parecer consiste en una mezcla de factores innatos y adquiridos.
La experiencia temprana.
Tanto las funciones fisiológicas como las conductuales, necesitan un
entrenamiento previo en los primeros períodos de la vida del individuo para
alcanzar la aptitud normal. Con respecto a las funciones de aprendizaje las
primeras experiencias juegan un papel fundamental en el desarrollo de
la capacidad misma de aprender.
Las experiencias tempranas son las que se dan al principio de la vida, ya desde
el momento de la fecundación. Pueden pues ocurrir antes o después del
nacimiento.
Explicación del papel de la experiencia temprana.
La primacía:
Las experiencias tempranas son enormemente determinantes para el
organismo, porque se producen cuando éste está todavía indiferenciado.
Fisiológicamente la experiencia temprana juega un papel en el desarrollo
del sistema nervioso.
En el campo conductual la aptitud del aprendizaje se produce a través del
aprendizaje temprano. Por ello, puede considerarse que el aprendizaje
temprano esta en la base de todo el aprendizaje posterior. A esta característica
la llama Hess (1973) primacía de la experiencia temprana.
Diferentes sensibilidades en el desarrollo:
Esta explicación se basa no en que el organismo carezca de experiencias
anteriores, sino en la situación de desarrollo en que se encuentra. De aquí que
se admita una sensibilidad especial de aprendizaje, determinada por el
desarrollo. Esta explicación se fija más en los acontecimientos biológicos que
en los conductuales o experiencias.
Clases de períodos sensibles:
Hess (1973) señala tres clases de períodos sensibles:
 · El período crítico se refiere al tiempo de la vida del organismo en que
se produce el fenómeno de troquelado o imprinting. Los períodos
críticos suelen tener una duración muy limitada y una vez transcurrida
esta, ya no es posible la recuperación.
 · EL período de susceptibilidad corresponde a un período de tiempo
de la vida de los organismos en que son especialmente sensibles para
ciertos estímulos, a los que conectan un repertorio de respuestas
innatas. Una vez hecha esta conexión, se perpetúa de ordinario para
toda la vida. Si durante este período no se conectan las pautas innatas a
sus estímulos específicos, la conducta puede resultar anormal.
 · EL período óptimo se refiere al hecho de que durante el desarrollo
hay momentos más adecuados para adquirir ciertos aprendizajes. Fuera
de este período esos aprendizajes, quizá, pueden obtenerse, pero con
muchas más dificultades e imperfección. Un ejemplo típico es el
lenguaje.
Cada uno de estos períodos representa un nivel diferente de la sensibilidad
determinada por el desarrollo. La mayoría de los períodos sensibles se dan a
una edad muy temprana.
Aprendizaje ante estímulos únicos. Adquisición preasociativa de respuestas.
Hoy día con el nombre de aprendizaje con un solo estímulo se estudian las
situaciones más simples en la adquisición de conducta y conocimiento en los
animales y el hombre. Aquí se tratan los efectos del aprendizaje que se
producen simplemente por la exposición reiterada del organismo a estímulos
únicos. Entre los aprendizajes ante un solo estímulo se estudian la habituación
y la sensibilización.
También aquí algunos autores incluyen el estudio de fenómenos que se
producen por la presentación ante el organismo de estímulos puntuales, como
son la inhibición latente y el aprendizaje por mera exposición o preexposición
al estímulo condicionado.
Aprendizaje es un proceso que se infiere a partir de los cambios observables
que se producen en la conducta de un organismo, como consecuencia de
ciertas experiencias con el ambiente. Lo típico del aprendizaje es la
asociación. Por ello, cuando se adquiere una respuesta o se modifica sin
experiencia anterior con dos estímulos relacionados, a este fenómeno le
podemos llamar aprendizaje con un solo estímulo (los autores antiguos le
llamaron aprendizaje preasociativo, porque es un proceso anterior al
aprendizaje por asociación).
Son varios los procesos por los que se produce una modificación de
respuestas no aprendidas sin que ocurra una asociación, aunque nos vamos a
reducir al estudio de los más fundamentales: Habituación, sensibilización,
pseudocondicionamiento e inhibición de la conducta innata.

HABITUACIÓN

Razran (1971) define la habituación (o irrelevancia aprendida) como el


decremento y desaparición de la reacción no asociativa repetida. Así como en
el aprendizaje la repetición del apareamiento entre sucesos refuerza la
aparición de la reacción, en la habituación ocurre lo contrario, se trata más
bien de aprender a no dar una respuesta innata o incondicionada
determinada.
Su valor biológico es muy grande, pues nos permite prescindir de dar
respuestas a una serie de estímulos que no tienen representatividad para la
vida del animal.
La habituación es un fenómeno completamente diferente de la extinción del
aprendizaje. En la extinción se trata de perder una conducta que había sido
previamente aprendida. En la habituación se trata de no dar la respuesta
natural (innata) a estímulos que no son relevantes para el animal.
Hoy día se considera la habituación como un proceso de aprendizaje con
estímulos únicos.
Hay que tener en cuenta que no todo decremento de una respuesta es
habituación. La saciación, la fatiga muscular, y la adaptación sensorial,
también producen un decremento de una respuesta y no son habituación.
La habituación tiene las siguientes propiedades:
 - la especificidad estimular, ya que se trata de un decremento de una
respuesta ante un estímulo específico o muy similar a él.
 - la reversibilidad o recuperación espontánea. Conforme pasa el tiempo
desde que se ha conseguido la habituación, el decremento de la
respuesta va desapareciendo y la respuesta vuelve a adquirir su fuerza
primitiva.
 - incremento de la tasa de habituación, cuando el sujeto es sometido a
repetidos procesos de recuperación espontánea con un mismo
estímulo.
Se ha encontrado que aunque el proceso de habituación llegue a extinguir por
completo una respuesta, todavía la presentación del estímulo tiene efecto
mensurable, al producir una recuperación más tenue. A este fenómeno lo
llamamos deshabituación.
Hoy han adquirido gran importancia las teorías explicativas de la habituación.
Entre ellas se señala la teoría del proceso oponente, la teoría dual y la teoría
del comparador, en donde podemos incluir también la teoría asociativa de
Wagner.
La sensibilización y el pseudocondicionamiento.
Hay un fenómeno de modificación de respuesta que no consiste en
condicionamiento, pues no hay ninguna asociación entre dos estímulos por
esta razón se llama aprendizaje con un solo estímulo. La presencia de un
estimulo capaz de provocar una conducta innata, puede cambiar el estado del
organismo, de tal manera que este estímulo aumente la fuerza de la respuesta
innata, sin que exista conexión con otro estímulo capaz de producir la
respuesta innata. A este modo de aprendizaje se le llama sensibilización.
Lo característico de esta es el aumento de la intensidad y de la prontitud de la
respuesta natural al estímulo, que se presenta solo.
Si se presenta el estímulo junto con otro, sin que haya asociación entre ellos,
la sensibilización se llama pseudocondicionamiento, que también han
recibido el nombre de respuesta alfa (sensibilización de la respuesta al
estímulo neutro que es apareado con un estímulo capaz de provocar una
respuesta innata para producir aprendizaje) y respuesta beta (sensibilización
especial de la respuesta al estímulo incondicionado o estímulo capaz de
producir una respuesta innata).
La sensibilización es un fenómeno opuesto a la habituación, ante la aparición
repetida de un estimulo, en la sensibilización la aparición de la respuesta
aumenta tanto en magnitud como en prontitud.
En el pseudocondicionamiento se presentan dos estímulos en contigüidad
temporal (apareados) como el condicionamiento, pero en realidad no se
produce asociación entre ellos por parte del organismo.
En el condicionamiento se aparean dos estímulos y el organismo los relaciona.
INHIBICIÓN

Como consecuencia de la aparición de estímulos muy intensos, nuevos o


aversivos se puede producir la suspensión (inhibición) de una conducta
(respuestas innatas y no de respuestas adquiridas o aprendidas) que de suyo
no tiene relación con ellos.

En general, las reacciones emocionales intensas producen la inhibición de


conductas que no se relacionan con ellas. La importancia de la inhibición de
respuestas innatas por parte de estímulos no relacionados con ellas es muy
importante en la vida. Este tipo de inhibición es anterior a los procesos de
aprendizaje y tiene influencia, a veces muy nociva, sobre nuestra conducta.

Lo que hoy día tiene verdadero interés es la inhibición latente, donde la


presentación previa de un estímulo provoca un retraso en la adquisición de
dicho aprendizaje. Así pues, hay una inhibición, pero es una inhibición
latente, porque lo que se inhibe es la potencia de disponibilidad de ese
estímulo para producir aprendizaje.

CONDICIONAMIENTO CLÁSICO

EL ESTUDIO DE LOS REFLEJOS CONDICIONADOS POR I.P.


PAVLOV

Lo primero que demostró Pavlov es que se trataba de un reflejo; es decir, una


respuesta del organismo a la excitación de alguna de sus partes, a través del
sistema nervioso.
Lo llamó Reflejo Condicionado, porque era un reflejo que dependía de las
condiciones del experimento y de las condiciones de vida del animal.
Y el reflejo innato recibió el nombre de reflejo incondicionado, porque se da
en cualesquiera circunstancias.
La condición para que un estímulo neutro en relación a producir la secreción
salivar adquiera la propiedad de producirla es el apareamiento repetido de
dicho estímulo neutro con un estímulo que innatamente produce dicha
secreción.
A partir de aquí, los autores han llamado al proceso descrito,
condicionamiento; al estímulo neutro, cuando adquiere la propiedad de
provocar la nueva respuesta, estímulo condicionado; al estímulo que provoca
innatamente la respuesta, estímulo incondicionado, y a la respuesta a
éste, respuesta incondicionada. La nueva respuesta es la respuesta adquirida y
recibe el nombre de respuesta condicionada.
El nombre del condicionamiento clásico se debe a que es el primer
modelo de condicionamiento que se ha estudiado.

EL PARADIGMA DEL CONDICIONAMIENTO CLÁSICO

Se llama condicionamiento clásico a la creación de una conexión entre


un estímulo nuevo y un reflejo ya existente.
Se ha venido definiendo el condicionamiento clásico como el aprendizaje,
consiste en que un estímulo originariamente neutro, con relación a una
respuesta, llega a poderla provocar, gracias a la conexión asociativa de este
estímulo con el estímulo que normalmente provoca dicha respuesta.
 - Se trata de un aprendizaje, porque se trata de la aparición de
una nueva conducta.
 - Es la aparición de un nuevo reflejo porque un nuevo estímulo es,
ahora, capaz de producirlo.
 - Y además esta nueva relación se produce como fruto de la
experiencia.
EL modelo del condicionamiento clásico es llamado: E-E. Es decir,
aprendizaje por conexión de un estímulo con otro estímulo.
La base de dicho aprendizaje está en la conexión entre dos estímulos, aunque
el aprendizaje consista en la aparición de una conducta nueva, por lo que es
absolutamente necesario definir la respuesta condicionada que se elige como
clave entre todas las respuestas incondicionadas de las producidas por el
estímulo incondicionado. Por ello, algunos definen el modelo E-E y
además EC-RC.
La conexión entre los estímulos se ha explicado tradicionalmente, y así lo hizo
Pavlov, mediante la asociación por contigüidad. Este punto de la explicación
de la conexión entre los estímulos en el condicionamiento clásico, por la
asociación de contigüidad es un tema controvertido.

CONDICIONAMIENTO EXCITATORIO Y CONDICIONAMIENTO


INHIBITORIO

El modelo o paradigma del condicionamiento clásico presenta dos tipos o


subparadigmas: el condicionamiento excitatorio y el inhibitorio.
Condicionamiento excitatorio
En el condicionamiento excitatorio se aprende que al estímulo condicionado
le sigue el incondicionado y, en virtud de ello, provoca una respuesta
condicionada.
El condicionamiento excitatorio presenta dos formas diferentes: el
condicionamiento apetitivo y el condicionamiento de defensa.
 a) El condicionamiento clásico apetitivo es el que ya hemos expuesto,
y lo esencial es que el estímulo incondicionado es agradable.
 b) En el condicionamiento clásico de defensa el estímulo
incondicionado es aversivo.
Condicionamiento inhibitorio
En el condicionamiento inhibitorio se aprende que al estímulo condicionado
no le sigue el incondicionado y, por lo tanto, difícilmente se producirá una
respuesta. En el caso de que el condicionamiento inhibitorio provocara
respuesta, esta sería una respuesta opuesta a la respuesta condicionada
excitatoria y, en este sentido provoca la extinción de ella.
El condicionamiento inhibitorio es el proceso de presentar el EI sólo en
algunos ensayos; en algunos ensayos el EI sigue al EC; en otros ensayos
al EC le sigue otro estímulo neutro diferente, sin que se siga la aparición
del EI; de este modo el EC se convierte en señal de la ausencia del EI.
Los ensayos en que se presenta el EC apareado con otro estímulo neutro, sin
que aparezca el EI son ensayos que propuso Pavlov como representativos del
proceso, y han recibido el nombre de condicionamiento inhibitorio.
El condicionamiento inhibitorio es algo muy importante para la vida de los
animales, porque es muy importante saber qué estímulos no se presentarán.
Hoy se da mucha importancia a su estudio.
Sin embargo, hoy día, lo que ha adquirido mayor importancia es el estudio de
la inhibición latente (que en realidad se trata de un aprendizaje ante estímulos
únicos y no de una aprendizaje por asociación de estímulos).
En la inhibición latente lo que ocurre es que la representación previa de un
estímulo hace que luego, posteriormente, ese estímulo, si es utilizado para
producir un condicionamiento, el aprendizaje tarda más en producirse.
 - Así pues hay una inhibición,pues se retrasa la aparición
del aprendizaje con ese estímulo,
 - pero esta es latente, porque lo que se inhibe es la potencia de
disponibilidad de ese estímulo para producir aprendizaje.
Es decir, las presentaciones "no reforzadas" de un estímulo neutro, previas al
condicionamiento, retardan significativamente el condicionamiento posterior
de ese estímulo neutro.
La condicionabilidad de un estímulo para producir aprendizaje es un
parámetro que no es una propiedad absoluta del estímulo, sino que cambia
con la experiencia que el sujeto tenga sobre él.
Mackintosh pensó que la preexposición a un estímulo neutro lo que produce
es irrelevancia aprendida; esto es, que ese estímulo no señala nada importante
para el organismo. En consecuencia, cuando este estímulo se quiere utilizar
para asociarse con un estímulo incondicionado y producir aprendizaje, se
hace difícil que el organismo aprenda que ese estímulo señala la aparición del
estímulo incondicionado.
Esto parece que sea una inhibición, sin embargo, suponiendo que la
exposición previa a un estímulo neutro produjera inhibición, esto facilitaría
que ese estímulo ayudara a la formación del condicionamiento inhibitorio,
pero los resultados experimentales no han sido así.
Variables que influyen en la adquisición del condicionamiento
Las principales variables que influyen en la adquisición del condicionamiento,
son:
 - La relevancia causal: nos indica qué estímulos son más fáciles de
condicionar entre sí
 - La experiencia previa con los estímulos puede influir en la fuerza con
que se produce el condicionamiento. De ésta variable, destacan dos
importantes fenómenos:
 - La inhibición latente; producida por la exposición repetida y previa la
EC aislado.
 - La irrelevancia aprendida; producida por la exposición previa del EC
y del EI sin ningún tipo de conexión entre ellos.

TÉCNICAS DE CONDICIONAMIENTO CLÁSICO

Con este modelo (condicionamiento clásico excitatorio) y estos dos


subtipos (apetitivo y de defensa) se pensó que cualquier estímulo neutro podía
condicionarse a cualquier estímulo incondicionado.
Esto no es así y el modelo de condicionamiento clásico tiene sus limitaciones.
De las distintas situaciones experimentales que se han creado en los trabajos
sobre condicionamiento clásico, se ha establecido tres técnicas que han
definido al RC con tres tipos de respuesta: apetitiva, de defensa y
psicofisiológicas.
Condicionamiento salivar
Fue la disposición experimental clásica utilizada por Pavlov en sus
investigaciones, de tal manera ha venido a definir de modo general el
condicionamiento clásico apetitivo.
Condicionamiento de la membrana nictitante
Es la disposición típica de los experimentos de condicionamiento con
respuesta de defensa.
Se ha utilizado mucho el llamado condicionamiento palpebral. La respuesta
de parpadeo en estas circunstancias parece más bien una conducta activa,
operante, y no está tan claro que sea una respuesta clave y bien definida de
condicionamiento clásico.
Por estas razones, Gormezano, ha sustituido esta disposición experimental
por el condicionamiento de la membrana nictitante del conejo.
Condicionamiento de respuestas psicofisiológicas
Es la disposición experimental que utiliza como respuestas, las respuestas
psicofisiológicas, tales como la conductancia eléctrica de la piel, la tasa
cardíaca o el ritmo respiratorio.
Estas respuestas se han convertido en una de las disposiciones más
importantes en los actuales estudios de condicionamiento clásico.

VARIABLES DEL CONDICIONAMIENTO CLÁSICO

Los elementos o variables del condicionamiento clásico son cuatro: estímulo


incondicionado (EI), estímulo condicionado (EC), respuesta incondicionada
(RI) y respuesta condicionada (RC).
a) Estímulo incondicionado (EI).
Cualquier estímulo que, con anterioridad al tratamiento experimental en
cuestión, produce una respuesta consistente y medible. De suyo, los estímulos
incondicionados son los que producen reflejos innatos en un sentido estricto,
(pero pueden utilizarse como estímulos incondicionados aquellos que
producen de modo consistente una respuesta, con anterioridad y con
independencia de la situación experimental de la que se trata, aunque la
respuesta no sea innata).
El estímulo incondicionado debe producir la respuesta de modo consistente,
esto es, uniformemente y con una cierta intensidad o potencia.
b) El estímulo condicionado (EC).
Es un estímulo que con anterioridad a su apareamiento con el EI no produce
la respuesta condicionada y, por lo tanto, es originalmente un
estímulo neutro en relación a dichas respuestas.
Si se produce de forma refleja originalmente la respuesta condicionada, ha de
ser de una intensidad mucho menor y extinguible rápidamente por la
presentación repetida de dicho EC aisladamente antes de comenzar el
tratamiento experimental.
Esta respuesta refleja producida espontáneamente por el EC recibe el nombre
de respuesta alfa.
c) Respuesta incondicionada (RI).
Es la respuesta que de modo reflejo, medible y regularmente, es producida
por el estímulo incondicionado.
Señala Gormezano, un mismo EI produce o evoca la reacción de varios
sistemas efectores, por lo que las respuestas incondicionadas a un mismo EI
pueden ser varias. Esto obliga a definir con toda claridad la clave que vamos a
escoger para definir la respuesta condicionada.
También es necesario distinguir la RI de las respuestas pseudocondicionadas
o beta, que es una sensibilización especial de los sistemas efectores que
produce la presentación aislada del EI, de tal manera, que antes de que haya
ninguna asociación EC-EI, al presentarse al sujeto un estímulo neutro se
producirá la respuesta pseudocondicionada espontáneamente, por la especial
sensibilización que ha producido la presentación aislada anterior del EI..
d) Respuesta condicionada (RC).
Es la respuesta que se aprende y no es exactamente igual que la RI, sino sólo
semejante. De ordinario es de medir intensidad que la RI.
La RC es propiamente la respuesta que se provoca por la presentación aislada
del EC, una vez que se ha establecido la conexión EC-EI.
La RC tiene que estar claramente especificada, definiéndola como
respuesta claveentre todas las respuestas de los sistemas efectores excitados
por el EI.
Un buen criterio para especificarla es que tenga que ocurrir en el mismo
sistema efector que la RI.
Hay que distinguir la RC de las respuestas alfa que son respuestas
incondicionadas al EC en el mismo sistema efector en que se ha definido la
respuesta condicionada.
Otras Variables
Existen otras variables que influyen en la asociabilidad entre el estímulo
condicionado y el incondicionado, que son distintas de la mera contigüidad
temporal.
 - Está el tipo de estímulo incondicionado que aparece y las
circunstancias motivacionales del sujeto.
También una variable importante en la fuerza con que se produzca el
condicionamiento es la experiencia previa con los estímulos. Se destacan dos
fenómenos que influyen en el condicionamiento:
 - La exposición repetida a un estímulo aislado produce inhibición
latente para el condicionamiento de dicho estímulo.
 - La irrelevancia aprendida es el efecto producido por la preexposición
del animal al estímulo condicionado y al estímulo incondicionado sin
asociarlos.

EL PROCESO DEL CONDICIONAMIENTO CLÁSICO

Hemos definido el condicionamiento clásico con el paradigma E-E. Esto es,


que un proceso de aprendizaje que se debe a la asociación de dos
estímulos (EC y EI).
Toda asociación de dos estímulos no constituye un proceso de aprendizaje
por condicionamiento clásico, sino sólo aquellos que producen
unas relaciones funcionales entre el estímulo condicionado y la respuesta
condicionada, relaciones EC-RC.
Hay otras características importantes del proceso a tener en cuenta.
 a) La más importante es que la aparición o no presentación del EI es
independiente de la producción por parte del sujeto de la respuesta
condicionada RC. Se trata de un aprendizaje respondiente, por tanto,
la actividad espontánea del sujeto no tiene ninguna consecuencia sobre
el proceso de aprendizaje.
 b) La otra característica está en relación con esta. Lo que se condiciona
son respuestas respondientes, reflejas, no actividades espontáneas.
En realidad el proceso del condicionamiento clásico consiste en la relación
funcional de un estímulo condicionado y una respuesta condicionada que se
establece de la siguiente forma:
 - Un estímulo (un sonido) que no provoca una respuesta (la salivación)
se presenta justamente con otro estímulo (zumo de limón), que provoca
uniforme y constantemente una respuesta (la salivación).
 - Este apareamiento de los estímulos se repite un cierto número de
veces y se establece una asociación entre ambos.
 - Finalmente, se presenta sólo el estímulo (sonido) que antes no
provocaba la respuesta, sin presentar ya el estímulo que normalmente
lo provocaba. Entonces encontramos que la presentación del sonido
provoca la salivación, aunque no en la misma cantidad a la que
provocaba el zumo de limón.
De este modo hemos definido el proceso del condicionamiento clásico de dos
modos:
 - primero, teóricamente, es la relación funcional EC-ER en virtud de la
asociación E-E, y
 - segundo, experimentalmente, es un proceso de tres fases en un
desarrollo sucesivo de acontecimientos. Dos estímulos independientes
con respuestas independientes; apareamiento de los dos estímulos;
finalmente, dependencia funcional de la respuesta de uno a la
presentación del otro.

PROCEDIMIENTOS DEL CONDICIONAMIENTO CLÁSICO

Un mismo condicionamiento, con los mismos estímulos y respuestas puede


presentar diversas modalidades según el procedimiento como se presenten
los estímulos intervinientes en el experimento.
Estos procedimientos son cuatro: simultáneo, demorado, de huella y hacia
atrás.
 a) En el procedimiento simultáneo, el EC se presenta al mismo
tiempo que el EI.
 b) En el procedimiento demorado (de demora), el EC se
presenta inmediatamente antes del EI.
 c) En el de huella, hay un intervalo de tiempo entre la aparición del EC
y el EI.
 d) En el procedimiento hacia atrás, el EC aparece después del EI.
Lo importante de estos procedimientos es que no producen la misma
fuerza en el establecimiento de la asociación entre ambos estímulos.
El hacia atrás presenta dificultades en provocar la asociación.
El de huella y el demorado son los que presentan una asociación más intensa y
mayor facilidad en el establecimiento del condicionamiento.
Y finalmente el simultáneo en cuanto a la fuerza de asociación producida, está
entre el demorado y el hacia atrás.

TEORÍA DE LA SUSTITUCIÓN DEL ESTÍMULO Y LA


ANTICIPACIÓN

Explicaciones teóricas del nexo asociativo en el condicionamiento clásico


Hemos dado por supuesto que el condicionamiento clásico es un modelo de
aprendizaje asociativo. Esta suposición es puesta hoy en tela de juicio.
Sólo vamos a exponer las diferentes explicaciones teóricas que se han dado
supuesto el nexo asociativo.
Teoría de la Sustitución del Estímulo
Para Pavlov, claramente la asociación entre el EC y el EI consiste en una
sustitución de estímulos. Es una asociación en que el EC se convierte en una
señal del EI.
La función de señal del estímulo condicionado no es consciente, por lo que
puede producirse sin necesidad de la intervención del sistema
nervioso superior. Aquí el sentido de señal es más bien fisiológico que
cognitivo, y tiene de alguna manera el significado del estímulo índice.
El EC, según Pavlov, adquiriría la función de señal que desencadena
automáticamente esa respuesta semejante a la que desencadena el EI.
Pavlov da una justificación neurológica a su teoría.
Teoría de la Anticipación
Es una teoría típicamente conductista, se basa en el concepto de fraccionar la
respuesta en una serie de elementos.
El nexo asociativo consistiría en la facilitación o anticipación que suministra la
respuesta al EC, para la aparición de la respuesta al EI.
Concepto de respuestas fraccionarias anticipatorias de la meta.

TEORÍAS MODERNAS DE LA SUSTITUCIÓN DEL ESTÍMULO

Según la moderna teoría de la sustitución del estímulo, la teoría pavloviana


presentaba algunas dificultades.
 - En primer lugar, la RC no es idéntica a la RI, sino sólo semejante, por
tanto no explica bien la sustitución.
 - En segundo lugar, esta sustitución de un estímulo por otro no se
puede realizar siempre,
o - bien porque el nexo innato EI-RI es muy específico y
consistente, como ocurre con el reflejo pupilar de tal manera que
el EI no puede ser reemplazado por ningún otro estimulo,
o - bien porque a conducta final consumatoria a la que se ordena el
reflejo es muy diferente.
 - Pavlov hacía referencia al sistema nervioso en su teoría de la
sustitución del estímulo. Se establecían nuevas vías neurológicas. Esta
teoría no explica fenómenos importantes. Por otra parte se ha
comprobado que los mecanismos neurológicos del aprendizaje son
bastante más complicados de lo que creía Pavlov.
Modernamente se ha formulado la teoría de la sustitución del estímulo de otro
modo, diferente del neurológico. Se supone que los animales aprenden la
asociación EC-EI, pero además aprenden una representación cognitiva del EI.
Entonces la RC depende de las dos condiciones: asociación y representación.
Aunque exista la asociación EC-EI, si la representación del EI se devalúa no
se producirá la RC, cuando se presente el EC.
Por este motivo, las actuales interpretaciones cognitivas del condicionamiento
clásico cuestionan la contigüidad como base del condicionamiento.

CONDICIONAMIENTO OPERANTE

INTRODUCCIÓN AL PROBLEMA DEL REFUERZO

El formulador de la ley del efecto fue E. L. Thorndike(1874-1949).


Thorndike defiende que en aquellas situaciones en las que la desaparición de
una estimulación aversiva produce un estado "satisfactorio", los efectos
reforzantes de este tipo de situaciones deberían interpretarse como la primera
formulación de la ley del efecto; esto es, aquéllas en las que la desaparición de
la estimulación aversiva sea gratificante, deben ser interpretadas como una
bùsqueda en la desaparición de esta estimulación.
Al siguiente hecho lo denominaremos la ley empírica del efecto:
empíricamente, la consecuencia que una respuesta lleva consigo es un
determinante poderoso de si la respuesta se fijará o no B.F. Skinner (1904) ha
sido quien se ha ocupado más sistemáticamente en sacar el máximo partido
posible de la formulación empírica de la ley del efecto desde finales de los
años 30 con una postura teórica que se ha calificado algunas veces
como "empirismo descriptivo sistemático".
Frente a la conducta "respondente" (controlada por condicionamiento
clásico), Skinner propone la "operante", emitida por el organismo de modo
espontáneo.
El acercamiento skinneriano al problema del refuerzo no es teórico en el
sentido tradicional sino empírico-descriptivo. A nivel descriptivo, algunos
eventos que siguen a las respuestas tienen el efecto de incrementar la
probabilidad de que estas respuestas se repitan. Estos eventos son definidos e
identificados como refuerzos o reforzadores, en función de sus efectos
observables y no en función del efecto que puedan tener sobre los
mecanismos y procesos "internos" del organismo, sean éstos neuronales o no.
Estos eventos, denominados refuerzos o reforzadores, pueden ser de dos
tipos:
 - Refuerzo positivo: "Aquel cuya presencia fortalece o incrementa la
probabilidad de que una acción aparezca en el futuro".
 - Refuerzo negativo: "Aquel cuya desaparición fortalece o incrementa la
probabilidad de que una acción aparezca en el futuro (justo la que ha
llevado consigo o se relacione con la desaparición de la estimulación
aversiva)".
Tanto en Skinner como en Thorndike, la acción del refuerzo es automática
y, en principio, al margen de la conciencia y/o actividad consciente del
organismo. El refuerzo actúa de modo automático.

CONCEPTOS BÁSICOS, TIPOS E ÍNDICES DE REFUERZO

Skinner al tratar sobre las respuestas operantes dirá: "Una operante es una
parte identificable de la conducta de la que puede decirse, no que sea
imposible hallar un estímulo que la provoque (....) sino que, en las ocasiones
en que se observa su ocurrencia, no puede detectarse ningùn estímulo
correlacionado.
Se estudia como un acontecimiento que aparece espontáneamente con una
frecuencia dada".
Las respuestas operantes pueden ser divididas
en instrumentales y consumatorias:
 - Respuesta instrumental: "Cuando es realizada por un organismo y se
encuentra encaminada a la consecución de una meta".
 - Respuestas consumatorias: "Aquellas respuestas que realiza un
organismo justo en la consecución de la meta (comer, copular, beber,
etc.)".
Para llevar a cabo el análisis de las respuestas nos interesa distinguir dos
conceptos:
 1.- Tasa: Es el nùmero de respuestas que se da por unidad de tiempo y
se presenta usualmente mediante gradientes de adquisición o extinción
(se dice, así, que una respuesta posee una tasa o un gradiente más
acelerado o más pronunciado que otra).
 2.- Nivel asintónico de respuesta: Es el nivel máximo de adquisición y
que no se incrementa con posteriores intentos.
Otra división que podemos hacer sobre los refuerzos es ésta:
 a)- Refuerzos primarios: Aquellos que poseen un valor reforzante
biológicamente determinado y no por aprendizaje, tal y como ocurre
en el caso del aire, comida y bebida.
 b)- Refuerzos secundarios: Aquellos que han adquirido su valor por
aprendizaje tales como la recompensa social (alabanza) o el dinero.
Condicionamiento instrumental
Se distinguen cuatro tipos de condicionamiento instrumental (uno positivo y
tres negativos)
1.- El entrenamiento de recompensa:
El refuerzo utilizado es positivo y no se encuentra presente antes de la
realización de la respuesta deseada. En cuanto aparece la respuesta se aplica
el refuerzo.
Por ejemplo: cada vez que una rata apretaba una palanca se presentaba, en un
cánula, una pastillita o un grano de comida.
2.- El entrenamiento de castigo:
El refuerzo (estímulo punitivo) no se encuentra presente. Si el sujeto realiza
una acción prefijada aparece el refuerzo negativo (estímulo punitivo).
P. ejem: Un hijo de cinco años rompe un jarrón valioso para la madre y ésta
le da un bofetón.
3.- Los diseños de evitación:
El refuerzo aversivo se encuentra ausente antes de la realización de la
conducta, la realización de la respuesta adecuada lleva consigo que el refuerzo
no se presente.
P. ejem: el diseño de evitación de Sidman en el que se encuentra programada
la aplicación de un shock eléctrico en una caja de Skinner cada 5 segundos, a
menos que el animal (usualmente una rata) apriete una palanca. La respuesta
de apretar la palanca desconecta el circuito y el animal no recibe el shock.
4.- Los diseños de escape:
El refuerzo aversivo se encuentra presente antes de la realización de la
respuesta, la realización de esta respuesta lleva aparejada la desaparición de la
estimulación aversiva.
P. ejem: En una caja de lanzadera el animal se encuentra en un
compartimento con rejilla electrificada, aparece el shock eléctrico y la
respuesta del animal (saltar por encima de la barrera que separa los dos
compartimentos) lleva consigo la eliminación de la estimulación aversiva.
Indices de refuerzo
Se denominan índices de refuerzo a los modos de presentación de estos
refuerzos dentro de un experimento. Los podemos dividir en:
1.- Índices no intermitentes:
La aplicación continua de refuerzos para cada respuesta que aparece (ya sea
que adquiere o se extingue).
 1.1.-Refuerzo continuo: Cada respuesta emitida por un organismo es
reforzada.
 1.2.-Extinción: No se refuerza ninguna respuesta y es un proceso
similar al de extinción experimental en el condicionamiento clásico.
2.- Índices intermitentes:
La aplicación de menos volumen o nùmero de refuerzos que respuestas
realizadas. Por razones de espacio solo comentaremos los índices
intermitentes simples; se trata de índices relacionales entre respuestas y
refuerzo o entre tiempo y refuerzo.
En el caso de tomar en consideración el número de respuestas se habla de un
índice de razón y si se toma en cuenta un periodo temporal se habla de un
índice de intervalo.
 2.1.-Índice de razón fija (RF): Se refuerza la respuesta correcta que
emite el organismo, después de que éste ha realizado un nùmero
determinado de ellas.
 2.2.-Índices de razón variable (RV): A diferencia del caso anterior, la
razón de respuesta/refuerzo es una serie aleatoria alrededor de un valor
central y con un pequeño rango de variación.
 2.3.-Índices de intervalo fijo (IF): Se refuerza la primera respuesta
correcta que aparece después de un intervalo temporal dado
(normalmente en minutos).
 2.4.-Índice de intervalo variable (IV): Los refuerzos se presentan en
función de una serie aleatoria de intervalos temporales y de los que
ùnicamente se hace explícito el intervalo medio.
RELACIONES EMPÍRICAS CON REFUERZO POSITIVO

Una de las principales teorías sobre la extinción es la de la extinción como


interferencia de respuestas. En estas teorías la idea básica es que "la extinción
no se produce debido a una inhibición y/o supresión de respuestas sino a que
el sujeto aprende una respuesta alternativa que interfiere o compite con la
anterior".
La alternativa teórica más difundida es la llamada hipótesis de la frustración.
La idea central es que durante el periodo de adquisición el sujeto aprende la
respuesta apropiada y, además, a esperar la recompensa que sigue a la
respuesta. En el proceso de extinción, la experiencia de no recibir la
recompensa es la que produce una frustración. Esta frustración sería la
responsable de que el sujeto se comprometiese en la realización de otras
respuestas. A través de varias demostraciones experimentales se ha constatado
que:
 1.- La frustración procedente de respuestas no reforzadas positivamente
actúa como un energizador de la conducta.
 2.- Existe una relación directa entre la cantidad de frustración (medida
en criterios tales como velocidad de carrera) y la reducción de
recompensa correspondiente a este intento.
 3.- Existe una relación entre la intensidad de la frustración, el retraso en
la recepción de la recompensa y número de intentos de adquisición.
 4.- La frustración posee componentes aversivos de modo que algunos
autores la han asimilado a diseños de castigo.

CONDUCTA Y ESTIMULACIÓN AVERSIVA

Algunos parámetros importantes en el condicionamiento de escape son los


siguientes:
Bower, Fowler y Trapold (1959) obtuvieron que, al igual, que ocurre en los
estudios con refuerzo positivo, la conducta observable de los sujetos
experimentales corría pareja con la intensidad de la estimulación presentada:
a mayor intensidad de estimulación mayor rapidez de carrera en las conductas
de escape y, caso de cambiar esta intensidad, si la incrementaban, se
incrementaba puntualmente la velocidad en la conducta de escape; y si aquélla
disminuía, también lo hacía ésta.
En el aprendizaje de evitación un gran bloque de parámetros se refieren a la
intensidad y duración del estímulo discriminativo que antecede a la
presentación de la estimulación aversiva. Aquí los resultados indican que
cuanto más intensasea la señal que precede a la presentación de la
estimulación aversiva, mayor rendimiento en la respuesta de evitación.
Una de las principales teorías biproceso en el aprendizaje de evitación es
la "teoría biproceso mediacional de miedo" (Mowrer, 1947; Solomon y Brush,
1954; Rescorla y Solomon, 1967).
Se parte de que la aplicación de la estimulación aversiva a un sujeto la provoca
una reacción de miedo. En los diseños de evitación, el estímulo aversivo (que
funcionaría como un EI clásico) se aparea por contigüidad con una señal que
lo precede (normalmente una luz o un sonido procedente de un zumbador
que actùa como EC), provocándose una respuesta de miedo ante la
presentación del EC. Este miedo es elresponsable de la respuesta de evitación:
al realizar la respuesta, termina el EC, se reduce el miedo y esta reducción del
miedo es el refuerzo por haber realizado la respuesta de evitación.
Otra teoría biproceso en el aprendizaje de evitación es la "teoría biproceso de
la aversión". Se postula la existencia de dos procesos también (clásiso, por el
que los estímulos presentes y apareados con el estímulo aversivo
devienen "nocivos"o "aversivos"; e instrumental en función del cual, se refuerza
la respuesta realizada inmediatamente antes de la desaparición del estímulo
aversivo).
A diferencia de la teoría biproceso del miedo, en ésta, la definición
de "aversión"es totalmente operacionalizable (sin el surplus teórico que posee
el constructo hipotético de miedo) y, en términos más precisos, se refiere a un
incremento en la probabilidad de aprariciión de las respuestas realizadas
inmediatamente antes de la desaparición de un estímulo.
Otra teoría biproceso en el aprendizaje de evitación ha sido formulada por
Heirnstein (1969) y se le ha calificado como "teoría discriminativa". El
aprendizaje de evitación es explicado apelando a procesos de aprendizaje
descriminativo. No se supone la existencia de dos procesos (clásico e
instrumental). Los estímulos exteriores que preceden a la presentación del
estímulo aversivo actùan como indicios o claves ambientales y que funcionan
como "antecedentes" de la aparición de la estimulación aversiva.
Otra teoría biproceso en el aprendizaje de evitación, la más reciente, la
representa la "teoría cognitiva" de Seligman y Johnston (1973). Existen para
esta teoría, dos componentes, uno cognitivo y otro emocional. El cmponente
cognitivo se encuentra representado por la expectativa. El componente
emocional, por el miedo clásicamente condicionado, entendido como un
elicitador de respuestas (en esta teoría no desempeña ningùn papel el refuerzo
que se logra con la reducción del miedo). Todo ello supone que existe una
respuesta condicionada de miedo y cuya misión es la de servir como un
elicitador de respuestas observables, pero no resulta relevante la reducciónde
este miedo.
EL ENCUBIERTALISMO

Bandura llegó a la siguiente conclusión: "La evidencia general parece indicar


que el aprendizaje puede tener lugar sin conciencia, aunque con una tasa lenta,
pero que la representación simbólica de las contingencias de respuestas y
refuerzo pueden acelerar de modo notable la responsabilidad decuada".
El encubiertalismo es una postura teórica mediacional que utiliza el
vocabulario de los condicionamientos clásico y operante ( aunque insistiendo
más en este ùltimo) y postula que la dinámica imaginativa y conceptual sigue
las mismas leyes que las respuestas directamente observables, musculares, que
se estudian en los experimentos de laboratorio.
El máximo representante es Cautela.

APRENDIZAJE COGNITIVO. EL APRENDIZAJE OBSERVACIONAL

CONDICIONAMIENTO CLÁSICO DESDE EL COGNITIVISMO

Dickinson (1980) señala que mientras que para un conductista el animal


aprende una nueva respuesta a un EC, el cognitivista dice que el animal
aprende que el EC predice al EI.
Para el cognitivista el aprendizaje consiste en la formación de una nueva
estructura mental, que solo indirectamente se manifiesta en la conducta. Para
el conductista el aprendizaje es el desarrollo de un nuevo patrón de conducta
en si mismo.
La interpretación cognitiva del condicionamiento clásico supone hoy un tema
muy actual en la psicología.
Debe quedar claro que los conocimientos científicos sobre los hechos del
condicionamiento clásico se interpreta en un nivel puramente conductual o
en un nivel cognitivo.

EL PROBLEMA DEL CONTROL DE LA MEDIDA DE LA RC

Medir la formación de un condicionamiento clásico es medir la RC. En una


situación ideal, bastaría con medir la RC después de la asociación EC-EI, pero
con la RC se pueden mezclar otras respuestas, como las respuestas de línea
base, las respuestas alfa y las respuestas psuedocondicionadas. Dicho con
otras palabras, una vez escogida la RC como respuesta clave de un sistema
efectorial de respuesta al EI, en ese sistema de respuesta, además de la RC, se
dan otras 4 respuestas. Entonces, si queremos medir solo la RC, es necesario
descartar las otras respuestas que no son RC y que tienden a confundirse con
ella. Para todo ello hace falta un sistema de control.
Ahora bien, para descartar las respuestas alfa bastaría con presentar al EC
aisladamente, sin apareamiento EC-EI. Entonces conoceríamos las respuestas
alfa. Además las respuestas alfa tienen una menor latencia que la RC,
entonces si utilizamos un intervalo largo entre estímulos, EC y EI, la respuesta
aparecerá antes que la RC y la podremos distinguir y descartar. Sin embargo,
un procedimiento similar con la respuesta pseudocondicionada no sirve. La
presentación aislada del EI no permite conocer la fuerza de la respuesta
condicionada ensayo por ensayo. Hace falta entonces otro sistema de control.
Para ello se hace un control único que permita conocer bien cual es el valor
de la RC. Este sistema tradicional ha sido el Sistema de Control no Apareado.
El sistema de control no apareado consiste en presentar el EC aisladamente y
el EI aisladamente, en un grupo de control, el mismo número de veces que
se presentan el EC y el EI apareadamente en el grupo experimental. Las
presentaciones se hacen al azar y los ensayos en que el EI aparece después del
EC dejan un tiempo interestímulos variable y mayor de lo necesario para que
se produzca una RC.
Con este sistema de control no apareado se pueden excluir las respuestas
alfa y se puede obtener una medida de las respuestas pseudocondicionadas y
de las respuestas de línea base. Esto es una técnica metodológica de control
experimental.
En 1967, Rescorla critica el sistema de control no apareado, diciendo que los
procedimientos tradicionales de control en el condicionamiento clásico son
deficientes. Examina estos procedimientos y encuentra que introducen
factores no asociativos, que no están presentes en el procedimiento
experimental y que, a veces, transforman la contingencia excitatoria EC-EI
experimental, en una contingencia inhibitoria. Es contingencia excitatoria
cuando al EC le sigue el EI y es contingencia inhibitoria cuando al EC no le
sigue el EI.
Rescorla propone un procedimiento alternativo de control, que el
llama procedimiento de Control Verdaderamente Aleatorio, en el que no se
da ninguna contingencia entre el EC y el EI. Así se presentan, de un modo
completamente aleatorio, tantos ensayos con el EC como con el EI de tal
manera que la presentación de un EC no traiga mayor ni menor probabilidad
de ser seguido por un EI que de no ser seguido.
Este procedimiento de control lleva a una nueva concepción teórica del
condicionamiento clásico, postulando que la contingencia entre el EC y el EI,
más bien que la contigüidad EC-EI, es el acontecimiento importante en el
condicionamiento clásico. Se establece así la controversia contingencia versus
contigüidad. Pero esto necesita algunas aclaraciones:
 - Contingencia significa probabilidad. En la hipótesis de la
contigüidad la asociación EC-EI tienen que estar en cada ensayo, si no
está, se extingue el condicionamiento. En cambio, en la hipótesis de la
contingencia la asociación EC-EI puede estar y puede no estar, es
probable que esté o es probable que no esté. Cuando es más probable
que esté la asociación EC-EI, es decir, que al EC le siga el EI, entonces
decimos que el proceso es excitatorio y hay condicionamiento. Cuando
es más probable que la asociación EC-EI no esté, es decir, que al EC
no le siga el EI, entonces decimos que el proceso es inhibitorio, el cual
rara vez provoca un cambio opuesto a la RC excitatoria.
Ahora bien, la probabilidad no se ve en un solo ensayo, hace falta tener en
cuenta muchos ensayos. La concepción de la contingencia necesita una
concepción molar (global) del condicionamiento clásico, mientras que la
concepción de la contigüidad exige una concepción molecular (elemental) del
condicionamiento clásico.
Lo que hace Rescorla es considerar el condicionamiento clásico en termino
molares. El determinante fundamental, ahora, de la RC es la relación
estadísticaentre el EC y el EI.
 - Si la probabilidad del EI es mayor en presencia del EC que en su
ausencia, entonces tenemos una contingencia positiva y sus efectos
excitatorios aumentan, se sigue la adquisición.
 - Si la probabilidad de EI es menor en presencia del EC que en su
ausencia, tenemos una contingencia negativa y aumentan los efectos
inhibitorios.
Podemos concluir que del aprendizaje se han dado dos tipos de explicaciones
teóricas sobre el mecanismo que lo produce:
 - Unas postulan un modelo asociativo y otras postulan un modelo
estadístico. El mayor representante del modelo asociativo
fue Guthrie en los años 30; el formulador del modelo estadístico
fue Rescorla en los años 60. Hablando en términos humanos, según
Rescorla, el animal computa las apariciones del EC junto con el EI y
además las apariciones del EI sin el EC y, entonces, actuaría como
un "técnico estadístico" que de una manera intuitiva calcula el resultado
de las diferencias de probabilidades condicionadas P(EI/EC) y P
(EI/noEC) y emite la RC en consecuencia. A esa diferencia de
probabilidades condicionadas es a lo que se ha denominado regla Delta
P. Esta regla determina cuando se contesta y cuando no. Es la primera
explicación estadística del aprendizaje de relaciones entre estímulos.
La conclusión final de todo esto es que el condicionamiento clásico consiste
en el grado en que el EC informa del EI. Y este informar, naturalmente, es
algo cognitivo.
La regla Delta P falla al predecir la curva teórica del aprendizaje y otros
fenómenos. El mismo Rescorla ha vuelto sobre sus pasos y cree que no es
muy afortunado pensar que los animales hacen cálculos probabilísticos. La
consecuencia de todo es que Rescorla abandona la teoría de la contingencia y
formula junto a Wagner una nueva teoría de la asociación por contigüidad
que recibe el nombre de teoría de Rescorla y Wagner. En cualquier caso
subyace una concepción cognitiva, pues para que haya incremento asociativo
es necesario que el EI se procese en función del grado de sorpresividad que
tienen para el animal.
La critica del control verdaderamente aleatorio se fundamenta en que tal
control no es neutro. Es decir, se dan al azar asociaciones EC-EI, con lo que
aparecen excitaciones. Esto pasa porque Rescorla no da importancia a los
efectos de los intervalos EC-EI, sino solo a las regularidades estadísticas de
una secuencia de EC y EI.
No obstante, aunque en lo metodológico se haya podido volver a atrás, no ha
ocurrido lo mismo en lo conceptual y la concepción cognitiva del
condicionamiento clásico se ha convertido en uno de los puntos de
investigación más importante en nuestros días. Ahora, sin embargo, se ha
partido de los estudios de los fenómenos del bloqueo y del
ensombrecimiento.

EL FENÓMENO DEL ENSOMBRECIMIENTO

Si se presenta como EC un estímulo compuesto (por ejemplo, una luz y un


tono) para que se asocie con un EI, el estímulo más potente del compuesto es
el único capaz de producir posteriormente la RC, mientras que el estímulo
más débil no puede producirla si se presenta el solo.
Entonces se considera que el estímulo más potente ensombrece al estímulo
más débil.
La interpretación cognitiva moderna lo que hace es considerar que uno de los
estímulos tiene mayor asociabilidad y mayor relación a la capacidad de
aprendizaje del animal y esa mayor asociabilidad consiste en una característica
cognitiva con más capacidad de llamar la atención.

EL FENÓMENO DEL BLOQUEO

El fenómeno de bloqueo ha surgido a propósito del estudio del


condicionamiento clásico con estímulos complejos. Han tenido una especial
incidencia los experimentos sobre bloqueo realizados por Kamin en 1968-69.
La importancia de estos fenómenos consiste en que si el EC es un
compuesto, según la ley de la contigüidad, la asociación debería establecerse,
por igual, con todos los componentes del EC compuesto. Sin embargo, esto
no ocurre y en el fenómeno de bloqueo uno de los componentes adquiere
toda la fuerza asociativa, bloqueando al otro componente, que no adquiere
fuerza asociativa, lo cual lleva a pensar que la contigüidad no basta para que
se produzca el condicionamiento, hace falta algo más.
Kamin llego a la conclusión de que el elemento fundamental para que se
produzca el condicionamiento es que el EI en la situación, resulte
sorprendente para el animal. Esto quiere decir que si un elemento del EC
compuesto ya informa de la ocurrencia del EI, el añadir otro elemento del
compuesto no añade ninguna información nueva.
Este nuevo principio del valor informativo del EC para que se produzca
condicionamiento ha fundamentado las teorías cognitivas del
condicionamiento clásico. Según Kamin, si el EI resulta sorpresivo después
de un EC, entonces ese EC adquiere o tiene valores informativos y produce
condicionamiento.
Esto no es negar la contigüidad, pero si añadir y poner todo el peso del
condicionamiento en un factor cognitivo: la información.

TEORIA DE RESCORLA Y WAGNER

Esta teoría parte de considerar el aprendizaje como una variable intermedia.


En psicología es algo interior del organismo que está entre el estímulo y la
respuesta públicamente observable. A esta variable intermedia que es
el aprendizaje, los autores de esta teoría le han llamado fuerza asociativa.
La teoría de Rescorla y Wagner indica que para un ensayo determinado, el
incremento del aprendizaje es una fracción constante de lo ya aprendido hasta
el ensayo anterior.
Explicación del fenómeno de condicionamiento clásico con estímulos
simples, según la teoría de Rescorla y Wagner.
Cuando la cantidad aprendida es baja (primer ensayo), se aprende mucho,
pero a medida que aumentan los ensayos el incremento de aprendizaje en un
ensayo dado es muy pequeño. Las curvas de aprendizaje en una gráfica nos
indican que el aprendizaje se va acumulando, aunque con una curva
desacelerativa que se va acercando a su valor asintótico. Así, en la experiencia
diaria de cualquier aprendizaje se progresa muy rápidamente cuando se
empieza a aprender algo nuevo, llegando un momento en el que puede
ocurrir un bloqueo en el aprendizaje, debido al escaso valor de la fuerza
asociativa en los últimos ensayos.
Explicación del fenómeno de bloqueo, según la teoría de Rescorla y Wagner
En el caso del fenómeno del bloqueo, explican este fenómeno partiendo de
lo siguiente: La fuerza asociativa de una respuesta a una combinación de
estímulos es la suma de la fuerza asociativa de las respuestas a cada uno de sus
elementos.
Así, por tanto, la ganancia en fuerza asociativa debe distribuirse entre los dos
EC del compuesto. Así, en un grupo experimental, el EC1 gana mucha fuerza
asociativa al presentarse solo en la primera fase, sin embargo, la fuerza
asociativa en la segunda fase es pequeña para distribuir entre EC1 y EC2. Así,
en la tercera fase, el EC1 evocará la RC mientras que no el EC2, puesto que
no ganó fuerza asociativa en la primera fase. Mientras que en un grupo de
control, no existiendo una fase primera, el EC1 y el EC2 obtienen una fuerza
asociativa igual, evocando ambos estímulos la RC en la tercera fase.
Explicación del fenómeno del ensombrecimiento, según la teoría de Rescorla
Y Wagner.
El ensombrecieminto, si aplicamos la teoría de Rescorla y Wagner, se debe a
que el estímulo con mayor saliencia y más de acuerdo con la capacidad de
aprendizaje del animal se condiciona más rápidamente que otro estímulo.
Con lo que la diferencia R(EI)-R(ECn-1), desaparecería en pocos ensayos, con
lo que ya no habría posibilidad de que el estímulo más débil pueda
condicionarse al EI.
El ensombrecimiento se considera como una manifestación del fenómeno de
bloqueo, pues uno de los dos elementos del compuesto ve reducidas sus
posibilidades de adquirir fuerza asociativa, debido a que el otro elemento del
compuesto acapara dicha fuerza asociativa.
Conclusión:
El modelo de Rescorla y Wagner no exige una interpretación del aprendizaje
como algo cognitivo, lo que expresa es la fuerza asociativa. Lo que ocurre es
que Rescorla Y Wagner suponen que esa fuerza asociativa se debe a
la sorpresividad del estímulo incondicionado. Los autores posteriores irán
acrecentando la interpretación cognitiva. Quizá el más importante de ellos es
Mackintosh, que modifica la teoría de Rescorla y Wagner.

EL MODELO DEL APRENDIZAJE ASOCIATIVO DE MACKINTOSH

Mackintosh afirma que los estímulos que predicen mejor al EI aumentan


progresivamente su saliencia (su llamada de atención), mientras que aquellos
estímulos que no predicen bien al EI, disminuyen sus saliencia, lo que
Mackintosh interpreta como estímulos más informativos y menos
informativos. Lo que hace que un EC se asocie con un EI es que sea
informativo, no que sea redundante, que no añadiría ninguna nueva
información.
La teoría de Mackintosh no es una teoría atencional de las comúnmente
concebidas. Para estas teorías atencionales el animal solo da la respuesta
después de haber atendido a los estímulos presentes en la situación.
Pero un supuesto general de las teorías atencionales es que el poder atender
a un estímulo concreto esta en relación inversa con el poder atender a los
otros. De alguna manera la selección del estímulo esta marcada por la
capacidad para atender. Entonces la probabilidad de atender a un estímulo
viene de la saliencia o relevancia de ese estímulo. Entonces, el parámetro
especifico del EC, su asociabilidad (a), no solo depende de sus características
físicas, sino de sus saliencia que determina el que sea atendido, dada la
capacidad del animal. Así un estímulo con a grande (que es muy informativo,
que tiene una alta predicción del EI), hace que otros estímulos no sean
atendidos. Entonces, con la experiencia, el estímulo con un a grande aumenta
su posibilidad de ser atendido y los que tienen un a poco importante
disminuyen su probabilidad de ser atendidos. A esto se le llama la hipótesis
de la inversión. El a de un estímulo disminuye porque el a de otro aumenta.
Mackintosh, sin embargo, no piensa que la probabilidad de ser atendido de
un estímulo, dependa de la atención prestada a otro, sino porque disminuye
su saliencia por resultar redundante para el animal.
La historia anterior de condicionamiento a la que ha sido sometido un sujeto
puede determinar limitaciones en sus asociabilidad. Para Mackintosh, el valor
de a esta determinado por sus características físicas y por la capacidad
sensorial del animal solo al principio y, posteriormente varía con la
experiencia.
El modelo de Mackintosh tiene bastante apoyatura experimental, una de ellas
ha sido el fenómeno del desbloqueo. Un EC2 no tienen ninguna
consecuencia cuando el EC1 en su asociación con el EI ha producido un
aprendizaje que ha alcanzado el nivel asintótico, entonces otro estímulo para
sustituir a ese EI (según la teoría de la sustitución en la que se cree que el EC
pasa a sustituir al EI), sería redundante. Pero si se aumenta o se cambia la
fuerza del EI, el emparejamiento EC1-EC2 va seguido de consecuencias
sorpresivas (hay información nueva) y la presentación del EC2 solo va seguida
de efectos nuevos. En estas circunstancias se produce el desbloqueo.
No se trata de un aprendizaje de reglas, que sería lo propio de la psicología
simbolico-cognitiva.
Aprendizaje procedimental y aprendizaje declarativo.
El aprendizaje procedimental hace referencia a la adquisición de
reglas condición-acción (conocimiento procedimental), mientras que
el aprendizaje declarativo tiene que ver con la adquisición de conocimientos
de hechos o proposiciones (conocimiento declarativo).
LOS ESTÍMULOS O PROCESOS INTERIORES EN EL REFUERZO
PARCIAL

Aspectos Cognitivos en el Condicionamiento Operante: Procesos Interiores


en el Refuerzo Parcial.
Llamamos estímulos interiores a hechos o eventos de conciencia, ya sean
cognitivos o emocionales.
Con los estímulos interiores se trata de un paso a un nivel de conducta
superior, lo cognitivo, que no tiene ya las características asociativas que hemos
estudiado, sino que se trata de un primer paso en el terreno de los procesos
cognitivos, que estudiaremos posteriormente.
Esta necesidad de encontrar modelos científicos y, por tanto, experimentales,
que den cuenta cabal de estos estímulos interiores viene, hoy día, a reavivar el
antiguo problema de los fenómenos de aprendizaje con refuerzo parcial.
En los programas donde el refuerzo no es continuo, como es el caso del
refuerzo parcial, aparecen fenómenos como "la resistencia a la extinción" o "el
efecto patterning", que no pueden explicarse sino por la existencia de un
proceso interior que haga las veces de reforzador, cuando el estímulo externo
ha dejado ya de actuar.

PROBLEMÁTICA PLANTEADA POR EL REFUERZO PARCIAL

A partir de la experimentación con programas de refuerzo parcial, aparece en


la psicología del aprendizaje una serie de fenómenos que obligaron, ya al
mismísimo Hull, a señalar que el modelo del aprendizaje instrumental con
variables públicamente observables no era un modelo adecuado para explicar
estos tipos de conducta.
Dos fenómenos, principalmente, han encontrado el interés de los
investigadores: la resistencia a la extinción que aparece en los
condicionamientos adquiridos con refuerzo parcial y el llamado "efecto
patterning".
 - La resistencia a la extinción sirve tanto para distinguir el
condicionamiento clásico del condicionamiento operante, como para
separar el modelo del condicionamiento operante del modelo de
aprendizaje con estímulos o procesos interiores.
 - En el efecto patterning se invierte la ley general del aprendizaje
instrumental, de tal manera que a un refuerzo sigue una menor
probabilidad de la respuesta.
Los estudios sobre la resistencia a la extinción han puesto sobre el tapete de
la experimentación una serie de variables que inciden en dicho fenómeno,
tales como cantidad de reforzador, número total de ensayos no reforzados,
número de transiciones no-refuerzo-refuerzo, el efecto de ciertas drogas, etc.
Pero quizá ha sido el estudio de la resistencia a la extinción con escalas
alternantes de refuerzolo que ha provocado un mayor interés teórico.
El otro fenómeno de aprendizaje con escalas alternantes de refuerzo es
el efecto patterning (EP), que viene a consistir en que si sometemos a un sujeto
experimental a un programa de refuerzo parcial en secuencia alternativa
regular N R N R N R, donde N indica ensayo no reforzado y R indica ensayo
reforzado, encontramos que el animal corre más tras los ensayos N que tras
los ensayos R, lo que iría contra el modelo general del aprendizaje tratado en
los temas anteriores, ya que según este, la conducta (velocidad de carrera)
debería incrementarse tras la obtención de recompensa y no al revés.
Fenómeno importante porque lleva también a la admisión de procesos
cognitivos en la aplicación de tales tipos de condicionamientos.
 - Se llama "efecto" porque en él se invierte la ley general de aprendizaje
instrumental de tal manera que a un refuerzo sigue una menor
probabilidad de la conducta reforzada y a un no refuerzo sigue una
mayor probabilidad de dicha conducta.
 - Se llama patterning porque el refuerzo y el no refuerzo aparecen
según un determinado patrón, esto es, el patrón N R N R, etc.
La investigación del aprendizaje instrumental con programas de refuerzo
alternantes simples, ha venido a ser el instrumento adecuado para intentar
solucionar la controversia sobre las dos teorías que hoy intentan explicar el
proceso de la interiorización del estímulo reforzante.
Esta controversia ha recibido el nombre de "controversia Amsel y Capaldi".
Dos cuestiones fundamentales se debaten en esta controversia: primero, ¿qué
proceso interioriza o hace las veces del estímulo reforzante?; segundo, ¿de
qué naturaleza son los resultados de esos procesos o estímulos reforzantes
interiorizados?.
Amsel defiende la teoría de la frustración condicionada. Esta teoría contesta
que el mecanismo que inteiroriza el estímulo es un mecanismo de
aprendizaje, entendiéndolo según el modelo del aprendizaje clásico e
instrumental que hemos estudiado. Con ello se abre la puerta a los modelos
de aprendizaje mediante respuestas mediacionales (las mismas respuestas
públicamente observables, pero dentro del organismo) y se entra de lleno en
el más estricto campo del neoconductismo. No hay apelación, pues, a algún
proceso cognitivo, todo se resuelve por un proceso de condicionamiento. En
segundo lugar, esta teoría contesta que la naturaleza de los resultados de este
proceso de aprendizaje por condicionamiento o la naturaleza de los estímulos
reforzantes interiorizados es de naturaleza emocional.
Capaldi defiende la teoría secuencial. La teoría secuencial vienen a dar una
visión más profunda de la antigua teoría de los postefectos, al considerar estos
postefectos de tipo interior y, en especial, de tipo cognitivo. Así, esta teoría
intenta sobrepasar los modelos del aprendizaje clásico e instrumental que
hemos estudiado, para abrirse a modelos cognitivos. En cuanto al mecanismo
interiorizador del estímulo reforzante, Capaldi sostiene que se trata de
un proceso cognitivo, conceptualizándolo como alguna especie de memoria.
En cuanto a la segunda cuestión, es decir, en cuanto a la naturaleza de los
resultados de ese proceso de interiorización del estímulo, Capaldi los define
como de naturaleza sensorial y, de alguna manera, como estímulos y
respuestas mediacionales.

INTERPRETACIONES DE LA RESISTENCIA A LA EXTINCIÓN

A través del tiempo se ha formulado varias hipótesis, discriminación, unidad


de respuesta, refuerzos condicionados y decremento por generalización,
siendo esta última importante para estudiar la incidencia de procesos
cognitivos en el aprendizaje instrumental.
Decremento por generalización.
Esta hipótesis sostiene que las diferencias en cuanto a la extinción entre
refuerzo continuo y refuerzo parcial son el resultado de que, al comienzo de
la extinción, si se ha aprendido con refuerzo parcial, el decremento de la tasa
de respuestas se generaliza menos. No es que se discrimine entre situación de
aprendizaje y situación de extinción, sino que con el refuerzo parcial los
sujetos aprenden en situaciones similares a la de extinción y, entonces,
generalizan menos el decremento de la respuesta ante el no-refuerzo, propio
de la extinción.
Aprendizaje Observacional.
En 1963, Bandura y Walters presentan un nuevo modelo de aprendizaje que,
enfatiza los aspectos cognitivos. Bandura lo definiría como aprendizaje sobre
una base vicaria, por medio de la observación de la conducta de otra persona
y de las consecuencias que dicha conducta tiene sobre ella. Así se
llama observacionalporque se fundamenta en la observación, y se
llama social porque requiere la participación de, al menos, dos personas: el
modelo y el observador.
Perspectiva histórica.
Ya desde el siglo XIX se habla de la imitación como un modo de aprendizaje,
aunque se interpretaba como un instinto imitativo.
Holt (1931), un conductista, intento explicar el fenómeno de
la imitación como una asociación por contigüidad entre la conducta del
modelo y la conducta del observador, pero pronto se vio que la contigüidad
no era causa suficiente para la imitación.
En 1941, Dollar y Miller añaden a la contigüidad la teoría del refuerzo. Se
aprende por imitación porque, además de la contigüidad, se refuerza la
conducta de imitación. Esto, sin embargo, requeriría la repetición laboriosa
de muchos ensayos, lo cual no es así, en el aprendizaje observacional muchas
veces basta con un solo ensayo. Bandura, en los años sesenta, cambia por
completo la interpretación:
 - En primer lugar hay que distinguir entre ejecución y aprendizaje. Para
la ejecución de la conducta que se imita es posible que sea necesario el
refuerzo, pero para el aprendizaje solo es necesaria la observación. El
aprendizaje por imitación no consiste en una adquisición de una
asociación E-R, sino en la adquisición de representaciones cognitivas
de la conducta del modelo. El estímulo (conducta del modelo) no
provoca la ejecución de la imitación, sino su aprendizaje en un plano
cognitivo. Pinillos señala que Bandura añade a la contigüidad modelos
imaginativos y verbales. Es imaginarse de nuevo la conducta del modelo
o describirla verbalmente lo que guía la ejecución de la conducta de
imitación.

PROCESOS BÁSICOS EN EL APRENDIZAJE OBSERVACIONAL

Podemos resumir los procesos básicos dividiéndolos en dos grupos: los que
fundamentan el aprendizaje y los que fundamentan la ejecución.
Los procesos básicos en el aprendizaje observacional son:
 - Atención y discriminación: es necesario que el observador atienda a
la conducta que realiza el sujeto y que el observador discrimine los
aspectos más relevantes de dicha conducta. La imitación no es una
repetición exacta de la conducta modelo. Este proceso atencional es
muy influenciado por tres tipos de variables: las características del
modelo, las características del observador y las condiciones estimulares.
o · Las características del modelo que influyen positivamente en el
observador son que el sexo del modelo sea el mismo y la edad
sea semejante; el prestigio, estado y poder social del modelo; su
competencia y experiencia en la conducta que realiza y el trato
afectivo que el modelo establece con el observador.
o · Las características del observador que influencian
positivamente el aprendizaje observacional son: aparte de la edad
y el sexo, el nivel de inteligencia del sujeto que observa, su
educación anterior o historia de aprendizaje y sus características
afectivas o emocionales.
o · Las características estimulares que favorecen la imitación son
que los aspectos relevantes de la conducta del modelo sean
fácilmente discriminables y que la conducta del modelo sea
expuesta de modo real, mediante imágenes o descripción verbal.
 - El proceso de retención o registro: almacenaje y recuperación del
material perceptual adquirido por la observación. La retención puede
mejorarse haciendo que el observador adopte una posición activa,
como contándose a sí mismo lo que observa. La observación pasiva del
modelo es menos eficaz, aunque sin embargo es más frecuente.
 - Los procesos de elaboración cognitiva: es la reelaboración que hace
el sujeto del material que ha observado. Esta reelaboración puede
consistir en realizar un esquema general de la conducta observada.
Dicho esquema serviría al observador para organizar y guiar su
conducta en los casos en que la imitación no es pura repetición.
Los procesos básicos de ejecución del aprendizaje por observación son los
procesos de reproducción motora y los procesos de refuerzo. Las variables
que influyen fundamentalmente los procesos de reproducción motora son: las
capacidades físicas de los sujetos.
En cuanto a los procesos de refuerzo, precisamente el nombre de
condicionamiento vicario consiste en que se recibe el refuerzo en virtud del
refuerzo que recibe el modelo en la conducta que ejecuta. Así, somos
reforzados vicariamente. Lo mismo que el observador recibe refuerzo de la
conducta imitada en virtud del refuerzo que recibe el modelo, también la
conducta a imitar puede ser castigada vicariamente, en virtud del castigo que
recibe el modelo por ejecutar esa determinada conducta.

APLICACIONES DEL APRENDIZAJE OBSERVACIONAL

Constituye un modelo muy adecuado para el aprendizaje humano en el que


se evitan muchas dificultades propias del condicionamiento clásico y operante.
No es necesario repetir los ensayos de entrenamiento una y otra vez. También
es adecuado para conductas que son castigadas, sin necesidad de que los
sujetos tengan que recibir el castigo en sí mismos.
El aprendizaje por el modelo observacional recibe el nombre
de "modelado" (no confundir con sapina).
Cognición Animal
Uno de los temas que son propios de la psicología del aprendizaje de nuestros
días es la cognición animal. Los estudios de la cognición animal son el estudio
de los procesos cognitivos en los animales. Se trata de una psicología del
aprendizaje y en su metodología se utiliza, por lo menos en el proceso
experimental, el enfoque del análisis experimental de la conducta.
Los estudios de la cognición animal se entienden como el estudio de procesos
interiores, inferidos desde el estudio de la conducta, que hacen referencia a
procesos de pensamiento. La inferencia se basa en que los procesos de
pensamiento pueden explicar conductas que no se explicarían nunca por los
estímulos externos.
Esto no implica el estudio de la conciencia. Hay que distinguir entre procesos
mentales explicativos de nuestra conducta o de las conductas animales (que
son procesos inferidos) y el estudio de la conciencia (que es algo observable
directamente, aunque solo privadamente) ya que hacen referencia a cosas
distintas. Así, pues, la cognición se entiende como un proceso interior
explicativo de la conducta, sin entrar en que sea consciente o no; una
representación neurológica (registro o imagen mental) que puede explicar una
conducta que no se podría explicar solo por los estímulos externos.
Entonces lo que hay que investigar es cómo se forman esas representaciones
neurológicas; qué información representan, cómo es el mecanismo que las
almacena y cómo guían posteriormente la conducta. He aquí todo el
panorama de la psicología del aprendizaje de la cognición animal.
Aquí no se estudian los considerados procesos cognitivos, sino los procesos
básicos de aprendizaje, a los que se les pretende dar una conceptualización
cognitiva: los procesos básicos de aprendizaje no son asociaciones estímulo
respuesta, sino representaciones mentales que representan esas asociaciones
de estímulos y respuestas, ya sean E-E o E-R. Los aprendizajes básicos se
entienden como aprendizaje de relaciones y, por ello, es necesario la
formación de representaciones de los estímulos.
El estudio de la cognición tiene como objetivo directo el conocimiento de la
conducta animal, pero a través de ello se consiguen otras muchas finalidades
interesantes. Por ejemplo, conocer la evolución que ha llevado a la cognición
humana.

ESTUDIOS DE LA MEMORIA ANIMAL

El estudio de la cognición animal ha comenzado con el estudio de la memoria


y en la psicología animal, este tema de la memoria ha ocupado la mayor parte
de la investigación.
Modelos de memoria animal.
Si el aprendizaje se considera como adquisición de conocimientos y conductas
nuevas, la memoria es el proceso que permite el almacenaje y la reproducción
de lo adquirido en el almacenaje. En los estudios de memoria animal se
consideran dos tipos fundamentales de memoria:
 - La memoria de trabajo, que recibe este nombre porque se trata de
una retención en la memoria de un estímulo o relación solo para la
ejecución de una tarea determinada. Se trata de retener una
información el tiempo necesario para realizar una tarea determinada.
Por eso, la memoria de trabajo es de bastante corta duración.
 - La memoria de referencia, sin embargo es de larga duración. Esta
memoria a largo plazo se llama de referencia, porque la memoria de
trabajo se inscribe en referencia a ella. Por eso, la memoria de
referencia es necesaria para la memoria de trabajo.
En la memoria de trabajo el paradigma experimental más usado es realizar un
aprendizaje con los animales y luego mantenerlos un tiempo cronometrado
antes de que puedan ejecutar lo que han aprendido, de ordinario elegir la caja
que tiene la comida. La memoria de referencia es un almacenamiento a largo
plazo para una ejecución acertada de la información que el animal acaba de
aprender.
Una parte importante hoy de las investigaciones sobre la memoria de trabajo
son las que se refieren al estudio de la memoria espacial. Se trata de la
memoria para la localización de un lugar determinado en un espacio más o
menos complejo. Estas investigaciones se refieren sobre todo a la memoria de
lugares, que hoy se conceptualiza mejor dentro de la influencia de la psicología
cognitiva.
Ahora solo vamos a ocuparnos aquí de un modelo cognitivo que es el más
cercano al de los condicionamientos. Se trata del aprendizaje perceptivo o
aprendizaje observacional de Tolman. Tolman fue el primero en hablar del
aprendizaje espacial en términos de mapas cognitivos. Defendió, ya en los
años cuarenta, que existen diversas clases de aprendizaje con teorías y leyes
distintas. Lo que el animal aprende, según Tolman, es a poner en relación una
configuración estimular con otra, que es lo mismo que decir que el animal
conecta un signo con su memoria de referencia. Percibiendo, pues, el signo
en relación con las representaciones en su memoria de referencia, el animal
puede reaccionar de modo instrumental, es decir, según un mapa cognitivo, y
encontrar un lugar.
Según Tolman, lo que un animal aprendía corriendo por el laberinto era un
mapa de las relaciones espaciales entre las trayectorias de los laberintos, la
caja-meta y diversos puntos de referencia.
Este tipo de memoria espacial en los animales, que se hace concreta en la
representación que llamamos mapas cognitivos, es también hoy día un campo
de investigación en la cognición animal. Morris ha parecido probar la
hipótesis de los mapas cognitivos frente a la hipótesis de la memoria de una
lista seriada de animales. Las ratas conseguían nadar hasta una plataforma
sumergida (por tanto, no visible), desde diversos puntos de un estanque. De
no tener un mapa cognitivo, hubieran necesitado una lista seriada diferente
para cada una de las ejecuciones de su aprendizaje anterior.
Alteraciones de la memoria en los animales.
También se ha realizado investigaciones sobre las alteraciones de la memoria
en los animales. Estos tipos de estudio también se realizaron con anterioridad
a la gran influencia del paradigma cognitivo. Por ejemplo, en los años
cincuenta se estudio si el tiempo intervenía, de suyo, en el olvido. Con el
experimente realizado, se infirió que el tiempo, por si solo, no produce
extinción de aprendizaje. Dicho con otras palabras, no olvidamos por el mero
paso del tiempo. Desde entonces se viene estudiando las interferencias
proactiva y retroactiva, es decir, los acontecimientos o procesos que provocan
que olvidemos lo anteriormente aprendido o lo posteriormente aprendido.
Así son importantes los estudios sobre la amnesia retrógrada.

OTROS ESTUDIOS EN COGNICIÓN ANIMAL

También se ha intentado estudiar el pensamiento en los animales. Esto se ha


hecho investigando la formación de conceptos. El descubrimiento ha sido que
los animales pueden organizar la percepción de los estímulos en clase o
categorías y responder a un estímulo que pertenezca a una determinada
categoría.
A las representaciones de las categorías de estímulos preceptúales se les ha
llamado conceptos preceptúales, puesto que son conceptos desarrollados
desde la percepción, frente a los conceptos que serían estructuras de
pensamiento, que posee el individuo y que las impondría para la clasificación
de sus conocimientos. Pues bien, lo que se ha estudiado es la formación de
conceptos preceptúales.
Así, se ha estudiado dentro de un paradigma experimental de
condicionamiento discriminativo, cómo una paloma responde a un estímulo
que es la figura de un árbol, aunque este aparezca de muy diferentes formas.
Parece que las diferentes formas en que aparece el árbol no actuaría de
estímulo discriminativo, a menos que la paloma no forme un concepto
perceptual de árbol.
Hernstein, ha ido más allá y ha formulado la hipótesis de que los animales no
podrían formar tales conceptos preceptúales, si no aplicaran una regla
polimórfica que les permita identificar las características del estímulo, sin tener
que considerar una característica determinada.
Otro tipo de investigaciones que se realizan sobre cognición animal es
el aprendizaje de pautas seriales. Los estudios actuales sobre los aprendizajes
de pautas seriales son realizados por Capaldi y otros.
Capaldi hacía la hipótesis de algún tipo de memoria que explicara el efecto
patterning, ahora hace la hipótesis de que el animal aprende pautas seriales de
refuerzo, haciendo la abstracción de una regla a partir de la secuencia de
estímulos.
El que el animal llegue al conocimiento de dicha regla es lo que explica que
pueda responder correctamente a las diferentes pautas de estímulos.
APRENDIZAJE EXPLICITO Y APRENDIZAJE IMPLÍCITO

El problema clave es la existencia o no de dos sistemas de aprendizaje,


uno explicito en que actúan mecanismos conscientes, y otro implícito en el
que actúan mecanismos no conscientes.
La problemática de un aprendizaje que permita ser verbalizable, porque se es
consciente de él, y de otro aprendizaje que no es verbalizable es algo que ya
se planteaba en la década de los años sesenta. En el momento actual se ha
dado por supuesto que el fenómeno normal es el aprendizaje con conciencia
y lo que necesita investigación es el aprendizaje implícito.
Para el estudio de la posibilidad del aprendizaje implícito se acudió en un
principio a un paradigma experimental en que la estimulación actúa solo
subliminalmente (algo que se percibe sin ser consciente de tal percepción).
Sin embargo, este paradigma experimental no ha tenido hasta la fecha buenos
resultados.
En consecuencia se ha utilizado otro paradigma en que la estimulación es
percibida conscientemente. Lo implícito no esta en el conocimiento
consciente del estímulo, sino de la adquisición de conocimientos de las
relaciones del estímulo con otros.
Se presentan dos estímulos relacionados en un tiempo dado en un cierto
numero de ensayos, y luego, en otro tiempo, se presenta solo el primer
estímulo y se observa como actúa el sujeto, de lo que se infiere si ha aprendido
la relación con el otro estimulo.
El problema se convierte en dilucidar como es la accesibilidad a la conciencia
de un conocimiento implícito y cual es la naturaleza de dicho conocimiento.
La metodología versa, fundamentalmente, sobre el conocimiento que se ha
adquirido implícitamente y no sobre la adquisición implícita de ese
conocimiento que es a lo que se refiere dicho nombre.
Tareas utilizadas por esta metodología son el aprendizaje de gramáticas
artificiales, el aprendizaje de secuencias y otras. En el estudio de gramáticas
artificiales los sujetos pueden enjuiciar la corrección gramatical de
proposiciones sin poder verbalizar las reglas.
Pensamiento
LA INDUCCIÓN CATEGÓRICA

INTRODUCCIÓN A LA INDUCCIÓN CATEGÓRICA

La inducción categórica es el proceso mediante el cual se agrupan los


acontecimientos particulares en clases y estas relaciones entre clases permiten
un ahorro cognitivo y ofrecen la posibilidad de inferir más información de la
que ha sido presentada en una situación determinada.
La categorización constituye uno de los procesos básicos del funcionamiento
cognitivo.
Este proceso da lugar a las categorías, que se consideran la estructura a partir
de la cual el sujeto va a poder seguir clasificando, interpretando, generando
inferencias tanto deductivas como inductivas y comunicándose con aquellos
que comparten una estructuración categórica común.
Funciones:
 a) el ahorro cognitivo que supone la agrupación de las experiencias en
clases
 b) la posibilidad que ofrece la pertenencia categórica de inferir más
información que la que haya sido presentada en una situación
determinada.
Aunque se han dado distinciones entre conceptos y categorías, la autora los
considera sinónimos y así los utiliza.

LA ESTRUCTURACIÓN CONCEPTUAL

El enfoque de las propiedades definitorias: asume una estructura conceptual


con propiedades bien definidas en las que una propiedad es necesaria si está
presente en cada uno de los ejemplares y un conjunto de propiedades es
suficiente si cada ejemplar que presenta dicho conjunto pertenece al concepto
en cuestión.
Es el enfoque más tradicional en el estudio de la organización categórica
considera que ésta se define por un conjunto de propiedades que son
individualmente necesarias y en su conjunto suficientes.
Una propiedad es necesaria si está presente en cada uno de los ejemplares.
Un conjunto de propiedades es suficiente si cada ejemplar que lo presente
pertenece al concepto en cuestión. Ejemplo del concepto "soltero".
 - Propiedad: predicado (ser varón).
 - Atributo: término genérico de la propiedad (sexo)
 - Valor: especificación del atributo (varón)
Estas propiedades se llaman definitorias porque constituyen colectivamente
una definición del concepto, y de acuerdo con el enfoque clásico, un objeto
es miembro de una clase si y sólo si presenta el conjunto de propiedades que
lo definen. Las principales teorías psicológicas hasta principios de los 70
compartían los supuestos del enfoque clásico, pero surgieron resultados
experimentales que ponían de manifiesto:
 - A falta de especificación de las propiedades definitorias de algunos
conceptos. Así, no había una definición consensuada para los
conceptos naturales y los límites entre conceptos no eran claros.
 - Efectos de tipicidad. El uso que hacían los sujetos de los conceptos
estaba en contra de los principios del enfoque clásico, ya que no se
cumple el principio de igualdad entre conceptos de una categoría sino
que algunos ejemplares se consideran más típicos o representativos del
concepto que otros.
 - Estos efectos de tipicidad permitían predecir el comportamiento en
varias tareas, ya que producen un efecto de facilitación.
Críticas: Ni los conceptos ni su uso parecen ajustarse tan claramente a una
representación por definiciones.

PROPIEDADES PROBABILÍSTICAS DE LA ESTRUCTURACIÓN


CONCEPTUAL

El enfoque de las propiedades probabilísticas: asume que la estructuración


conceptual depende del prototipo, que es como la tendencia central de las
propiedades de sus ejemplares, y los miembros de una categoría se relacionan
por el parecido familiar.
Surge por las deficiencias del enfoque clásico.
El enfoque probabilístico asume que los conceptos no están constituidos por
propiedades definitorias, sino que las propiedades más comunes o típicas de
un concepto ocurren sólo en determinados ejemplares.
El conjunto de estas propiedades se llama prototipo y describe sólo a los
mejores ejemplares del concepto. Así, el contenido del concepto es su
prototipo, que es como la tendencia central de las propiedades de sus
ejemplares.
Otros enfoques probabilísticos incluyen entre las propiedades medidas como
la varianza, dispersión, frecuencias, etc.
Explica la estructura conceptual en 3 niveles jerárquicos:
 - nivel supraordenado: nivel más alto de generalidad (ej. fruta)
 - nivel intermedio o básico: aquí se ubica el prototipo. Comprende el
mayor número de propiedades que comparten los ejemplares de una
categoría y el menor número de propiedades de otra categoría de
contraste. (ej. manzana)
 - nivel subordinado: el más concreto (ej. manzana golden)
El supuesto principal de este enfoque es que la tipicidad de un ejemplar es
una medida de la semejanza de dicho ejemplar y su prototipo.
Los datos del estudio de Malt y Smith (1984) ilustran claramente lo que se
entiende por tipicidad, parecido familiar y cómo se establece el orden de los
ejemplares.
Los miembros de una categoría se relacionan por su parecido familiar, y no
por un conjunto de propiedades definitorias.
Parecido familiar
La semejanza media de un ejemplar con respecto a otros miembros de la
categoría y la desemejanza media con respecto a los miembros de otras
categorías de contraste.
La estructura interna del concepto no es homogénea, ya que los miembros se
ordenan según esta graduación de tipicidad.
El parecido familiar es la base de la graduación de tipicidad, y una categoría
se define por el parecido familiar entre sus miembros.
Críticas: Se plantea el problema de cómo definir la semejanza y cómo explicar
la propia flexibilidad del proceso de inducción categórica:
 a) Los resultados sobre los efectos de tipicidad dependen:
o - del criterio de semejanza
o - de las categorías que se han elegido y
o - de los ejemplares que se han puesto a prueba
 b) El prototipo puede ser muy diferente en función del contexto en que
ocurra.
Así, aunque la propuesta de unas propiedades prototípicas es muy útil
y descriptiva de la categorización humana, no es lo suficientemente
flexible para explicar la sensibilidad que muestran los sujetos a:
o - la variabilidad tanto de ejemplares como de las propiedades que
constituyen una categoría
o - algunas relaciones como el rango de valores y la correlación
entre propiedades
o - el contexto en el que se realiza la categorización.
La postura conciliadora de los modelos mixtos intenta explicar cómo se
podría asumir la coexistencia de ambos tipos de propiedades.
Una postura conciliadora el la de los modelos mixtos al proponer que los
sujetos cuentan con ambos tipos de propiedades: - definitorias o diagnósticas
y - prototípicas. Las prototípicas son más accesibles y se utilizan para la
categorización y se recurre a las diagnósticas sólo en casos especiales, como
cuando se tiene que arbitrar una categorización dudosa. El prototipo se
considera un heurístico por medio del cual se utilizan las propiedades no
necesarias, y se recurre a las propiedades diagnósticas sólo en casos
determinados.
Algunos autores sostienen que las propiedades diagnósticas no tienen que ser
necesariamente definiciones, es decir, no tienen que ser fijas.

ENFOQUE DE LOS EJEMPLARES EN LA ESTRUCTURACIÓN


CONCEPTUAL

El enfoque de los ejemplares: asume que no hay una estructuración


conceptual propiamente dicha. Según este enfoque, existe una representación
de todos los ejemplares y el nivel de abstracción necesario para generar una
categoría ocurrirá en el momento mismo de la recuperación de la información
almacenada.
La tipicidad de un ejemplar se determina por su semejanza con los otros
ejemplares.
La categorización consiste en evaluar si un objeto presenta algún nivel crítico
de semejanza con los mejores ejemplares.
La idea central es que no es necesario asumir un único prototipo con el que
se comparan los ejemplares, sino que la categorización el función de la
semejanza entre el ejemplar y todos los miembros de la categoría.
Los resultados obtenidos con los prototipos se deben a que éstos constituyen
un patrón que presenta una semejanza alta con un gran número de
ejemplares.
Una de las ventajas de este enfoque es que no asume una única representación
del concepto, sino que, se pueden utilizar varias representaciones
dependiendo del criterio de semejanza y de los ejemplares representados.
Esto permite explicar:
 - los resultados obtenidos con los prototipos
 - la sensibilidad que muestran los sujetos ante otro tipo de información
(p. ej. las correlaciones entre propiedades, el rango de la propiedad y
el contexto)
Como no se asume una representación abstracta del concepto, sino unas
representaciones concretas de los ejemplares, se dota a la categorización de
una gran flexibilidad que permite utilizar y relacionar toda la información
representada según los objetivos planteados en cada situación.
Barsalou: el sistema categorizador ha de ser lo suficientemente sensible como
para poder explicar la agrupación temporal de unas propiedades.
Hay conceptos que sólo se generan en un contexto muy determinado (ej.
cosas que salvarías de un incendio). Estos conceptos "dirigidos por
metas" pueden presentar efectos de tipicidad, aunque la base es
cualitativamente distinta. El parecido familiar no predice la tipicidad en este
caso. La tipicidad se determina por el peso de las propiedades en el contexto
en el que ocurren.
La inducción categórica es un proceso muy flexible en el que es necesario
explicar tanto la estabilidad como la inestabilidad de las categorías.
Existe temporalidad de las propiedades, dinámica y dependiente del contexto.
Críticas: no ofrece una explicación de cómo se representan las
generalizaciones producto del aprendizaje y no concreta cuál es el criterio de
coherencia interna para poder limitar el proceso de categorización. Las críticas
al enfoque de los ejemplares se centran en la necesidad de :
 - contemplar las generalizaciones que se producen durante el
aprendizaje
 - especificar el criterio de coherencia interna que limite el ámbito del
proceso categorizador.
Los modelos conciliadores o mixtos intentan combinar la representación de
casos concretos y un nivel de representación más abstracto que se corresponda
con el prototipo.
Se han propuesto modelos mixtos en los que el enfoque de los ejemplares se
complementa con algún nivel de abstracción (enfoque probabilístico) que se
corresponde con el prototipo o modelos que dan cuenta de cómo puede
surgir la abstracción a partir de la representación de los ejemplares.
El problema es identificar las restricciones impuestas sobre este proceso como
para permitir que el sistema manifieste un comportamiento coherente a la
hora de categorizar el mundo.

COMBINACIÓN CONCEPTUAL DE SUSTANTIVO-ADJETIVO

La combinación de conceptos
Estos modelos estarán en consonancia con el punto anterior sobre la
estructuración conceptual.
La información conceptual se combina par producir otros conceptos. Este
proceso de combinación conceptual debería estar en consonancia con la
concepción que se tenga sobre la estructuración conceptual que hemos tratado
en puntos anteriores.
 - El modelo de modificación selectiva
Combinación Conceptual de Sustantivo-Adjetivo
El modelo de modificación selectiva: asume una representación prototípica
con pesos diferenciados para la prominencia y la diagnosticidad de los
atributos y el procedimiento para el cómputo se basa en la semejanza (regla
de contraste de Tversky). Los resultados sobre el efecto de la conjunción
ilustran cómo funciona este modelo.
Desde la teoría del prototipo se asumía que, para la explicación de la
combinación conceptual y el cómputo de la tipicidad, bastaría aplicar la teoría
de conjuntos difusos.
* Osherson y Smith encuentran que las predicciones de la teoría de conjuntos
difusos no se cumplían en los juicios de tipicidad sobre la conjunción de
conceptos.
Se encontró que los sujetos evaluaban como mayor la tipicidad de un ejemplar
del concepto compuesto que del simple. También se evaluaban como más
típicas las conjunciones incompatibles. Estos resultados se conocen como "el
efecto de la conjunción".
Proponen el Modelo de Modificación Selectiva para explicar el proceso de
combinación conceptual dentro del marco teórico de los prototipos.
El modelo parte de una representación prototípica conforme a una
estructuración conceptual en la que se incluyen:
 a) los atributos (ej. color) con pesos diagnósticos y
 b) los valores de estos atributos (ej.rojo) ponderados con respecto a su
prominencia.
El procedimiento asume que cada constituyente del concepto compuesto
desempeña un papel distinto y asimétrico y que no puede explicarse por la
simple intersección de las propiedades de sus conceptos constituyentes.
El proceso parte de la identificación de:
 - el concepto que desempeña la función de sustantivo como marco
conceptual sobre el que se va a operar
 - el concepto que desempeña la función de adjetivo como aquello que
opera o modifica.
Cuando ocurre la combinación conceptual el concepto con función de
adjetivo pone en marcha la selección de las propiedades que se van a poner
en correspondencia entre ambos conceptos y las propiedades seleccionadas
adquieren mayor prominencia y valor diagnóstico.
Para determinar el cómputo de tipicidad de un ejemplar se utiliza la regla de
contraste de Tversky que calcula la semejanza mediante el contraste entre las
propiedades comunes y no compartidas entre ejemplar y prototipo. Cada
propiedad conlleva un índice que pondera la prominencia y el valor
diagnóstico de los atributos.
El modelo de modificación selectiva ofrece un procedimiento concreto y
específico para el cálculo de la tipicidad de los conceptos compuestos, pero
es muy simple y limitado:
 - Está diseñado para conceptos compuestos con una sintaxis
determinada: sustantivo-adjetivo.
 - Otra limitación es que trata adjetivos simples que sólo afectan a una
propiedad del prototipo cuando la realidad es que existen adjetivos más
complejos que afectan de manera múltiple al sustantivo que modifican.
Además, los adjetivos simples (como el color) también están
relacionados con otros.
Estas relaciones entre las propiedades forman parte del prototipo y el cambio
en el valor de un atributo también modifica al resto de los atributos con los
que se encuentra relacionado.
Tiene que haber algo más en el concepto compuesto que la ponderación de
la prominencia y diagnosticidad en el procedimiento de la modificación
selectiva.
Críticas: Modelo demasiado simple puesto que asume que los atributos son
independientes y su rango de aplicación se limita a los conceptos constituidos
por sustantivos y adjetivos.

EL MODELO DE ESPECIALIZACIÓN CONCEPTUAL

Asume una representación por esquemas con variables y valores en la que


uno de los conceptos (el adjetivo) especifica los valores de las propiedades del
otro ( el sustantivo). Sin embargo, en este modelo se accede a la base de
conocimientos para seleccionar la variable que va a ser modificada antes de
iniciar la especialización.
Considera que la combinación conceptual es un proceso guiado por el
conocimiento.
 - Los conceptos simples están representados por esquemas que
estructuran el conocimiento con variables y valores.
 - Los conceptos compuestos están formados por un concepto
principal y otro que lo modifica, dando como resultado la
especialización o descripción detallada de los valores del concepto
principal.
Pero para este modelo (a diferencia del anterior), este proceso no es posible
sin tener acceso a la base de conocimientos que tiene el sujeto.
Se tiene que consultar la base de conocimientos para poder decidir cuál
variable es la más apropiada para el proceso de especialización y una vez
realizado se debe ampliar y refinar el nuevo concepto con el fin de que sea
coherente y completo. Así, el valor del atributo no sólo pondera en
prominencia y diagnosticidad, sino que se pone en relación con el
conocimiento que poseemos.
Ambos modelos comparten aspectos semejantes con respecto a la
representación de conceptos y cómo ésta se modifica en los conceptos
compuestos.
Diferencias:
 - El modelo de combinación selectiva aporta un procedimiento
detalladopara el cómputo de los conceptos compuestos pero sus
aspectos específicos le limitan
 - El modelo de especialización conceptual ofrece un marco teórico más
amplio para explicar la riqueza de la representación conceptual pero
aún no se ha hecho explícita como
Críticas: falta la especificación del procedimiento de cómputo para el proceso
de selección del conocimiento.

MODELO HÍBRIDO DE EJEMPLARES Y TEORÍAS PREVIAS

Propuesta inespecífica que combina la representación de ejemplares y el


conocimiento del mundo para poder explicar la relación entre las
propiedades de un concepto, las fluctuaciones que se producen por el
contexto y las variaciones del valor crítico de una misma propiedad.
Surge por resultados experimentales que ponen de manifiesto las
insuficiencias del modelo de modificación selectiva y la necesidad de una
teoría de la estructuración conceptual más completa y con mayor capacidad
de cómputo.
Contempla aspectos centrales del proceso de combinación conceptual y
conjuga la representación de ejemplares y el conocimiento del mundo.
Defiende que:
 - Los conceptos presentan una estructuración interna con muchas
relaciones entre sus propiedades.
 - Estas relaciones son dependientes y en interacción, dado que el
cambio en una de ellas afecta al resto (contraria al modelo de
modificación selectiva).
 - La relación entre las propiedades de un concepto fluctúa en función
del contexto y el papel que desempeña una propiedad determina su
valor crítico para el concepto.
Sus resultados experimentales muestran que en la estructuración conceptual
hay algo más que el cómputo de pesos en las distintas propiedades y que,
posiblemente, toda la información sobre las relaciones entre las propiedades
no se encuentren directamente representadas con el concepto, sino que
pueden ser procesadas según se necesiten.
Los 3 modelos anteriores se limitan a la combinación "sustantivo-adjetivo".
Pero la investigación sobre la combinación conceptual es más amplia y pone
de manifiesto las distintas relaciones que se pueden establecer entre los
conceptos.
COMBINACIÓN CONCEPTUAL DE SUSTANTIVO-SUSTANTIVO

Tipos de combinaciones:
· Wisniewski analiza la combinación "sustantivo-sustantivo" e identifica 3 tipos
básicos de combinaciones:
 (1) por la relación entre el concepto base y el concepto que lo modifica
(perro perdiguero)
 (2) por la propiedad que se aplica sobre el concepto base (pez martillo)
 (3) por la combinación o conjunción de algunas de las propiedades de
ambos conceptos. (aparta-hotel).
También amplía el modelo de especialización conceptual con los procesos
de comparación y construcción para los conceptos compuestos por
propiedades y combinaciones híbridas. Estos dos procesos son necesarios
para determinar las semejanzas y diferencias entre el concepto base (pez) y el
que lo modifica (martillo) y poder integrar la nueva información para la
construcción del nuevo concepto combinado (pez martillo).
Modelo de especialización conceptual:
Puede explicar la relación entre el concepto base y el concepto que lo
modifica.
Modelo de especialización conceptual ampliado:
Se añaden los procesos de comparación y construcción (propiedades no se
suman, sino que se crean) para explicar la aplicación de propiedades y la
combinación híbrida de las mismas. Obsérvese la vinculación entre los
procesos de combinación conceptual, cambio conceptual y razonamiento
analógico.

EL PROCESO DE CATEGORIZACIÓN

¿Cómo se lleva a acabo la agrupación de las propiedades en una categoría?


¿Cuáles son las explicaciones de dicho proceso de agrupación?
1. Principio de semejanza:
Son varios los enfoques que se apoyan en este principio para explicar la
organización conceptual. El alumno debe repasar y contrastar cómo se utiliza
este principio en el enfoque de las propiedades prototípicas y en el enfoque
de los ejemplares, señalando sus ventajas e inconvenientes y prestando
atención a la definición y estudios de Tversky.
Vamos a analizar cómo las propiedades de los ejemplares se agrupan en una
categoría.
La semejanza parece ser aquello que hace que una categoría
pueda aglutinar un conjunto de ejemplares. Pero la explicación es circular, ya
que los miembros de una categoría parecen semejantes por el propio hecho
de pertenecer a esa categoría.
La estimación que hacen los sujetos sobre la semejanza puede estar influida
por conocimiento de que aquello que se compara pertenece a la misma
categoría.
* Tversky define la semejanza en función de las propiedades que son
comunes y distintivas en un conjunto de ejemplares, pero que se encuentran
ponderadas en términos de su saliencia o relevancia. La semejanza depende
de las ponderaciones de las propiedades.
Demuestra cómo las ponderaciones varían en función del contexto estimular
y de la tarea experimental.
Además la ponderación depende de la entidad en la que esté (Ortony y Cols.).
Una propiedad es aquello que, por consenso, se ha validado en una muestra
de sujetos.
Pero las propiedades que se incluyan en las listas dadas por los sujetos están
determinadas por:
 - el conjunto implícito de contraste y
 - el nivel de especificidad elegido
Es decir, los sujetos enumeran sólo las propiedades que, en esa situación,
parecen más relevantes. Estos cambios en las ponderaciones se podrían
reflejar mediante los ajustes que se van realizando sobre las propiedades, pero
entonces la categorización se explicaría por estos ajustes.
2. Las teorías previas:
La organización categórica se encuentra determinada por el propio
conocimiento y las teorías ingenuas que tienen los sujetos sobre el mundo que
les rodea. Se debe prestar atención a los supuestos que adopta esta perspectiva
para explicar el proceso de categorización, centrándose también en sus
ventajas y desventajas.
Frente al principio general de semejanza, otros enfoques proponen que es el
propio conocimiento del sujeto y sus teorías ingenuas sobre el mundo lo que
restringe la construcción y organización categórica.
Este conocimiento previo o teorías ingenuas es lo que determina cuáles son
las propiedades relevantes para una categoría. Así, la categorización no se da
aislada, sino que los conceptos se organizan circunscritos al conocimiento
estructurado o teorías ingenuas que tienen los sujetos y que les permite actuar
de forma coherente.
Aquí podemos incluir aquellas teorías que asumen una representación de la
información en estructuras de conocimiento tales como los esquemas, los
guiones, los marcos o los modelos mentales.
Los esquemas o guiones pueden equipararse a una categoría en la que
también cabe el parecido familiar entre diversos ejemplares, pero en
contraposición al prototipo, un esquema no necesita especificar los valores de
sus propiedades, sino que estas propiedades son genéricas y adoptan valores
en función del contexto.
El proceso de categorización
En este punto se presentan dos perspectivas sobre la inducción categórica que
pretenden explicar la flexibilidad de este proceso. Ambos enfoques
pertenecen al marco de los modelos computacionales, pero sus supuestos
básicos son distintos.

EL SISTEMA DE REGLAS DISTRIBUIDAS

Este enfoque pertenece al paradigma simbólico clásico en el que se


utilizan símbolos atómicos para denotar las entidades susceptibles de ser
interpretadas semánticamente, y dichas entidades se manipulan por las reglas
que definen al sistema. Este enfoque está cerca de la perspectiva que defiende
el principio de estructuración del conocimiento para explicar la
categorización, aunque también hace uso de la semejanza y contempla la
interacción con el contexto.
 - Los esquemas de razonamiento pragmático
 - Descripción del proceso de inducción categórica
La categorización permite reducir la variabilidad del entorno por medio de la
agrupación de conjuntos de objetos o eventos particulares.
Los principios de categorización guardan correspondencia con la red de
relaciones inherentes tanto al propio sistema como al contexto en el que está
inmerso el sujeto.
Una de las funciones de la categorización es la clasificación y organización de
los ejemplares. Pero según algunos autores ( Holland, Holyoak, Nisbett y
Thagard)esta función puede que sea una derivación de una función aun mas
fundamental: la generación de inferencias relevantes para una meta.
Así, la evocación de un concepto ocurre cuando éste presenta una relación
explicativa suficiente del contexto, en lugar del simple emparejamiento de
propiedades. Esto se sigue del supuesto de que las categorías pueden definirse
como grupos de reglas interrelacionadas, y que estas reglas son el producto de
un sistema dirigido por metas.
Los aspectos relevantes del proceso de categorización pueden determinarse
sólo si se considera la interacción entre las propiedades de los ejemplares y
las situaciones causales en las que ocurren.
La ponderación de las propiedades no es una cuestión estática, sino que
depende del contexto y las metas del sistema y el motivo por el que unas
propiedades asumen unos valores u otros se resuelva por la representación de
la incidencia estadística de las propiedades.
La hipótesis del paradigma simbólico: Se puede explicar el comportamiento
humano por medio de la analogía con los modelos computacionales. El
sistema de procesamiento está preparado para la manipulación de símbolos,
lo que implica la formalización de unas estructuras simbólicas susceptibles de
ser interpretadas en términos de los conceptos de uso común sobre las que se
ejecutan una serie de procedimientos.
El modelo en concreto que ilustra esta perspectiva es el de Holland, Holyoak,
Nisbett y Thagard (1986), y por hacerse cargo del contexto recibe el nombre
de: esquemas de razonamiento pragmático.
Dentro del paradigma simbólico. Comprende un conjunto de reglas que
caracterizan las relaciones entre una clase de acontecimientos, objetos y metas.
Los supuestos principales:
 1- el sistema como aplicador de reglas. Las agrupaciones de reglas
consolidadas se denominan esquemas
 2- procesamiento paralelo. Las reglas están distribuidas en estructuras
que pueden ser complementarias o inhibitorias
 3- las restricciones sobre el mecanismo están determinadas por el
propio sistema y el contexto.
El sistema dirige sus inducciones en función del contexto concreto en el que
se encuentra.
La inducción va a depender del contexto, siendo guiada por el conocimiento
previo que se activa en situaciones particulares con las que se ha de enfrentar
el sistema en su búsqueda de metas. Esta teoría reúne características de los
modelos computacionales, pero subsanando sus críticas y acercándose a los
modelos conexionistas.
Los anteriores sistemas de producción modelaban procesamiento serial y
ahora se considera el procesamiento paralelo. Se apoyan en un sistema de
producción constituido por reglas de condición-acción, que describen las
transiciones temporales del ambiente, especificando que si ciertas condiciones
se cumplen, entonces tiene lugar la acción.
Estas reglas son de 2 tipos:
 - reglas diacrónicas: representan las transiciones temporales entre el
ambiente y los estados del sistema y comprenden el repertorio de
teorías causales sobre el ambiente
 - reglas sincrónicas: comprenden reglas atemporales entre
descripciones alternativas del ambiente o de los objetos.
Este enfoque busca la combinación de dos aspectos clave:
 - la flexibilidad del proceso categorizador (se fundamenta en la
ejecución en paralelo de un conjunto de reglas)
 - su organización
La actividad del sistema de producción se da en un ciclo de 3 pasos:
 a) el emparejamiento de los hechos y reglas para determinar qué reglas
satisfacen las condiciones
 b) la selección de un subconjunto de las reglas emparejadas para que
sean ejecutadas
 c) la ejecución de las reglas seleccionadas para que se lleven a cabo las
acciones especificadas.
Estas reglas están organizadas en función de las patrones de las condiciones y
acciones, dando lugar a dos tipos de organización:
 1- Organización implícita: si la acción que es consecuencia de una regla
satisface la condición de una segunda regla, entonces la ejecución de la
1ª conducirá a la ejecución de la 2ª
 2- Organización explícita: la conexión entre reglas viene indicada
directamente, y las reglas que se activan conjuntamente quedarán
conectadas con el tiempo, formando un conjunto interrelacionado de
reglas.

EL PROCESO DE INDUCCIÓN CATEGÓRICA

El modelo de los esquemas de razonamiento pragmático concibe las


categorías como un conjunto de reglas agrupadas que comprenden supuestos
probabilísticos sobre las propiedades que ocurren con otras propiedades. Las
categorías se corresponden con las agrupaciones de reglas explícitas o
implícitas en función del contexto en el que ocurran. Un objeto que va a ser
categorizado recibe apoyo de varias fuentes (reglas) con diferentes
condiciones.
Cuando las categorías no son mutuamente excluyentes, las reglas
correspondientes pueden activarse simultáneamente. También pueden
disparar acciones que entran en conflicto, entonces se establecen reglas que
inhiben las reglas conflictivas.
Cada una de las reglas cuenta con un valor de apoyo y una ponderación.
Para evitar que el sistema genere generalizaciones poco plausibles, se cuenta
también con un umbral de confirmación, que establece la variabilidad del
conjunto de propiedades que se están considerando.
Las reglas que constituyen una categoría no son una definición de ésta, sino
un conjunto de expectativas que se consideran verdaderas siempre y cuando
no se contradigan por la información presentada al sistema.
En ausencia de más información, proporcionan el mejor esquema para la
situación actual.
Estas reglas se organizan en jerarquías por defecto que se ordenan por
expectativas basadas en las relaciones subordinadas y supraordenadas. Así, la
categorización no depende de una descripción monolítica, sino de una
combinación de propiedades y situaciones. Estas jerarquías pueden
representar en un nivel las generalizaciones que son útiles y en otro nivel la
información más específica de las excepciones. De este modo se representa
tanto la uniformidad como la variabilidad que existe en el ambiente.
Se asume que los sujetos representan la variabilidad del objeto con respecto a
un tipo de propiedad. El número de ejemplares necesarios para alcanzar una
generalización será función de esta variabilidad. Los grados de tipicidad
pueden interpretarse en términos de la organización de una jerarquía por
defecto.
El modelo mental será un conjunto de reglas más cualquier información
disponible.
No es necesario asumir un prototipo explícito.
 - Los ejemplares típicos serán aquellos a los que se adhieren las reglas
por defecto de las categorías supraordenadas.
 - Los ejemplares atípicos se emparejarán con reglas excepcionales.
En este modelo se intenta explicar la compleja red de relaciones en función
del conocimiento que el sujeto construye en términos causales (lo que algunos
llaman conocimiento teórico. La categorización no ocurre de forma aislada,
sino inmersa en las teorías que tienen los sujetos sobre aquello que les rodea.
El paradigma simbólico explica la categorización fundamentándose en el
conocimiento que se construye sobre el mundo que nos rodea y que
constituye una teoría sobre el mismo.

EL SISTEMA DE ACTIVACIÓN DISTRIBUIDA

El segundo enfoque pertenece al paradigma conexionista, concretamente a los


modelos de satisfacción de restricciones. Reemplazan el marco simbólico por
un nivel "subsimbólico" que se encuentra entre las conexiones neuronales y
los cómputos mentales. Las entidades son patrones de activación sobre una
serie de unidades del sistema.
Las entidades que antes eran símbolos y se manipulaban por reglas ahora son
unidades a modo de neuronas y las reglas se sustituyen por el emparejamiento
de patrones de activación.
Este enfoque está próximo a la perspectiva que asume el principio de
semejanzaen el emparejamiento de patrones con un procesamiento guiado
por los datos y cuyas representaciones están próximas al enfoque de los
ejemplares
El enfoque conexionista parte de otros supuestos. Uno de los principales es
el referente al tipo de arquitectura del modelo. El sistema se encuentra
constituido por redes de activación que comprenden un conjunto amplio de
unidades de procesamiento unidas por conexiones con pesos diferenciados.
Los procesos mentales son patrones de activación que se definen en una red
interconectada. La información se transmite por las propiedades estadísticas
de los patrones de actividad en un conjunto de unidades, y no por unidades
particulares.
El papel que desempeña una unidad se define por la fuerza de sus conexiones,
tanto excitatorias como inhibitorias. El conocimiento está en las conexiones y
no en las representaciones estáticas y monolíticas de los nodos. Las
conexiones son el medio por el cual interactúan las unidades.
A estos modelos conexionistas también se les llama modelos PDP o de
procesamiento distribuido y paralelo, destacando que la actividad de
procesamiento es el resultado de las interacciones de procesamiento que
ocurren entre un número importante de unidades.
No existe ninguna noción sobre una estructura interna constituida, aunque
sólo sea por defecto. La aparente aplicación de reglas emerge de las
interacciones entre estas unidades de activación, en lugar de explicarse por la
aplicación de reglas propiamente. El procesamiento es activo en el sentido de
que da lugar directamente a más procesamiento, sin necesidad de un
procesador central o de un mecanismo de emparejamiento y aplicación de
producciones.
Modelos de satisfacción de restricciones. En concreto, se presenta el modelo
de Rumelhart, Smolensky, McClelland y Hinton (1986).
Los modelos de satisfacción de restricciones pretenden simular un proceso
que satisface simultáneamente un número considerable de restricciones, y en
el que no hay una solución única que pueda satisfacer todas las restricciones.
Las restricciones que ya están implícitas en el patrón de activación van a
determinar el conjunto de posibles estados del sistema, interactuando con la
entrada de información.
La relevancia diferencial de las restricciones se encuentra reflejada en la fuerza
de la conexión entre unidades. Cada una de las unidades presenta un sesgo
que refleja las probabilidades a priori de estar activadas.
La contribución de un par de unidades es el producto de sus valores de
activación multiplicado por los pesos de las conexiones. El ajuste es la suma
de todas las contribuciones individuales que el sistema busca maximizar.
Descripción del proceso de inducción categórica.
 - Se representan las propiedades en activación o desactivación.
 - Cada una de ellas representa un patrón de activación con respecto al
resto de las propiedades.
 - En la matriz de pesos, la fuerza de las conexiones se obtiene del
cálculo de las concurrencias de todos los términos.
 - Se representa un conjunto de unidades cuyas ponderaciones hacen
que emerja una configuración que se identifica con el prototipo.
Las propiedades se encuentran distribuidas por toda la red, y la fuerza de sus
conexiones hace que el patrón adquiera una configuración determinada.
Estas redes de activación son sistemas de procesamiento que pueden
computar estadísticos sobre sí mismas, de forma que reflejen las fluctuaciones
del ambiente del que se derivan sus datos. El procesamiento ocurre por medio
de la evolución de estos patrones de actividad, que van actualizando los pesos
entre las conexiones. Cada vez que entra una estimulación en el sistema, éste
se mueve hacia un estado estable en el que se alcanza una bondad de ajuste
máxima. Es completamente reactivo (guiado por datos). Cuando entra
información en el sistema, todas las unidades ajustan su activación con el fin
de satisfacer el mayor número posible de restricciones.

RAZONAMIENTO PROBABILÍSTICO

NOCIONES BÁSICAS DE PROBABILIDAD

Abordaremos este tema como un tipo de tarea enmarcada en el ámbito del


razonamiento inductivo. En este caso, la persona no obtiene una conclusión
directamente derivada de la información disponible en las premisas, sino que
ha de ir más allá de esta información. La conclusión contiene información
nueva y, por ello, no tiene un carácter de validez sino de mayor o menor
probabilidad de ocurrencia. En nuestra vida diaria realizamos continuamente
juicios bajo incertidumbre, en ocasiones para tomar decisiones relativamente
intrascendentes pero, en otras, porque son la esencia de nuestro trabajo, por
ejemplo, en el caso de un juez o de un médico. Dada su relevancia, nos
interesa saber si estos juicios se ajustan a leyes objetivas que aseguren su
precisión. El objetivo en aquí es conocer qué estrategias se utilizan al emitir
juicios bajo incertidumbre y cuán precisas y adecuadas son estas estrategias
comparadas con distintos criterios.
El criterio con el que habitualmente se ha contrastado la precisión de los
juicios probabilísticos es la Teoría de la Probabilidad y el Teorema de Bayes.
En este apartado se analizan qué probabilidades han de tenerse en cuenta, qué
características tienen estas probabilidades, y de qué modo deben combinarse,
ya sean probabilidades obtenidas tras la observación de la frecuencia de un
suceso (objetivas), como derivadas de las creencias u opiniones del individuo
(subjetivas).
Como se obtiene la probabilidad de un suceso:
Probabilidades objetivas: obtenidas tras la observación de la frecuencia de un
suceso. Enfoques:
 - probabilidad de un suceso aleatorio (S): cociente entre el número de
resultados favorables del suceso aleatorio y el número total de
resultados posibles
 - probabilidad de un suceso: frecuencia relativa del mismo después de
haberlo repetido un nº razonablemente grande de veces
Probabilidades subjetivas: derivadas de las creencias u opiniones del
individuo.
Según la Teoría de la probabilidad, axiomas:
 1- la probabilidad de un suceso es igual o mayor que 0. No existen prob.
negativas.
 2- la probrobabilidad de un suceso seguro es 1. La probabilidad de no
ocurrencia es: p(no S)= 1 - p(S)
 3- si dos sucesos (S1y S2) son mutuamente excluyentes entre sí: p(S1ó
S2) = p(S1)+ p(S2)
 4- si la prob. de un suceso p(S2) no es igual a 0, entonces p(S1 y S2) =
p(S1 asumiendo que S2) x p(S2). La prob. de la conjunción de dos
sucesos es siempre menor o igual que la probabiliad de uno de los
sucesos considerado aisladamente.
La aplicación del Teorema de Bayes: modelo normativo que asumiendo
todos los axiomas de la Teoría de la probabilidad, contemplaba la posibilidad
de que las personas asignasen a los sucesos probabilidades subjetivas,
basándose en sus opiniones, creencias o experiencias anteriores. Este teorema
permite estimar la probabilidad de un suceso a la luz de un nuevo dato
partiendo de la:
 - probabilidad inicial, a priori, del suceso, p(D/H)
 - diagnosticidad del dato con respecto al suceso, p(D/H')
Críticas: A partir de la asunción de este modelo, muchos investigadores
estudiaron la correspondencia entre los juicios de las personas y los resultados
predichos por el teorema. Sin embargo, la evidencia demostraba
repetidamente que el razonamiento humano no se ajustaba a esta ley
estadística, ya que en ocasiones, los juicios emitidos eran más conservadores
que los predichos por el modelo, y en otros casos eran juicios más extremos.

ENFOQUE DE LOS HEURÍSTICOS DE RAZONAMIENTO

¿Se ajustan los juicios a estas reglas y leyes de la probabilidad?


Los trabajos de Tversky y Kahneman desvelaron que los juicios no sólo no
seguían la norma estadística sino que se observaban errores sistemáticos.
La Teoría de la Racionalidad Restringida abrió una nueva perspectiva
señalando que, quizá, las personas no intentan obtener la máxima exactitud
en el juicio sino un resultado satisfactorio, emitiendo un juicio a partir de un
modelo simplificado que no utiliza toda la información necesaria, pero que
resulta adecuado ante las limitaciones cognitivas para almacenar y procesar un
elevado número de datos.
La evidencia empírica apoya el uso de estas estrategias simplificadas o
heurísticos, y Tversky y Kahneman describen la representatividad, la
accesibilidad y el anclaje y ajuste como los tres heurísticos más utilizados.

EL HEURÍSTICO DE REPRESENTATIVIDAD

El uso de este heurístico consiste en evaluar la probabilidad de la pertenencia


de un elemento A a una clase B por el grado de semejanza entre A y B.
 - juicio de representatividad: se evalúa el grado de correspondencia
entre el ejemplar presentado y la categoría, generalmente basada en la
semejanza entre ambos y estrechamente relacionado con la tipicidad y
la prototipicidad.
 - juicio por representatividad: una vez establecido el juicio de
representatividad, el uso de este heurístico consistiría en asignar la
probabilidad en función de su parecido con nuestro prototipo.
El uso de este heurístico puede conducir a juicios acertados con un bajo coste
cognitivo; sin embargo, la semejanza no se ve afectada por variables que
influyen en la prob. del evento como, por ejemplo, el tamaño de la muestra
de la que se extrae la información, las prob. a priori o la capacidad predictiva
de la información.
De la misma forma, la similitud entre un objeto y una categoría no tiene
ninguna relación con algunos conceptos estadísticos básicos como la regresión
hacia la media o el hecho de que la probabilidad de la conjunción de dos
sucesos siempre ha de ser menor o igual que la prob. de cada uno por
separado.
Si los juicios se basan en la similitud ignorarán esta información estadística y,
por tanto, darán lugar a juicios sesgados.
 - los juicios se ven afectados por variables que influyen en la semejanza
y no en las probabilidades
 - los juicios no se verán afectados por información irrelevante para la
semejanza pero fundamental desde el punto de vista estadístico. De
aquí cabe destacar: - tamaño de la muestra - las prob. a priori - la
capacidad predictiva del dato.
* Insensibilidad al tamaño de la muestra:
Se considera que la probabilidad asignada será más cercana a la prob. real del
suceso cuanto mayor sea el número de observaciones del que partimos; si
embargo, esta información no parece ser importante para la mayoría de las
personas.
Este sesgo se manifiesta cuando se espera que la frecuencia real de un suceso
se manifieste en muy pocos sucesos, como en la "falacia del jugador":
Ej: juegos de azar. Las personas consideran que las características propias de
los sucesos aleatorios, como la equiprobabilidad, se manifestará en un número
reducido de lanzamientos, ignorando que una moneda o un dado
no "recuerdan"los resultados obtenidos anteriormente y, aunque a la larga la
frecuencia de caras y cruces se equilibrará, esto no ha de ocurrir
necesariamente en una secuencia corta de lanzamientos. O se generaliza a
partir de un número muy escaso de datos, como en el ejemplo del "explorador
en una isla desconocida". Obsérvese que esta última tendencia a la
generalización no ocurre en todos los casos, sino que va a depender de la
homogeneidad de los datos sobre los que se está razonando.
Ej: del "explorador en una isla desconocida": los resultados encontrados
indicaron que las personas tienen en cuenta el tamaño de la muestra; así, los
sujetos esperan que las propiedades de un mineral sean estables y generalizan
a partir de una sola observación, mientras que consideran altamente variable
la obesidad o delgadez de los miembros de un grupo y la generalización sólo
se da cuando hay un número elevado de observaciones.
* Insensibilidad a las probabilidades a priori:
El juicio se basa únicamente en la información del suceso que se considera
representativa, sin considerar la frecuencia real del acontecimiento.
Para comprobar si los sujetos atienden a las probabilidad a priori cuando
aparecen explícitamente mencionados en el problema los autores plantean un
nuevo experimento. Los resultados mostraron que los sujetos ignoraban las
frecuencias mencionadas y parecían basarse únicamente en la descripción,
considerando a la persona como ingeniero o abogado en la medida en que
dicha descripción reunía características que lo acercaban al prototipo que
tenían los sujetos sobre cada profesión.
Conclusión: Cuando la descripción o la nueva información es suficientemente
representativa, las personas ignoran la información inicial sobre las
probabilidades a priori o la frecuencia de un evento, siendo esta información
esencial desde el punto de vista bayesiano.
* Insensibilidad al valor predictivo del dato:
Este sesgo se manifiesta cuando se tiene en cuenta únicamente la evidencia
que puede confirmar la hipótesis de que se parte y se ignora la evidencia que
puede conducir a su falsación.
En la misma línea, Kahneman y Tversky encontraron que las personas no
tenían en cuenta la capacidad predictiva de distintos datos, sino que basaban
el juicio en su representatividad con respecto a un resultado. Por ejemplo,
cuando se recibe una descripción favorable sobre el rendimiento de un
alumno, la trayectoria de una empresa o una entrevista de trabajo, el juicio
predictivo suele basarse en esta información, sin preguntarse por la fiabilidad
de la fuente o por su validez.
* Falacia de la conjunción:
En este sesgo se considera más probable la ocurrencia simultánea de dos
sucesos si ofrecen un modelo más representativo de la información inicial.
Variaciones posteriores del mismo problema en las que aparecían p(A y no
B) o la probabilidad condicional ponen de manifiesto que se sigue
considerando más probable la conjunción que un elemento aislado, si aquella
era más representativa.
Este sesgo se encuentra relacionado con la construcción de escenarios
(heurístico de Accesibilidad): las personas consideran más probable una
situación que aparece como una conjunción de varios sucesos, formando un
escenario más detallado y complejo, que otra situación más ambigua en la que
únicamente se describe un suceso. Ej: descripción de un accidente
* Insensibilidad a la regresión a la media:
Se ignora la regresión a la media y se espera que las puntuaciones extremas se
mantengan, basándose en la semejanza entre dos eventos relacionados. Por
ejemplo, las puntuaciones extremas en talla o inteligencia y su transmisión de
padres a hijos.
Basándonos en la representatividad, tendemos a pensar que los hijos de
padres extremadamente altos o inteligentes lo serán también, aunque existan
en la vida diaria continuos ejemplos de lo contrario.
Obsérvese cómo los sujetos racionalizan sus juicios con explicaciones a
posteriori cuando reciben descripciones sobre el efecto de la regresión a la
media.
Los sujetos racionalizan sus juicios con explicaciones a posteriori cuando
reciben descripciones sobre el efecto de la regresión a la media.
Regresión a la media: principio estadístico extraordinariamente contraintuitivo
afirma que las puntuaciones extremas en una medición tienden a acercarse a
la media en una medición posterior.

EL HEURÍSTICO DE ACCESIBILIDAD

En tareas de estimación de frecuencias, los juicios se basan en la información


que más fácilmente puede recuperarse desde la memoria. En relación con
este heurístico, el heurístico de simulación consiste en considerar más
probable una situación (un escenario) cuanto más fácilmente pueda
construirse.
Este heurístico puede conducir a buenos resultados, puesto que lo más
frecuente suele estar más disponible en la memoria. Sin embargo, además de
la frecuencia, otras variables afectan a esta accesibilidad como, por ejemplo,
la recencia, la saliencia, la familiaridad o el impacto que un acontecimiento
haya causado. Si se emite un juicio de frecuencias basándose en la
accesibilidad puede verse afectado por estas variables y, por tanto, resultar
erróneo.
En relación con este heurístico, el heurístico de simulación, consiste en
considerar más probable una situación (un escenario) cuanto más fácilmente
pueda construirse. Mientras que el primero se utilizaría en tareas de recuerdo,
la simulación sería útil en tareas de predicción, ya que se estimaría la
probabilidad de un acontecimiento en función de la facilidad con que puede
anticiparse o imaginarse.
Tanto el heurístico de accesibilidad como el de simulación conducen a errores
en parecidos términos a los producidos por la representatividad ignorando las
prob. a priori o la frecuencia real de un evento cuando se dispone de
información más reciente o impactante que contradiga dichas probabilidades.
En el ámbito social, esta prevalencia de la información más accesible sobre el
consenso (que equivaldría a la prob. a priori) daría lugar al sesgo egocéntrico;
este sesgo no respondería a intenciones personales sino a la mayor facilidad
para recordar las acciones u opiniones propias.
Al igual que con la representatividad, el heurístico de accesibilidad conduce a
ignorar la capacidad predictiva de la información que recibimos. La mayor
relevancia de la información presente, dado que es más accesible, ha sido
observada en un gran número de estudios que ha puesto de manifiesto
diferentes sesgos o errores:
* Sesgo de explicación:
Estimar como más probable aquello que ha sido explicado previamente.
Investigaciones posteriores demuestran, que no es necesario explicar sino
únicamente imaginar un resultado para aumentar su probabilidad percibida.
Ej: cuando el sujeto da una explicación sobre un hipotético éxito o fracaso, los
factores que favorecen una u otra posibilidad se hacen más salientes y más
accesibles en la memoria.
Si a continuación se le pide que manifieste sus expectativas sobre el
acontecimiento, al buscar los factores más relevantes encontrará aquellos más
accesibles por haber sido explicados (o imaginados) y, como consecuencia, las
expectativas llegarán a ser consistentes con el resultado explicado.
* Sesgo retrospectivo:
Considerar, una vez conocido un resultado, que la probabilidad de que
ocurriese el resultado, y no otros, era muy alta.
Consiste en que la probabilidad percibida de un suceso aumenta cuando los
sujetos conocen el resultado final. Cuando se proporciona a los sujetos un
resultado, los antecedentes y escenarios que conducen a dicho resultado
adquieren una mayor saliencia en perjuicio del resto de resultados posibles.
Es más fácil imaginar cómo ha ocurrido un suceso que pensar cómo podría
haber ocurrido.
* Correlación ilusoria:
Evaluar como altamente probable la presencia simultánea de dos
acontecimientos, dado el vínculo que pudiese existir entre ellos. Obsérvese
también su vinculación con la formación de estereotipos sociales.
Ej: Si un miembro de un grupo minoritario realiza una acción anómala o
negativa, ambos sucesos se asociarán y se estimarán como relativamente
frecuentes. En este caso dos sucesos muy distintivos se asocian y esta
asociación sería altamente distintiva y, por tanto, muy fácil de recordar. Por
este motivo la covariación se estimaría mucho más frecuente de lo que en
realidad es.

EL HEURÍSTICO DE ANCLAJE Y AJUSTE

El uso de este heurístico consiste en basar el juicio en un valor inicial, obtenido


mediante cualquier procedimiento, incluido el azar, para luego ir ajustándolo
a medida que se añade nueva información.
Sin embargo, también es posible que el uso de los otros dos heurísticos esté
en la base de este anclaje. De esta forma, la persona podría tomar como dato
inicial lo más accesible en la memoria, o lo más representativo, y a partir de
este dato ir ajustando el juicio en la dirección de la información posterior.
Ejemplo: problema de la multiplicación presentada en orden descendente o
ascendente. Presentada a dos grupos de estudiantes, tenían que responder en
5 segundos. Para el primer grupo la multiplicación era 8x7x6x5x4x3x2x1; para
el segundo 1x2x3x4x5x6x7x8
Al tener que responder tan rápidamente, los sujetos pueden realizar muy
pocos pasos del cómputo y pueden estimar el producto final extrapolando o
ajustando los datos.
Puesto que el ajuste habitualmente es insuficiente, puede esperarse que la
respuesta sea un valor más bajo que el resultado real, pero dado que el
resultado de lo primeros pasos de la multiplicación es más alto para el primer
grupo de sujetos que para el segundo, también puede esperarse que el primer
grupo de cómo respuesta un valor más alto.
Estos fueron los resultados que se encontraron: la media del primer grupo =
2.250; media del segundo grupo = 512; resultado real=40320

CRÍTICAS AL ENFOQUE DE LOS HEURÍSTICOS

* No se puede predecir cuándo se utilizará uno u otro heurístico.


Esto se deriva de la extraordinaria flexibilidad de los heurísticos que podrían
considerarse excesivamente generales y ambiguos, englobando muchas reglas
específicas diferentes.
* No queda claro a cuál de los heurísticos se deben algunos sesgos, como la
falacia de conjunción.
Este sesgo puede atribuirse al heurístico de representatividad, pero también
estaría relacionado con la construcción de escenarios y con el heurístico de
simulación.
* Escasa validez externa.
Muchos de los resultados obtenidos en el laboratorio no pueden extrapolarse
a la vida real, en la que la información se recibe de distinta forma y en la que
otras circunstancias como la presión de tiempo o las consecuencias del juicio
emitido adquieren especial relevancia.
Desde este punto de vista, algunos autores sostienen que las estrategias
heurísticas serian más adecuadas en este contexto natural que el seguimiento
de la regla estadística, puesto que frecuentemente conducen a resultados
correctos (o al menos aceptables) y suponen un coste cognitivo mucho menor
que aquellas estrategias.
¿Quiere esto decir que los juicios carecen de precisión, como puede deducirse
de su comparación con un criterio estadístico?
En cuanto a la precisión del juicio en la vida diaria generalmente no existe un
criterio objetivo con la que contrastar los juicios emitidos. Esto conduce a
evaluar la racionalidad de dichos juicios bien por consenso social, bien por su
relación coste-beneficio, o bien por su adecuación con la meta perseguida.
Desde este punto de vista, los heurísticos resultarían estrategias más adecuadas
que la norma estadística en el ambiente natural, ya que no siempre conducen
a resultados erróneos. Características de la vida diaria y del sistema cognitivo
hacen que habitualmente sean más adecuados los heurísticos que las reglas
estadísticas. Por ej: en situaciones de información limitada, información
redundante o sobrecarga de memoria.
En definitiva, es posible que podamos considerar juicios racionales aquellos
que son adaptativos, aunque se desvíen del modelo normativo.
¿Pueden extrapolarse los resultados obtenidos en el laboratorio a situaciones
de la vida diaria?
Adecuación del modelo bayesiano como criterio con el que contrastar la
precisión de los juicios humanos: algunos autores, como Gigerenzer,
consideran que los trabajos sobre los heurísticos parten de algunas asunciones
erróneas, como el suponer que la Teoría estadística proporciona exactamente
una repuesta para los problemas de la vida cotidiana presentados a los sujetos,
sin considerar que existen otras Teorías estadísticas diferentes que
conducirían a distintas respuestas, algunas de ellas coherente con las emitidas
por los sujetos. Por otra parte, la probabilidad entendida desde un punto de
vista frecuentista no puede aplicarse a un solo caso sino que siempre se refiere
a poblaciones. Existen enfoques alternativos que tratan de explicar los
resultados observados en tareas de juicios probabilísticos.

ENFOQUE DE LOS MODELOS MENTALES

La Teoría de Modelos Mentales (Johnson-Laird, 1983; Johnson-Laird y


Byrne, 1991) también aborda la tarea de Razonamiento Probabilísitico,
proponiendo que el juicio se resuelve con la construcción de un conjunto de
modelos basados en la información de la que se dispone. La conclusión
obtenida se considera más o menos probable en función del número de
modelos que apoyen o contradigan dicha conclusión.
Debido a las limitaciones de la memoria de trabajo (habitualmente no puede
atenderse a un número elevado de modelos), las personas han de evaluar la
frecuencia de los modelos que apoyan y niegan la conclusión de una forma
rudimentaria o sesgada. Se estudian algunos de estos sesgos,
denominados ilusiones cognitivas, asumiendo que las conclusiones que
ocurren en la mayoría de los modelos serán consideradas como las más
probables. Cuando se razona sobre la probabilidad relativa de dos sucesos A
y B con varios operadores (disyunción exclusiva, condicional, bicondicional),
los sujetos pueden cometer errores al no representar de forma explícita los
casos en los que no ocurren los sucesos.
Con respecto a los problemas de razonamiento probabilísticos se estudian
los efectos del orden de presentación de las fuentes de información y la
congruencia/incongruencia entre estas fuentes. Los resultados mostraron que
el orden de presentación de la información genera modelos mentales distintos
y que la integración de la información representativa y la probabilística
depende de la congruencia entre ambas. Ante una incongruencia entre las
fuentes de información, el sujeto desatiende la información cuantitativa y basa
sus juicios en la información representativa. Aunque los resultados siguen
mostrando el valor de la representatividad en los juicios probabilísticos, se
descarta la utilización de una estrategia de razonamiento heurística, puesto
que se integran ambas fuentes de información (representativa y probabilística)
cuando estas son congruentes. Incluso en el caso de fuentes incongruentes,
tanto los tiempos empleados en la lectura de la segunda premisa como los
tiempos de elección de la repuesta son mayores que en la condición de
congruencia.
Por otra parte, cuando la persona ha de centrarse sólo en algunos de los
modelos posibles, quizá lo haga en función de la facilidad con la que pueden
construirse cada uno de ellos o de la rapidez con que llegan a la mente (lo que
recuerda el uso del H. de accesibilidad). También basándose en la Tª de los
modelos mentales se estudia la tendencia de las personas a centrarse en
algunos de los posibles modelos derivados de las premisas y, en muchas
ocasiones, en un solo modelo que vendría determinado por la información
explícita en las premisas; tendencia que explicaría algunos de los sesgos como
la insensibilidad a las prob. a priori o la insensibilidad a la capacidad predictiva
del dato.
Otra posibilidad es que las personas basen su respuesta en los modelos en los
que se da una similitud o una relación de causa-efecto entre la conclusión y
las premisas, lo que estaría estrechamente relacionado con el heurístico de
representatividad. De esta forma, factores como la facilidad de construcción,
la similitud o relaciones de causa-efecto, sustituirían a una estimación de la
frecuencia de cada tipo de modelos, favorables o contrarios a una conclusión.
La Teoría de los Modelos Mentales Probabilísticos (Gigerenzer, Hoffrage y
Kleinbölting, 1991) sostiene que si la persona dispone de suficiente
conocimiento para emitir un juicio, lo hará construyendo un Modelo Mental
Local que asociaría la estructura de la tarea con el conocimiento disponible.
Si este conocimiento no es suficiente, es preciso construir un marco de
inferencia, un Modelo Mental Probabilístico, que consta de una clase de
referencia, una variable sobre la que se emite el juicio y una red de claves de
probabilidad que generalmente covarían con la variable. Esta teoría se verá
con más detalle en el siguiente punto al tratar el sesgo de sobreconfianza.
Estos autores rechazan la asunción de irracionalidad de las personas, puesto
que consideran que las teorías estadísticas no pueden entenderse como
modelos normativos en los estudios sobre heurísticos, dado que los problemas
tratan de un solo caso mientras que la probabilidad también se aplica sobre
frecuencias o poblaciones. Cuando el problema se presenta como frecuencias,
en lugar de la prob. de un solo acontecimiento se encuentra que los sesgos de
razonamiento desaparecen o se atenúan significativamente, como por ejemplo
en la falacia de la conjunción y la insensibilidad a las prob. a priori .
Estos resultados subrayan la importancia que tiene el tipo de representación
de la información estadística para el cómputo.
Esta teoría sostiene que si la persona dispone de suficiente conocimiento para
emitir un juicio, lo hará construyendo un modelo mental local que asociaría
la estructura de la tarea con el conocimiento disponible. Si este conocimiento
no es suficiente, es preciso construir un marco de inferencia, un modelo
mental probabilístico, que consta de:
 - una clase de referencia; sobre la que se plantea el problema
 - una variable sobre la que se emite el juicio
 - y una red de claves de probabilidad que generalmente covarían con la
variable.
RAZONAMIENTO Y CALIBRACIÓN

La confianza del sujeto en el juicio emitido puede considerarse como un juicio


de 2º orden, en el que la persona evalúa su ignorancia o su certeza con
respecto a la respuesta emitida. Esta variable podría indicarnos una cierta
sensibilidad hacia lo que se considera una respuesta correcta en el caso de que
se asigne una confianza escasa a una respuesta sesgada.
La técnica con que suele estudiarse consiste en dar a los sujetos una serie de
preguntas con 2 alternativas y pedirles a continuación que asignen su confianza
en que la respuesta emitida ha sido correcta. Luego se analiza por una parte,
la media de respuestas correctas y, por otra la confianza media asignadas a
estas respuestas. La evidencia indica que las personas no están bien calibradas,
ya que señalan una confianza mayor de la que correspondería con su
precisión.
Interpretaciones para la persistencia del sesgo de sobreconfianza:
 - puede deberse a que las personas generan más argumentos a favor que
en contra de sus hipótesis
 - a la creencia de la fiabilidad de la propia memoria
 - a factores motivacionales como la ilusión de control
 - tipo de tarea, por ejemplo, los sujetos parecen mejor calibrados
cuando deben asignar el rango de resultados a los que se respondería
con certeza, que en la tarea habitual de asignar la confianza a un
resultado concreto.
Las posibles explicaciones sobre la presencia de este sesgo, en especial, la
explicación ofrecida por la Teoría de los Modelos Mentales Probabilísticos.
Con el fin de explicar el razonamiento probabilístico y especialmente los
resultados obtenidos sobre la calibración, Gigerenzer y et. proponen la Teoría
de los Modelos Mentales Probabilísticos.
Ejemplo: ¿ que ciudad tiene más habitantes? a) Heidelberg b) Bonn
¿cuál es tu confianza en que la respuesta emitida es correcta?
Si el sujeto no dispone del conocimiento suficiente construye un marco de
inferencia, el modelo mental probabilístico:
 1- una clase de referencia, en este caso "todas las ciudades de Alemania"
 2- una variable, "el número de habitantes"
 3- una red de claves de probabilidad, "tener un equipo de fútbol en la
Budesliga", "ser capital de una región", "etc.."
Cada una de estas claves de probabilidad tiene una validez. En la medida en
que la validez asignada a la persona se acerque a la objetiva, el modelo mental
probabilístico estará mejor o peor adaptado. La Teoría asume que las
personas basan su respuesta en una de las claves de probabilidad, la de más
alta validez, y que la confianza asignada a esta respuesta iguala la validez de
aquella clave.
Esta teoría también explicaría los errores observados en preguntas de
conocimiento general que tienen "trampa".
A partir de esta teoría puede explicarse el resultado obtenido por estos autores
al modificar el tipo de tarea presentada:
 - cuando se pregunta por la confianza en la respuesta, el modelo que la
persona está construyendo está referido a la situación concreta
planteada en la pregunta: las dos ciudades y la validez de las claves
utilizadas.
 - cuando se pregunta por la proporción de respuestas correctas que la
persona cree que ha emitido, el modelo estaría referido al total de
preguntas respondidas y las claves que se utilizarían serían, por ejemplo,
el propio rendimiento en tareas similares.
Sin embargo, no explica suficientemente otros de los fenómenos observados,
como que la sobreconfianza sea mayor en tareas difíciles o que se mantenga
también en aquellos casos en los que las preguntas se han tomado al azar, sin
pretender introducir ningún elemento engañoso.
Criticas: la teoría de los modelos mentales, no alude a la calibración. Desde
este enfoque, el sesgo de sobreconfianza podría deberse a que las personas
tendrían una necesidad de "satisfacción". Así:
 - seleccionarían aquellos modelos que conducen a conclusiones más
creíbles o deseables, donde la conclusión se aceptará sin buscar otros
modelos que puedan contradecirla.
 - cuando la conclusión extraída sea poco creíble, la persona seguirá
buscando modelos que permitan falsarla.
Esta sobreconfianza será mayor cuanto más difícil sea la tarea y, por tanto,
sean necesarios más modelos para llegar a una conclusión correcta. Partiendo
de que las personas se basan en unos pocos modelos, lo que aumenta en las
tareas difíciles es el número de modelos que se ignoran y, como consecuencia,
la prob. de llegar a una respuesta incorrecta manteniendo la misma confianza.

RAZONAMIENTO ANALÓGICO COMO SOLUCIÓN DE


PROBLEMAS

INTRODUCCIÓN AL RAZONAMIENTO ANALÓGICO

El razonamiento por analogía constituye un aspecto básico del pensamiento


humano y en este tema se analizarán los distintos marcos teóricos y
experimentales que han planteado su estudio como proceso para la solución
de problemas.
Razonamiento analógico: procedimiento cognitivo que se aplica a dominios
de conocimiento poco familiares o desconocidos basándose en situaciones
previas conocidas.
Holyoak y Koh lo definen como la generación de conocimiento aplicable a
un dominio nuevo por la transferencia del conocimiento de un dominio mejor
conocido.
Vosniadou lo entiende como la extrapolación de una estructura relacional
desde un dominio familiar a un dominio nuevo. Los dos dominios deben
compartir una estructura explicatoria similar (estructura representacional
común), aunque en otros aspectos sean diferentes.

TEORÍAS Y MODELOS DEL RAZONAMIENTO ANALÓGICO

En este punto se presentan las principales teorías y modelos sobre


razonamiento analógico, distinguiendo en primer lugar un enfoque cognitivo
característico de la tradición psicométrica y representado por la teoría
triárquica de Sternberg (1977; 1985), especialmente en la subteoría
componencial y más específicamente en los componentes de
actuación/rendimiento.
En una primera clasificación, se distinguen 2 grupos:
 1º Uno que recoge toda la tradición psicométrica desde principios de
siglo y en el que se estudia la analogía como razonamiento
proporcional en el formato clásico A:B::C:D. Este tipo de analogía ha
formad parte de la mayoría de pruebas y tests de inteligencia.
o Estas teorías no describen los procesos ni los mecanismos
subyacentes a este tipo de razonamiento. A partir de las teorías
del PI no importarán tanto las diferencias individuales ( de los
tests) y sí los procesos implicados en este tipo de razonamiento.
o Sternberg ha sido quién más impulso ha dado a este campo de
investigación al plantear su teoría componencial.
 2º Otro grupo de teorías que plantea el estudio de la analogía en
situaciones semejantes a las de la vida diaria. Se distinguen a su vez, 2
enfoques:
o - El sintáctico
o - El pragmático
Que se distinguen según el énfasis en las restricciones, aunque coinciden en
identificar los 2 procesos básicos de la transferencia analógica:
o 1. Recuperación del análogo de la MLP
o 2. Extrapolación o establecimiento de correspondencias entre
dominios
A continuación se presentan los enfoques cognitivos que han estudiado el
razonamiento analógico con tareas experimentales más próximas a las
situaciones de la vida cotidiana: enfoque sintáctico, enfoque pragmático y la
teoría del razonamiento analógico progresivo

EL ENFOQUE COGNITIVO DE TRADICIÓN PSICOMÉTRICA

Este enfoque se centra en el estudio del razonamiento analógico a través del


formato clásico A : B :: C : D, entendiendo la analogía como una
correspondencia de proporciones. Spearman trabajó con analogías del tipo
A:B::C:D.
Afirmó que en la analogía se encuentran los principios fundamentales del
conocimiento, que son:
 - la aprehensión de la experiencia o características de las situaciones
 - la educción de las relaciones entre las características de dichas
situaciones
 - la educción de correlatos o el descubrimiento de características
correlativas entre estas situaciones.
Otras teorías de la inteligencia relacionadas con el razonamiento analógico:
 - Thorndike: anticipa la teoría de Guilford
 - Thurstone: propone la teoría multifactorial de la inteligencia en la que
las analogías se utilizaron para validar dicha teoría
 - Guilford: estructura multifactorial de la inteligencia
 - Piaget: desarrollo intelectual
 - Catell: propone una analogía para medir su factor de habilidad fluida
 - Sternberg: es el que abre una nueva perspectiva al plantear la
identificación de los procesos que constituyen el razonamiento
analógico, el cual estudia a través del formato clásico A:B::C:D
(utilizado por la psicometría).
En la teoría de Sternberg, es importante comprender el concepto de
componente (unidad básica de análisis del procesamiento de la información),
sus propiedades (duración, dificultad y probabilidad de ejecución) y sus tipos
(metacomponentes, componentes de actuación y componentes de
adquisición de conocimiento).
Sternberg propone una teoría componencial de la inteligencia en la que se
especifican los procesos mentales que rigen el funcionamiento inteligente y en
concreto el razonamiento analógico. Forma parte de la teoría triárquica:
 - Teoría componencial
 - Teoría contextual
 - Teoría de la experiencia
LA TEORÍA COMPONENCIAL

La teoría componencial parte de que existen operaciones mentales básicas


(elementales) limitadas en número y duración, que ocurren de una manera
secuencial y midiendo los tiempos de respuesta se puede comprobar la
participación de dichas operaciones en tareas concretas.
Componente: Unidad básica de análisis del procesamiento de la información.
Es un proceso elemental de información que opera sobre representaciones
internas de objetos o símbolos. Cada componentes tiene 3 propiedades:
 1. Duración
 2. Dificultad
 3. Probabilidad de ejecución
Sternberg distingue 3 tipos de componentes:
1. Los metacomponentes:
Procesos ejecutivos de orden superior empleados en la planificación, control
y toma de decisión en la realización de la tarea.
Ayudan a entender las diferencias individuales de la inteligencia general. Son
actuaciones específicas de procedimientos de control denominados procesos
ejecutivos.
7 metacomponentes en el funcionamiento inteligente:
 1. Decisión de cuál es el problema que necesita ser resuelto.
 2. Selección de componentes de orden inferior para resolver la tarea
 3. Selección de una o más representaciones para la información
 4. Selección de una estrategia para combinar componentes de orden
inferior
 5. Decisión en cuanto a los recursos atencionales
 6. Control de la solución
 7. Sensibilidad a la retroalimentación externa
Dedicó especial atención a la comprensión de los componentes de actuación
ya que son los que intervienen en la emisión de la respuesta analógica.
2. Los "componentes de actuación":
Empleados en la realización de la tarea.
Los trabajos experimentales de Sternberg sobre razonamiento analógico se
centran en la identificación de estos componentes.
(Explicados después)
3. Los "componentes de adquisición de conocimiento":
Se emplean al aprender nueva información.
Los componentes de adquisición- retención y transferencia se emplean para
adquirir información nueva, recordar la existente y transferir lo aprendido a
otro contexto.
3 componentes esenciales:
 - La codificación selectiva
 - La combinación selectiva o integración de toda la información
 - La comparación selectiva
Analogía: jerarquía de relaciones en la que se da una relación de equivalencia
de orden superior (A-C) entre 2 relaciones de orden inferior (A-B).
El rendimiento en los problemas se explica por la combinación aditiva de
los componentes de actuación, (5 de los cuales son obligatorios), y son:
Identificación de atributos (codificación)
En el proceso de traducción, que implica la codificación, intervienen al menos
2 subcomponentes:
 1. Percepción inicial del estímulo
 2. El acceso a la MLP para poder interpretar el estímulo
Con la codificación se procede también al almacenamiento de la información
nueva.
Comparación de atributos
(inferencia, extrapolación, aplicación, comparación, justificación)
La inferencia es el 1er proceso, mediante el que se descubre una regla x que
relaciona los 2 primeros términos de la analogía, A:B.
La extrapolación enlaza el término A al C, descubriendo la regla y que es de
orden superior y establece una relación entre relaciones.
La aplicación de las inferencias a situaciones nuevas. Aplica x a y para generar
el último término de la serie, aplica A-C a C-D.
La comparación de las opciones de respuesta con el concepto extrapolad
(ideal).
La justificación es un proceso opcional mediante el que la respuesta elegida
se compara con el concepto ideal extrapolado para determinar si la opción de
respuesta se parece lo suficiente al concepto como para justificar su selección
como respuesta más correcta.
Componentes de control (respuesta)
El último proceso: respuesta, comunicándose mediante un acto visible.
Este enfoque está fundamentado en un importante cuerpo de trabajos
experimentales que han aportado numerosos hallazgos con respecto, por
ejemplo, a la comprensión del funcionamiento de los distintos componentes,
las relaciones entre el tiempo de ejecución de la tarea y el tipo y grado de
complejidad de la analogía, las relaciones entre el tiempo de latencia y la
exactitud de la respuesta, etc. Es importante que el alumno conozca cuáles
son los resultados y conclusiones principales de estos estudios.
Todos estos procesos identificados por Sternberg se han estudiado en tareas
con contenidos distintos:
- Analogías numéricas, esquemáticas, verbales, figuras geométricas e incluso
en tareas de razonamiento inductivo como completar series, en las
clasificaciones y en matrices.
En el modelo componencial:
 Sternberg: el tiempo de solución es la suma del tiempo empleado en
cada operación componencial.
 Mulholland, Pellegrino y Glaser: modelo para la verificación de una
analogía y encontraron que el tiempo necesario de ejecución era
función del tipo de analogía y del grado de complejidad del problema.
Complejidad: número de elementos y transformaciones que configuraban los
términos del problema.
González Labra: cada problema constituye una unidad de análisis distinta y se
ha de tratar según la configuración de sus variables.
Los que más errores comenten son también los más lentos.
El proceso de codificación es el que más tiempo consume: o sea que los
sujetos son bastante meticulosos en seleccionar los atributos de los términos
(consume mucho tiempo), pero repercute favorablemente en el tiempo de
procesamiento empleado en el resto de los componentes = cuanto más tiempo
se emplee en la codificación de los términos, tanto más rápido será el
procesamiento del resto del problema.
 El grado de semejanza está en relación con los atributos compartidos
por los problemas análogos.
 Los sujetos más inteligentes presentan mayor exactitud en los procesos
iniciales de codificación y posterior comparación de atributos.
 El proceso de extrapolación es el proceso esencial que permite
diferenciar los sujetos que fracasan de los que tienen éxito.
 El formato de presentación proporcional apoya al modelo
componencial, la cual ha representado un importante avance en la
comprensión del razonamiento analógico, aunque presenta
las limitaciones:
o - El formato proporcional presenta una falta de direccionalidad,
y en realidad el contexto impone una direccionalidad en la
comprensión de la analogía.
o - No representa como se especifica como se representan los
atributos (Sternberg dice que no es necesario). Asumen que los
términos se pueden almacenar en la memoria de trabajo como
una lista de pares de valores de atributos.
Para poder explicar el razonamiento analógico, además de los procesos
implicados, es necesario el tipo de representación sobre la que actúan estos
procesos, y los modelos de las analogías proporcionales prefieren la
especificidad delos procesos a costa de las generalidad.
Como críticas a este enfoque cabe señalar el formato de la tarea experimental
y la escasa incidencia de la teoría sobre la representación mental de los
términos y atributos de la analogía, aspectos que para otros enfoques y teorías
serán fundamentales.
EL ENFOQUE COGNITIVO SINTÁCTICO

Los enfoques que veremos a continuación estudian el razonamiento analógico


con tareas más cercanas a situaciones de la vida cotidiana. Según Gentner,
cuando se razona por analogía se produce una extrapolación sintáctica de la
estructura representacional del conocimiento desde el dominio fuente al
dominio objetivo. En esta estructura representacional es importante distinguir
entre objetos y predicados y dentro de los predicados, diferenciar los atributos
de las relaciones.
Los predicados se aplican sobre los objetos, y pueden ser atributos de esos
objetos o relaciones entre ellos.
Las reglas básicas que regulan el proceso de extrapolación son sintácticas y
son:
 - Partir de la extrapolación de los conceptos- objetos del dominio fuente
al dominio objetivo.
 - Continuar con la extrapolación de los predicados teniendo en cuenta
que los atributos de los objetos que dan fuera de esta extrapolación
mientras que sí se conservan las relaciones entre objetos.
 - Dar preferencia a las relaciones que formen un sistema coherente, de
orden superior y no a los meros hechos aislados (principio de
sistematicidad): es necesario conservar los sistemas de relaciones para
decidir cuáles son las relevantes.
Las analogías que se construyen con estos principios son más fáciles de
entender y usar y se juzgan como más aptas.
Se produce una extrapolación selectiva: no todas se extrapolan del a.fuente al
a.objetivo.
Un concepto relevante dentro de este enfoque es el principio de
sistematicidad según el cual se extrapolan sólo aquellas relaciones que forman
parte la estructura representacional superior, no atendiéndose a los atributos
o relaciones irrelevantes, es decir, la analogía se basa en la semejanza
estructural (representada por las relaciones) y no en la semejanza superficial
(representada por los atributos).
Esta teoría se basa en el principio de la sistematicidad: Se extrapolan sólo
aquellas relaciones que formen parte de una estructura de orden superior en
la que se encuentran mutuamente interconectadas, eliminando todas las
relaciones irrelevantes que se presentan aisladas. Secuencia de procesos:
 1. Emparejamientos literales de la semejanza (descripciones y
estructura relacional)
 2. Aceptación de analogías con solapamiento estructural (desechando
la solapación de atributos)
 3. Formación de reglas basadas en estructuras relacionales abstractas.
La analogía se basa en la semejanza estructural (correspondencia de
relaciones abstractas) más que en la semejanza superficial de atributos.
Existen trabajos experimentales que apoyan este enfoque teórico, aunque para
otros autores la teoría olvida aspectos importantes como el contexto en que se
produce el razonamiento o los propios planes del razonador. Gentner
entiende que estos aspectos pueden tener efectos antes o después del
razonamiento pero que la semejanza estructural, el principio de sistematicidad
y la extrapolación sintáctica son los que determinan su ejecución. Según este
punto de vista, los sujetos expertos serán quienes se beneficien más de la
analogía ya que los novatos se dejarán llevar por los atributos. Es importante
que el alumno se centre en los aspectos básicos de este modelo y en cómo la
autora intenta acomodar el contexto dentro de su teoría.
Gentner y Clement: los sujetos se centran sobre la información
relacional cuando tienen que pronunciarse sobre la interpretación de las
analogías, omitiendo las descripciones de los objetos, y dan prioridad a
los atributos cuando tienen que describirlos, aunque también hay que dan
cuenta de las relaciones.
O sea:
Información relacional-------- Interpretación de analogías
Atributos -------------------------Descripción de los objetos
Pero: Un modelo completo de la solución analógica debe tener en cuenta el
contexto del razonamiento, incluyendo los planes y objetivos del razonador.
Gentner: Sí acepta que sobre la analogía influyen las metas o planes de los
sujetos, pero no acepta que se deban construir en base o en torno a ellos (en
los planes influyen procesos de pensamiento que no son sólo pensamiento
analógico), y dice que se pueden organizar analogías independientemente del
contexto en que se desarrollen.
Así que es una nueva concepción de la teoría sintáctica:
Los planes y objetivos influyen sobre el pensamiento antes y después, pero no
durante la ejecución del proceso analógico; limitan la entrada de información
para el emparejamiento, pero una vez iniciado este proceso, dejan de tener
incidencia siendo posteriormente, en el proceso de evaluación del resultado
del procesamiento, cuando vuelven a considerarse.
Resumen de esta nueva formulación de Gentner:
Tanto las propiedades estructurales como las consideraciones pragmático-
contextuales influyen en la solución analógica de problemas, pero la influencia
pragmática no es comparable ni equivalente al peso de las propiedades
sintácticas, ya que existen unos procesos básicos y comunes en toda analogía
que son independientes del contexto y se repiten ante cualquier contexto
pragmático. Da más importancia al criterio estructural en el emparejamiento
de relaciones, y puede así explicar emparejamientos no esperados o contrarios
a los fines del razonador, no depende de los planes de éste sino que está
abierto a la comprensión y entendimiento de nuevos descubrimientos.
Los sujetos expertos (no los novatos) lograrán mayores beneficios del
aprendizaje práctico. Los novatos se dejarán llevar más por las características
superficiales, no aplican el principio de sistematicidad (estructura de
relaciones entre los problemas). Pero: esta teoría no analiza los efectos de la
experiencia o la relevancia del material presentado en relación con el contexto
de razonamiento en el que se desarrolla la analogía.

EL ENFOQUE PRAGMÁTICO

Los esquemas de razonamiento pragmático.


Para este enfoque, planteado por Holyoak (1984), las metas y planes del
razonador (principio pragmático) determinan el proceso de transferencia
analógica, restándole importancia a los aspectos sintácticos. Durante el
proceso de transferencia analógica se produce un emparejamiento entre el
problema análogo y problema objetivo en sus aspectos estructurales y
superficiales según una restricción impuesta por los planes del razonador.
Sostiene que el proceso de transferencia analógica está determinado por las
metas del razonador y el principio de restricción en la transferencia analógica
será pragmático y no sintáctico.
Los procesos de recuperación del análogo previo y su transferencia
dependerán tanto de las reglas sincrónicas (específicas de la situación) como
de las reglas diacrónicas (de las reglas de este tipo de razonamiento).
Los principios estructurales desempeñan un papel secundario en la
transferencia analógica, afirmando que el emparejamiento está determinado
por la importancia de sus predicados (atributos y relaciones) en estrecha
relación con los fines u objetivos del sujeto.
Esta teoría, como modelo para la solución de problemas, entiende que los
dominios se representan, en un nivel abstracto, según un
esquema (organizado jerárquicamente) que consta de:
 - estado inicial: sus componentes se relacionan causalmente con el plan
de solución.
 - plan de solución
 - resultados
Consta de relaciones verticales o cadenas causales y de correspondencias
horizontales.
La meta es el motivo, posibilitado por los recursos, y las restricciones impiden
otros planes de solución alternativos.
En esta teoría se distinguen 5 procesos:
1. Construcción de representaciones mentales:
Se construyen representaciones mentales del dominio análogo y del dominio
objetivo mediante codificación, paso crucial para determinar el análogo fuente
potencial y es el inicio de la categorización básica y de la búsqueda para lograr
el objetivo.
2. Selección del análogo relevante:
Es la selección del problema fuente como un análogo potencialmente
relevante para el problema objetivo. Es el 1er paso en el uso de la analogía
por sí misma, pudiendo identificarse mediante 2 procedimientos básicos:
 - la transformación del problema objetivo
 - la recuperación de una situación relacionada y almacenada en la
memoria.
Modelo para explicar este proceso: "suma de la activación": la recuperación de
un análogo está en función de las características compartidas por los
problemas, y el análogo más útil es aquel que comparte con el problema
objetivo las propiedades de los fines del problema, los conceptos. La
activación de los las características se sumará hasta conseguir un umbral
determinado en una de las representaciones almacenadas, que es cuando
estarán disponibles para su procesamiento.
3. Extrapolación de relaciones:
La extrapolación de los componentes de la representación del dominio fuente
al dominio objetivo.
Se hace en 2 fases:
 - Extrapolación parcial entre algunos de los componentes del estado
inicial de ambos problemas
 - Extrapolación de correspondencias entre los elementos que
componen las metas, los recursos
y los operadores.
4. Generación de reglas de solución:
Es la extensión de la extrapolación a la generación de reglas que se puedan
aplicar al objetivo para el logro de una solución gracias a la transferencia de
conocimiento al dominio objetivo para generar estas nuevas reglas.
5. Inducción de nuevos esquemas representacionales:
Si la analogía conduce a una solución correcta, se puede producir este proceso
de inducción de un esquema a partir de unos análogos .
Implica la abstracción de los aspectos comunes entre estados iniciales, planes
de solución y resultados de los distintos análogos. Puede interpretarse como
el proceso de la transferencia analógica, siendo el que mejor contribuye al
éxito de la transferencia desde dominios remotos.
Holland (igual que Gentner): el proceso de recuperación debe estar guiado
por características estructurales, de forma que sólo se recuperen situaciones
relevantes. (si la recuperación se hace por características superficiales se
pueden recuperar situaciones semejantes pero irrelevantes , una transferencia
negativa y solución incorrecta). En situaciones poco familiares a los sujetos nos
resulta difícil distinguir entre ambos tipos de claves (superficiales y
estructurales) y en realidad nos podrían influir ambas.
Esta teoría considera que los aspectos básicos del razonamiento
analógico para la solución de problemas son:
 * El principio que regula la semejanza entre los problemas (fuente y
objetivo) es pragmático, son las metas del sujeto.
 * Las características superficiales y estructurales intervienen en el
proceso de recuperación y en el de extrapolación aunque las
superficiales inciden más en el proceso de recuperación.
 * La meta es el criterio esencial para la selección de las características
compartidas.
 * La analogía se puede establecer a partir de los conceptos, de la
estructura relacional y de los atributos de los objetos, teniendo presente
el contexto.
 * La solución de un problema es el aprendizaje de una regla
general(esquema).

TEORÍA DEL RAZONAMIENTO ANALÓGICO PROGRESIVO

Esta teoría fue propuesta por Keane (1985; 1990) para conciliar los dos
enfoques anteriores (sintáctico y pragmático). Según este autor, el papel que
desempeñan las características superficiales es importante siempre y cuando
se trate de atributos funcionalmente relevantes (FRA).
Winston: una teoría computacional en la que decía que si el emparejamiento
entre objetos de ambos dominios no se encuentra basado en algún principio,
las permutaciones potenciales serán enormes.
Esta teoría fue formulada por Keane, que señala que las teorías sobre
razonamiento analógico no tienen en cuenta el proceso inicial de
identificación de objetos paralelos entre 2 dominios de conocimiento. 3 tipos
de categorías de información para la explicación del proceso de identificación:
 - Papel que el concepto objeto juega en el dominio
 - Algún solapamiento de atributos entre objetos paralelos de ambos
dominios
 - La información de atributos funcionalmente relevantes.
Y considera que para lograr un nivel óptimo de abstracción sin sobrecargar la
memoria de trabajo, es más probable que:
 - La extrapolación inicial ocurra en el nivel más abstracto (esquema), y
sirva para identificar las proposiciones de solución del problema.
 - Que se pueda acceder a las proposiciones de solución usando
directamente el conocimiento sobre la organización del problema en la
memoria.
Según esta teoría, después de identificar las proposiciones de solución del
dominio base, se propone que éstas interactúan con los objetivos del
problema. Los pasos concretos son:
 1. Orientación de los fines
 2. Identificación de los objetivos del dominio base
 3. Realizar una transferencia relacional desde el dominio base. La
orientación del objetivo determina la manera de identificar los objetos
críticos y el atributo funcionalmente relevante (FRA) de los objetos
para proporcionar una orientación a la transferencia de predicados
relacionales.
 4. Evaluación de fines u objetivos y subobjetivos
 5. Elaboración de la respuesta más adecuada
Keane reformula sus planteamientos con su teoría de la analogía paso a paso
o analogía progresiva:
Analogía: Es encontrar y establecer ciertas correspondencias entre objetos y
relaciones del dominio fuente y el dominio objetivo para posteriormente
transferir información entre esos dominios y así poder llegar a solucionar el
problema, teniendo en cuenta las restricciones:
Las 2 primeras las aporta esta teoría como nuevas.
 - Restricción de la memoria de trabajo
o La cantidad de razonamiento que la memoria de trabajo puede
mantener durante el razonamiento analógico es limitada.
o Esta restricción incorpora los límites en la capacidad de
información que se puede manejar cuando se razona y así se
podrían explicar algunos de los fracasos que cometemos para
extraer analogías correctas.
 - Restricción de control
o El emparejamiento entre los 2 dominios y la transferencia se
hace de forma gradual, pudiendo variar la cantidad de elementos
que son procesados. La extrapolación se lleva a cabo mediante
un modelo paso a paso.
o Esta restricción explica que la analogía se lleva a cabo por
incrementos graduales paso a paso, y esto la diferencia de las
otras en las que el proceso entre los 2 dominios (vistos como
entradas de información), ocurría de una vez. Keane desmenuza
los dominios en unidades más pequeñas para poder ser
extrapoladas (así complementa a la restricción anterior).
 - Restricción de la verificación
o La transferencia de elementos tiene que verificarse para
determinar si son apropiados para ser aplicados al dominio
objetivo. Si no fuese apropiada hay que abandonar esta
extrapolación para no realizar inferencias incorrectas.
o Se puede hacer por el conocimiento previo que está en la MLP.
 - Restricción de la semejanza
o En el emparejamiento se prefieren elementos idénticos o
semánticamente semejantes frente a los desemejantes.
 - Restricción pragmática
o Se seleccionan aquellas partes del dominio base y del dominio
objetivo que se interpretan como importantes para ser
extrapoladas, en función de los objetivos o fines de los sujetos.
 - Restricción estructural.
o Refuerza la idea del isomorfismo entre los dominios como la
mejor relación estructural, desarrollándose una extrapolación
uno a uno entre los 2 dominios, aunque también pueden darse
emparejamientos de diferentes tipos de relaciones entre esos
dominios.
Determinados hallazgos experimentales inciden en ratificar el punto de vista
de Keane al afirmar que lo importante al construir análogos es eliminar las
proposiciones que sean innecesarias por irrelevantes y se incida en aquellos
objetos y relaciones que sean críticos para la solución del problema
Esta teoría comparte las restricciones estructurales con la teoría del
razonamiento pragmático y la de la extrapolación estructural (enfoque
sintáctico de Gentner, aunque no se expresa en términos de restricciones).
Lo que se incorpora a la memoria de trabajo:
 - Si es un emparejamiento entre elementos, entonces se evalúa.
 - Si es una transferencia, entonces se verifica. Este es el proceso esencial
para que se produzca aprendizaje de un dominio conocido a otro
nuevo. No se transfieren simples relaciones sino más bien cadenas de
relaciones.
Keane demuestra que existe una mayor dificultad para la recuperación de
análogos semánticamente remotos frente a los análogos más literales. Esto
puede relacionarse con lo propuesto por Schank: recuerdo a través del
contexto: el recuerdo está mediatizado por estructuras organizadas llamadas
"tópicos de organización temática" TOPS: representan información abstracta
independiente del dominio que coordinan y enfatizan el nivel abstracto de una
combinación de episodios.
La recuperación de análogos se concreta en:
 - Identificación de los objetivos que se persiguen en la historia análoga
y el problema. La consecución de uno impide la del otro, lo que
conlleva a que se generen rasgos de bajo nivel.
 - Generación de 2 tipos de rasgos a través de la especificación, los
objetivos y los objetos meta del TOP.
 - Los procesos de búsqueda tienden a emparejar los rasgos con los
objetivos y los objetos de manera que aquellos rasgos que tienen éxito
en el encuentro constituyen los índices.
 - Los procesos de búsqueda son relativamente inflexibles de manera
que los rasgos de objetivos sólo pueden ser emparejados con objetivos
idénticos o semánticamente parecidos, sucediendo lo mismo son los
rasgos de los objetos.
Extrapolación: relativamente flexible y tiene en cuenta la correspondencia
semántica detallada entre el problema y el análogo.
Recuperación: menos flexible y no tiene en cuenta estas correspondencias
detalladas.
De esta manera se podría homologar el funcionamiento de la recuperación
analógica de
Keane con la extrapolación estructural de Gentner con respecto a su rigidez.
Índices: Las características que se relacionen con éxito.
Keane, en contra de Gick y Holyoak, dice que se puede acceder directamente
a las proposiciones de solución usando un conocimiento esquemático.
Esta hipótesis del acceso directo está apoyada experimentalmente. Los sujetos
pueden identificar y usar soluciones proporcionadas de análogos previos,
como ayuda de resolver un problema propuesto. La aportación de una
solución análoga es suficiente para la generación de una solución convergente,
sin necesidad de aportar todo el análogo entero, aunque sigue siendo esto lo
preferible para lograr mayor solución.
El acceso directo indica que no tenemos que construir análogos que
contengan proposiciones innecesarias sino que hagan hincapié en los objetos
críticos y sus relaciones (según Keane).
Keane también demostró que los atributos funcionalmente relevantes (FRAs):
 - son críticos para el éxito en la generación de la solución debido a que
facilitan la identificación de la solución crítica correcta.
 - influyen significativamente en los procesos de extrapolación,
pudiendo considerarse también un factor importante en la transferencia
relacional.
(Aunque hay muchos casos de fracaso en la identificación del análogo a pesar
de la presencia de FRAs.)
Keane da un paso cualitativo al ampliar e integrar las restricciones propuestas
por las anteriores teorías. Pero sus restricciones son:
 - Restricciones pragmáticas
 - La verificación merece mayor análisis.
En general los problemas no son isomórficos : objetos de un dominio con
correspondencia en el otro.
Gick y Holyoak presentan una teoría de solución de problemas.
Keane (modelo TOP) parte de una teoría de la comprensión y de la memoria.
Es más completo ya que especifica las condiciones bajo las que se recupera el
análogo y también bajo las que no se recupera.
Modelo sintáctico: Los análogos se recuperan en función de las características
superficiales compartidas.
Modelo pragmático: Los análogos se recuperan en función de las
características superficiales y estructurales.
En la recuperación Keane admite que los 2 modelos pueden ser válidos bajo
las condiciones:
 1. Hipótesis de las características superficiales y estructurales:
o - cuando ambos dominios puedan catalogarse como casos
específicos de una estructura supraordenada
o - cuando el dominio base está organizado en memoria con
relación a la misma estructura supraordenada
o - cuando la estrategia de recuperación que se requiere participa
de la estructura conceptual de ambos dominios
 2. Hipótesis de las claves superficiales:
o - cuando el problema objetivo no se puede catalogar como caso
particular de una estructura supraordenada
o - cuando se desconoce total o parcialmente la naturaleza exacta
dela semejanza existente entre los dominios

CARACTERIZACIÓN DE LA TRANSFERENCIA ANALÓGICA

El grado de certidumbre de las conclusiones que son extrapoladas varía en


función de la naturaleza de las relaciones entre los 2 dominios.
En el extremo de un isomorfismo total, el razonamiento conducirá a una
solución correcta.
En el extremo de un isomorfismo muy parcial, es fácil desembocar en
soluciones erróneas.
Esta vulnerabilidad del razonamiento analógico conduce a que se considere
como un procedimiento heurístico en tanto que busca hipótesis para avanzar
hacia la solución, pudiendo diferenciarse:
Trasferencia positiva: aquella que conduce a una solución correcta del
problema.
Transferencia negativa: la que conduce a soluciones erróneas.

TRANSFERENCIA ANALÓGICA POSITIVA

Este tipo de transferencia se produce cuando el análogo presentado genera


una respuesta correcta al problema objetivo, existiendo una estrecha relación
entre la variable semejanza y dicha transferencia positiva.
Existe una estrecha relación entre semejanza y transferencia.
Semejanza: comunalidad existente entre 2 situaciones, pudiendo distinguirse:
 · la semejanza superficial: si los rasgos no son relevantes causalmente.
Puede facilitar la recuperación espontánea o inducir a situaciones de
interferencia y provocar la transferencia negativa.
 · la semejanza estructural: si los rasgos que componen las situaciones
problemáticas son relevantes causalmente para la solución del objetivo.
No queda claro si ambos tipos de semejanza presentan efectos diferentes
sobre los procesos de recuperación y extrapolación.
Según Holyoak y Koh, Keane y Ross entienden que ambos tipos de
semejanza intervienen en la recuperación espontánea, aunque:
 · los rasgos estructurales influyen más en la extrapolación, mientras que
 · los superficiales con básicos en la recuperación (excepto cuando no
están integrados en la estructura del problema, lo que posibilita una
interacción constante entre superficialidad y estructuralidad).
El paradigma básico para el estudio del razonamiento analógico propuesto
por Gick y Holyoak consiste en:
 · Diseño de una situación experimental o fase 1: sin pistas, en la que los
sujetos leen una historia previa y proceden a resolver el problema
objetivo.
Fracaso de la recuperación espontánea del análogo relevante
independientemente de la semejanza compartida, aunque el fracaso es mayor
si se comparte sólo la de tipo estructural.
 Fase 2: con pistas, en la que los sujetos emiten su respuesta al ser
informados de la posible relevancia de la historia análoga recibida.
En las tareas de solución de problemas por insight, los sujetos también
muestran grandes dificultades para recuperar información relevante,
precisando recibir información explícita.
Holyoak y Koh: La superficialidad afecta a la extrapolación aunque menos
que la estructuralidad.
Keane mostró que la recuperación de análogos previos,
semánticamente remotosmás difícil que la de los análogos más
próximos semánticamente ( en una analogía literal se establece una
extrapolación entre ambos dominios, existiendo un solapamiento entre las
relaciones y los atributos). Keaneà en el proceso de extrapolación no influye
la superficialidad compartida.
De la Fuente: existe una mayor probabilidad de recuperación espontánea
cuando los análogos comparten elementos superficiales, aunque esto no
influye en la extrapolación; el efecto de las características superficiales queda
reducido a hacer más rápido el proceso.
La superficialidad permite ahorrar tiempo en la extrapolación.
Gentner y Landers:
 la recuperación está influida por la semejanza superficial y sólo
débilmente por la estructural,
 la extrapolación por la semejanza estructural (ej. los rasgos funcionales,
relaciones sitemáticas o relaciones causales), incluyendo la
sistematicidad compartida, y se encuentre poco afectado por la
semejanza superficial.
O sea: No atribuyen efectos significativos de la superficialidad sobre la
extrapolación.
Ross:
La semejanza superficial tiene una importancia extrema en el proceso de
recuperación y evocación de análogos.
La transferencia es significativamente mayor cuando los sujetos recibían dos
análogos previos para resolver el problema que cuando recibían uno solo.
Esto se debe a la inducción de esquemas representacionales en función de la
experiencia con las 2 historias análogas. Los esquemas son categorías
abstractas y la recuperación del análogo se producen función de una
semejanza abstracta más próxima a la estructural.
Sierra: el contexto semántico y el número de análogos son 2 factores
relevantes para explicar la formación y transferencia de esquemas, ya que
representan y permiten la recuperación del conocimiento. Un determinado
tipo de superficialidad puede afectar a la

TRANSFERENCIA ANALÓGICA NEGATIVA

Este efecto se produce cuando se plantea una solución analógica errónea


debido a que el análogo que se presenta comparte solamente la semejanza
superficial.
Sucede cuando la solución al problema es errónea porque se han recuperado
y extrapolado aspectos irrelevantes.
Procedimiento experimental para analizarla: presentar un problema análogo
junto con un problema pseudoanálogo-distractor previo que sólo comparte
semejanza superficial con el problema objetivo, induciendo a soluciones
erróneas.
De la Fuente: estudiaron los efectos de la semejanza superficial sobre la tr.
negativa y hallaron:
 - En la fase 1 (antes de la pista) no hay efectos de transferencia negativa,
ya que no hay diferencias en cuanto a los porcentajes de recuperación.
 - En la fase 2 (después de la pista) sí hubo tr. negativa pasando de un
39% al 63,4%.
Recientemente señala la relatividad del efecto de las características
superficiales sobre la transferencia
Las características superficiales influye en la transf. negativa dependiendo del
lugar que ocupe en la estructura del problema. Un mismo grado de semejanza
superficial global (el mismo nº de elementos compartidos, el mismo nº de
veces repetido) provoca distintos niveles de influencia negativa.
La transf. negativa:
 - es mayor cuando la superficialidad se comparte en el estado inicial del
problema
 - es menor cuando se comparte los objetivos
 - no es significativa cuando no esta relacionado con la estructura
(resultando que el estado inicial con sus elementos integrantes son los
determinantes en el proceso de recuperación y extrapolación )
Su conclusión es que estamos ante una concepción interactiva de la dicotomía
superficialidad/ estructuralidad frente a otras interpretaciones sumativas.
La transferencia negativa también se ha estudiado según el nivel de
experiencia.
Novick: si los 2 dominios comparten rasgos superficiales y estructurales, se
observará una transferencia espontánea positiva independientemente de la
experiencia (como se muestra en varios autores vistos), ya que si los sujetos
que participaron eran novatos y lograron la transferencia espontánea se puede
suponer que los expertos también la alcanzarán.
Existe una estrecha relación entre: experiencia, semejanza y transferencia
analógica positiva y negativa
Según Novick: - si los 2 dominios comparten rasgos superficiales y
estructurales, se observará una transferencia espontánea positiva
independientemente de la experiencia (como se muestra en varios autores
vistos), cuando los dominios solo comparten rasgos estructurales, es de
esperar mas transferencia espontanea positiva para los
expertos superficiales (análogo distractor), la transferencia espontanea
negativa será mayor para los novato
Resultados: La transferencia negativa era igual en expertos que en novatos.
Esto puede deberse a que tanto unos como otros están sesgados ya que el
procedimiento usado en el problema distractor era el mismo que el usado en
el problema objetivo. Esto podría anular el efecto de la experiencia.
En otro experimento encontró que:
 - se daba transferencia positiva para los expertos y no para los novatos
 - la transferencia negativa espontánea se observó en todos los niveles de
experiencia, aunque menos acentuada en los expertos
O sea:
 transferencia positiva: expertos
 transferencia negativa : novatos
Lenguaje
CONCEPTO DE LENGUAJE

INTRODUCCIÓN AL CONCEPTO DE LENGUAJE

El lenguaje aparece de modo natural alrededor del primer año de la vida y, a


partir de entonces interviene en la mayoría de nuestras actividades sin que su
adquisición ni su uso parezcan requerir un esfuerzo especial.
A veces, reclama una cierta atención: cuando tratamos de aprender un
segundo idioma o cuando un mensaje nos resulta ambiguo o difícil de
comprender.
En estas ocasiones nos asombra la complejidad y la dificultad efectiva de la
actividad lingüística.
Concepto de lenguaje.
El término "lenguaje" es un término polisémico y ambiguo. Los límites de su
definición vulgar son borrosos e imprecisos. La multiplicidad y variedad de
sus usos sugiere la posibilidad de que el término "lenguaje" remita a una
función que puede ser analizada desde muy diferentes perspectivas, en
relación con muy diferentes tipos de organismos, y por referencia a
dimensiones de análisis de muy diversa naturaleza.
Estudio del lenguaje.
El estudio del lenguaje suele ser considerado un cometido importante de la
psicología científica en la medida en que probablemente forma parte del
diseño genético de nuestra especie y contiene rasgos y propiedades que nos
acercan y diferencias a la vez de otras especies y organismos. El estudio del
lenguaje constituye una tarea compleja que interesa también a otras disciplinas
como la biología, la lingüística, la filosofía, la sociología, la informática, la
semiótica, las ciencias médicas y otras muchas.

LA CONCEPTUALIZACIÓN CIENTÍFICA DEL LENGUAJE

Regularidades que aparecen en todas las definiciones de lenguaje:


 a) El hecho de que el lenguaje puede interpretarse como sistema
compuesto por unidades - los signos lingüísticos - cuya organización
interna puede ser objeto de una descripción estructural o formal
 b) El hecho de que la adquisición y uso de un lenguaje por parte de los
organismos posibilita en éstos formas peculiares y especificas de
relación y acción sobre el medio (especialmente sobre el medio social).
 c) El hecho de que el lenguaje se materializa en, y da lugar a, formas
concretas de conducta, lo que permite interpretarlo, también, como
una modalidad o tipo de comportamiento.
Así pues, las tres dimensiones o componentes de definición más comunes
son:
 · La dimensión formal o estructural cuyo estudio estaría directamente
vinculado a la necesidad de conocer y dar cuenta de "cómo es" el
sistema lingüístico en sí mismo.
 · La dimensión funcional que permitiría dar cuenta de "para qué
sirve" el lenguaje a los usuarios.
 · La dimensión comportamental que daría cuenta del "cómo se
utiliza" el leguaje cuando se producen y comprenden los mensajes
comunicativos.

LA DIMENSIÓN ESTRUCTURAL DEL LENGUAJE

Desde una perspectiva semiótica el lenguaje puede ser interpretado, en primer


lugar, como un sistema de elementos (señales, signos, o símbolos) que resultan
relevante para el organismo porque remiten a objetos o aspectos de la realidad
distintos de ellos mismos, es decir, que indican o se refieren a elementos de
la realidad física o mental a los que dice que representan.
Gracias a esta capacidad de representación los signos lingüísticos poseen o
adquieren la capacidad de modificar e influir sobre ciertos aspectos del
comportamiento de los organismos.
Todo lenguaje presupone la existencia de signos. Los signos individuales
pueden existir y ser funcionales para un organismo sin que ello implique
necesariamente la existencia de un lenguaje o un conocimiento lingüístico
propiamente dicho.
Hablar de lenguaje implica siempre hablar de la existencia de un conjunto de
signos. Estos signos, pueden ser descritos individualmente, pero, al mismo
tiempo pueden ser descritos en tanto que forman parte de un sistema que
tiene una cierta organización interna.
El lenguaje puede ser objeto de descripciones semánticas, pero también
puede ser objeto de descripciones sintácticas y pragmáticas que especifique
respectivamente las condiciones en que las combinaciones de signos y sus usos
son aceptables. La construcción de estos tres tipos de principios constituye
uno de los cometidos esenciales de la perspectiva filológica o lingüística en el
estudio del lenguaje.
Desde esta perspectiva, el lenguaje se interpreta esencialmente como un
código, es decir, como un conjunto estructura de signos y de condiciones
formales de combinación de los signos. La ausencia, en un sistema de
comunicación dado, de un código formal bien definido, que pueda ser
descrito en términos de unidades y reglas o restricciones fijas, impide su
consideración como lenguaje en un sentido estricto.
La aclaración de las diferencias entre los sistemas de signos humanos y no
humanos ha desempeñado un papel crucial para la búsqueda tanto de las
claves de diferenciación filogenética de la especie humana, como de la
explicación de los distintos tipos de mente y de conducta en sí misma. Además
ha permitido definir las características formales de los signos (naturaleza y
estructura interna, su construcción y evolución genética, sus regularidades,
paralelismo y diferencias) y las condiciones o capacidades de los organismos
que adquieren y usan naturalmente los sistemas de signos.
El lenguaje por el hecho de estar compuesto por signo, presupone una cierta
capacidad para establecer correspondencias entre significantes y significados.
El lenguaje no es la suma de los signos individuales que lo componen. Debe
ser interpretado como un objeto derivado de la observación de ciertos tipos
de fenómenos pero nunca como un objeto físicamente real. Por tanto, cuando
afirmamos que un organismo vivo pose y utiliza un lenguaje lo que estamos
indicando en que esos organismos tienen la capacidad para relacionar y
relacionarse con los fenómenos del mundo físico de un modo
cualitativamente distinto.
El concepto de facultad lingüística indica la capacidad de un organismo vivo
para adquirir y utilizar un código o forma de conocimiento lingüístico en
alguna modalidad.

LA DIMENSIÓN FUNCIONAL DEL LENGUAJE

La adquisición y desarrollo del lenguaje va ligado a la realización de


actividades tales como la comunicación y la interacción social, la expresión
emocional, el conocimiento de la realidad y también, en la especie humana, a
la conducta voluntaria y el pensamiento racional, entre otras.
Según Bühler cabe interpretar el lenguaje y los signos individuales que lo
componen como un instrumento (el organón de Aristóteles), que esta
funcionalmente ligado a distintas esferas de la actividad de los sujetos y que
pone en relación al emisor tanto con uno varios receptores como con aquel
aspecto de la realidad al que se refieren los signos.
La toma en consideración de la dimensión funcional del leguaje obliga a
desplazar la atención desde el lenguaje en sí mismo hacia el usuario que
conoce y usa este lenguaje en sus intercambios comunicativos o en sus
relaciones generales con el medio.
Desde una perspectiva psicológica de estudio del lenguaje, el análisis de la
naturaleza y génesis de las distintas funciones del lenguaje, por un lado y el
estudio minucioso de la relación genética existente entre las peculiaridades
estructurales de los sistemas lingüísticos y su potencialidad funcional, ha
permitido profundizar en el estudio de las potencialidades intelectuales y
sociales de la especie humana, en el de sus semejanzas y diferencias con otras
especies y el papel que desempeña el lenguaje en la construcción filo y
onotogenética de estas capacidades.

LA DIMENSIÓN COMPORTAMENTAL

Hablar científicamente del lenguaje implica considerarlo como un tipo de


conducta de actividad o comportamiento. Dicha conducta o comportamiento
es aquel que realizan el emisor y receptor cuando, respectivamente, codifican
y producen, o reciben, decodifican e interpretan mensajes lingüísticos. Como
conducta, el lenguaje adopta dos modalidades primarias o básicas,
la produccióny la comprensión. Estas dos modalidades, en última instancia,
se realizan de forma simultánea y combinada durante la conversación.
La producción y la compresión del lenguaje pueden ser descritas y explicadas
por los científicos en muy diferentes planos:
Plano Neurofisiológico:
Identificación de las estructuras neuroanatómicas y fisiológicas que participan
en la producción y la compresión de las señales lingüísticas.
Plano Conductual:
Da cuenta de los antecedentes de las situaciones, los tipos de respuesta y las
consecuencias inmediatas o mediatas de la actividad lingüística.
Plano Cognitivo:
Centrado en las representaciones y procesos internos que subyacen a estas dos
modalidades del comportamiento.
Perspectiva psicológica de la investigación del lenguaje:
El supuesto de que la actividad lingüística implica mecanismos y regularidades
cuya explicación no puede reducirse a descripciones neurofisiológicas junto
con el interés por el estudio de las funciones expresiva, cognitiva o sociales a
las que el lenguaje sirve de soporte caracterizan diferencialmente esta
perspectiva. La interpretación del lenguaje como una forma de conducta nos
remite de nuevo al análisis y al estudio del sujeto usuario del lenguaje (el
agente).
Nuestro sujeto conoce desde una perspectiva formal, un cierto sistema de
signos o símbolos como consecuencia de un dispositivo genético particular y/o
de un proceso de aprendizaje en la interacción con otros miembros de su
misma especie, y, a través de este sistema, puede completar y desarrollar un
cierto repertorio de acciones y respuestas sobre el medio (perspectiva
funcional). Lo que tenderemos que analizar ahora, si realmente queremos
explicar cómo es y cómo opera el lenguaje en los distintos tipos de
organismos, en cómo usa efectivamente nuestro sujeto el lenguaje.
Perspectiva comparada:
Tratamos de ver hasta que punto la simple observación y comparación de
cómo adquieren y usan el lenguaje otras especies permite aventurar
conclusiones sobre la naturaleza exacta o las propiedades básicas del
fenómeno que queremos estudiar en nuestra especie.

LENGUAJE HUMANO Y OTROS LENGUAJES

Las dimensiones formal, funcional y comportamental permiten acotar y


precisar de forma sustancial el concepto de lenguaje, restringiendo el uso de
este término a los sistemas de expresión, representación y comunicación que
se basan en un sistema de signos y reglas formalmente bien defino y cuya
utilización por un organismo implica una modalidad particular de
comportamiento.
Planteado en estos términos, el concepto de lenguaje puede ser diferenciado
del de funciones que le son muy próximas aunque más generales, como, por
ejemplo, la función de comunicación o como la función de representación del
conocimiento. Al mismo tiempo, las tres dimensiones comentadas nos
permiten diferenciar el concepto de lenguaje de otros conceptos más
restringidos o específicos con los que también se le suele asociar en las
definiciones vulgares, como el concepto de habla.
Aun así, nuestro concepto de lenguaje resulta todavía extremadamente
amplio. En él encajan perfectamente bien, por ejemplo, leguajes humanos
naturales de carácter oral y no oral, lenguajes artificiales, sistemas de
comunicación animal e incluso sistemas artificiales de comunicación.
Desde el punto de vista del estudio y la rehabilitación de las perturbaciones
del lenguaje, una definición tan amplia presenta ciertas ventajas (p.ej. permite
afirmar que el desarrollo y ejercicio de funciones psicológicas básicas como la
comunicación o el conocimiento de la realidad se asientan en un soporte
lingüístico que no tiene por que ser necesariamente oral). En la misma
medida, una definición tan amplia permite estructurar sistemas de
intervención para con estos sujetos basados en el aprendizaje de sistemas
lingüísticos alternativos a aquellos en cuyo uso el sujeto tiene dificultades.
La tarea prioritaria a la que debe orientarse la investigación psicológica será la
de intentar dar cuenta de la génesis y la utilización de la modalidad de lenguaje
más universal y genuina de nuestra especie: el lenguaje oral.
CARACTERÍSTICAS ESTRUCTURALES DEL LENGUAJE VERBAL

El lenguaje verbal presenta numerosos rasgos distintivos.


Arbitrariedad de sus unidades y estructuras: falta de relación directa (natural
y/o analógica) entre los signos que componen el sistema lingüístico y sus
referentes.
Independencia casi absoluta de las reglas y principios gramaticales respecto de
las funciones sociales cognitivas que desempeñan las formas lingüísticas.
Cada comunidad social o cultural dispone de un sistema convencional de
signos, así como de las reglas gramaticales por las que se rige su combinación
y uso. Ello da lugar a concreciones culturales distintas del lenguaje a las que
llamamos lenguas. Estas constituyen casos o manifestaciones particulares del
lenguaje cuyas unidades y gramática concretas, al ser arbitrarias, debe ser
aprendidas por hablantes en el marco de las interacciones que mantengan con
otros hablantes de su comunidad lingüística o cultura.
Por eso Hockett señala también como rasgo característico del lenguaje
humano el rasgo llamado rasgo de transmisión por tradición.
El origen y evolución de las lenguas, las diferencias que existen entre ellas en
el modo de designa y categorizar la realidad y sus repercusiones sobre el
pensamiento, han dado pie a posiciones teóricas divergentes. Von Humboldt,
Cassirer o la hipótesis del determinismo lingüístico o relativismo cultural de
Sapiro y Whorf, acentúan la función constitutiva del objeto que cumple la el
lenguaje; todos estos autores, por tanto, rechazan interpretar el lenguaje como
un sistema de signo que opera como una mera copia de la realidad con
independencia del sujeto que la conoce. ".., la diferencia de lenguas proviene
menos de la diferencia de sonidos y signos que de las concepciones del
mundo".
Las lenguas presentan numerosas características formales comunes:
 · En todas ellas pueden identificarse unidades básicas tales como los
sonidos o las palabras.
 · En todas ellas existen reglas para combinar sonidos y palabras y
formar unidades más complejas como oraciones y textos.
 · En todas ellas existen restricciones respecto al orden en que las
distintas palabras pueden formar oraciones.
 · En todas ellas las oraciones expresan contenidos que parecen ajustarse
a una estructura predicativa o proposicional.
La existencia de regularidades y similitudes como estas en todas las lenguas,
pero no en los otros sistemas de comunicación animal, ha dado pie a postular
la hipótesis de que ciertas propiedades formales del lenguaje son universales
y definen rasgos específicos de las habilidades y potencialidades cognitivas de
la especie humana. Noam Chomsky define la gramática universal capaz de
identificar y establecer, en un elevado nivel de abstracción, los parámetros
comunes a las distintas gramáticas particulares y constituiría una evidencia de
primer orden para afirma que la capacidad lingüística humana tiene una
importante base biológica y es, por tanto, innata.
Centrando nuestra atención en las características de las señales lingüística en
si mismas, cabe destacar ante todo que la modalidad de lenguaje humano mas
primaria ( la modalidad oral) exige la participación de dos canales, el vocal y
el auditivo, lo que implica que los usuarios de este lenguaje deben reunir cierto
requisitos y condiciones tanto anatómicos como funcionales.
Las características físicas de los sonidos del lenguaje (amplitud, frecuencia y
duración) pueden verse como relacionadas con ciertas peculiaridades de la
configuración anatómica del aparato fonador en la especie humana, como la
posición de la epiglotis. Otras modalidades lingüísticas, como la lectoescritura
o los lenguajes de signos manuales descansan en los canales visual y motor.
Desde el punto de vista de las propiedades físicas de las señales lingüista del
habla, la señal acústica se expande multidireccionalmente y se desvanece
rápidamente. La seña se despliega de forma continua aunque en realidad, las
unidades lingüísticas son discretas.
Para la compresión del lenguaje será necesaria la participación de sistemas de
memoria capaces de almacenar e integrar temporalmente la información
trasmitida mediante la señal física y que permitan su procesamiento una vez
esta se ha desvanecido; asimismo, será imprescindible la existencia de
procesos que permitan la segmentación de las señal física en unidades
lingüísticamente significativas.
La estructura interna de las unidades lingüísticas tiene otras
características: doble articulación o dualidad de patrones que se refiere a que
el sistema lingüístico se compone de dos tipos de unidades: unidades no
significativas (los fonemas) y las unidades con significado (morfemas, palabras,
etc) que resultan de la combinación, en las condiciones fijadas por la
gramática, de las anteriores.
Los sistemas lingüísticos que participan de las características de dualidad de
patrones resultan ser altamente productivos, abierto y flexible. Esto a su vez,
facilita que los usuarios de la lengua puedan usarlo de forma creativa.
Un conjunto de principios o reglas formales que posibilitan la producción y
comprensión de infinitas oraciones gramaticales a partir de un número finito
de unidades fue establecida originalmente por Chomsky y constituye uno de
los principios básicos de la lingüística moderna. Distinguió este autor entre
la estructura profunda (relaciones conceptuales codificadas en el mensaje) y
la estructura superficial (unidades lingüísticas que aparecen explícitamente en
dicho mensaje). Esta división es de extraordinaria utilidad para la explicación
psicológica de cómo se comprende y produce el lenguaje y permite entender,
entre otro, la existencia de parafrases.
Las unidades que resultan relevantes desde el punto de vista de la construcción
del significado lingüístico en los mensajes verbales - los fonemas, las palabras,
etc. - son unidades que admiten una representación grafica discontinua o
discreta. Estas unidades como destaca Osgood, tienen una organización
interna jerárquica y componencial. Siempre pueden ser analizadas y descritas
en base a las unidades de nivel inferior. La combinación de estas unidades no
es aleatoria: se rige por principios o reglas que quedan recogidas en las
gramáticas particulares de cada lengua.
En el caso de la modalidad oral, cabe identificar otros parámetros de
organización de los mensajes, que tiene una naturaleza suprasegmental y
continua: se trata de los parámetros prosódicos de la voz que corresponden al
volumen, la entonación, el timbre el ritmo del habla. Estos parámetros
transportan una gran cantidad de información emocional y pragmática, que le
hace muy relevante tanto desde el punto de vista del estudio de la expresión
emocional como del estudio del uso del lenguaje en contexto
conversacionales.

CARACTERÍSTICAS FUNCIONALES DEL LENGUAJE VERBAL

La naturaleza arbitraria de los signos lingüísticos, su doble articulación y su


consiguiente productividad posibilitan en el lenguaje verbal una potencialidad
funcional cualitativamente distinta y superior a la de otros lenguajes que
carecen de estas características. Dicha potencialidad modula la capacidad de
expresión (emocional) de los humanos, pero también modula y posibilita un
desarrollo particularmente complejo y distintivo de las otras dos funciones
básicas del lenguaje identificadas por Bühler: la función representacional o
simbólica y la función comunicativa.
I. Características de la Función Representacional
Desde un punto de vista representacional, la particular cualidad combinatoria
del lenguaje verbal se puede relacionar con numerosas características de la
especie humana.
En primer lugar (Hockett y Altmann), el lenguaje verbal presenta la
característica denominada de desplazamiento referencia o postura
situacional. Los signos lingüísticos no están ligados de forma necesaria o
directa a referentes inmediatamente presentes en el tiempo en el espacio,
pudiendo por tanto referirse a aspectos de la realidad presentes, pasado o
futuros, reales o imaginarios.
Paulov expuso que en el ser humano, el lenguaje no opera tanto como un
sistema de señales primarias sino como un segundo sistema de señales que
resulta de la generalización de las vinculaciones o asociaciones del primer
sistema de señales.
La posibilidad de generalización que ofrece el lenguaje verbal se apoya en el
análisis del significado y determina formas de reacción y respuesta ante el
medio que son cualitativamente superiores en tanto que mecanismo de
adaptación a un medio tan flexible y variable como el medio social humano.
La apertura situacional o desplazamiento referencial, así como el carácter de
segundo sistema de señales del lenguaje humano liberan al lenguaje y a sus
usos de la realidad física concreta e inmediata y le permite operar como un
sistema representacional de propósitos generales. El lenguaje puede
interpretarse como un código no ligado a contenidos, estados o necesidades
específicos que, al mismo tiempo, posibilita formas particulares de
conocimiento de la realidad que presumiblemente son específicos de nuestra
especie.
En la medida en que los signos pueden ser creados y utilizados en nuestra
especia para dar cuenta de significados no ligados a la realidad inmediata, el
lenguaje amplía su funcionalidad representacional de forma prácticamente
ilimitada. Por ejemplo, el lenguaje humano puede aplicarse a describir y
analizar la actividad misma de "decir". A este rasgo se le conoce como rasgo
de reflexividad y da lugar al conocimiento metalingüístico.
La posibilidad de analizar mediante el lenguaje la propia conducta constituye
el germen de la conciencia reflexiva y de la conducta de autocontrol, sin duda
dos de los logros funcionales más preciosos de nuestra especie.
El lenguaje humano, opera como un segundo sistema de señales, es decir, no
representa o señala directamente la realidad sino que representa
representaciones mentales que los sujetos tienen y construyen acerca de esa
realidad (significados).
Los signos lingüísticos implican significados construidos mediante principios
de generalización e individualización, que deben ser conocidos y compartidos
tanto por el emisor como por el recepto. Los signos lingüísticos lo son y
existen como tales en tanto en cuanto son signos construidos "por alguien y
para alguien"; también que en su uso intervienen tanto procesos simples de
codificación y descodificación como procesos de interpretación que, sin duda,
son impensables fuera del ámbito de nuestra especie.
El lenguaje no solo designa las cosas, no solo cumple la función referencial de
representación: al mismo tiempo que nos las presenta, el lenguaje nos describe
también las cosas y nos informa acerca de cómo son describe sus propiedades
y, en consecuencia, cualifica a la misma realidad que representa: en este
sentido, podemos decir que el lenguaje es un sistema analítico de
representación.
La función representacional del lenguaje posee otros muchos rasgos
supuestamente característico y específicos:
 · La frecuente ambigüedad de los enunciados lingüísticos
 · La existencia de connotaciones que modulan el significado literal o
convencional de las palabras en función de la experiencia y los sesgos
personales o socioculturales de los hablantes
 · La posibilidad de decir, mediante el lenguaje, algo falso que no se
corresponde con la realidad (prevaricación)
 · La posibilidad de construir mensajes que transmiten información
contradictoria o incongruente en el plano de la organización lingüística
segmental o gramatical y el suprasegmental o prosódico.
Algunos de estos rasgos parece que es compartido también por otras especies
no humanas. Sin embargo, cualquiera de ellas permite diferenciar con
claridad el lenguaje humano natural de lenguajes artificiales como los
lenguajes informáticos o el código de circulación.
II. Características de la función comunicativa
El lenguaje verbal es, por una parte, un sistema de comunicación biológico o
natural y también un sistema especializado en la transmisión de información
significativa, es decir, en la transmisión de información que es relevante desde
el punto de vista de la adaptación y el comportamiento del individuo que
emite o que recibe tal información.
En segundo lugar, cabría destacar que esta transmisión de información
significativa puede tener lugar tanto entre personas como intrapersonalmente,
sirviendo el lenguaje en este ultimo caso como un importante instrumento de
autorregulación de la actividad.
¿Hasta qué punto la función comunicativa se realiza de un modo similar en el
lenguaje verbal y en otros lenguajes? Los signos presuponen ya la realización,
por los usuarios, de ciertas operaciones activas de análisis y combinación
(tanto en lo que respecta a los significantes - doble articulación - como a los
significados - generalización y categorización-). Tiene sentido pensar que la
cualidad de los contenidos comunicativos será significativamente distinta
también en el lenguaje humano respecto a otros lenguajes.
Las diferencias guardan relación con la posibilidad de trascender la utilización
instrumental "directa" o primaria de los signos y con la posibilidad de utilizar
el lenguaje en nuestra especie en forma de comunicación aparentemente más
gratuitas o desinteresadas.
La caracterización diferencial del lenguaje humano tiene que ver con el modo
de conceptualizar teóricamente la función de comunicación en si misma, y
más concretamente, con la interpretación del lenguaje como un mecanismo o
dispositivo natural de comunicación que sin embargo no es simplemente un
mecanismo de transmisión de información.
El uso comunicativo del lenguaje que hacen los seres humanos y los de otras
especies ¿debe ser interpretado únicamente como un proceso de codificación
y descodificación?
El conocido de modelo de comunicación propuesto Shannon y Weaver va en
esa dirección. Otros autores por el contrario destacan la intencionalidad de la
actividad lingüística, es decir, interpretación del significado intencional (no
solo referencial) de los mensajes.
Para Hans Hörmann, los mensajes no proporcionan información al oyente,
sino que únicamente le guían en el proceso de reconstrucción de la
información que tiene que realizar el oyente por sí mismo.
El lenguaje verbal (a diferencia de otros lenguajes), resulta ser un sistema de
comunicación extraordinariamente redundante, toda vez que señales
gramaticales de diferentes tipos implicar la repetición de un mismo contenido
informativo en distintos puntos del mensaje. La repetición de un mismo
contenido informativo determina que el lenguaje verbal sea fácilmente
predecible por el oyente, lo que resulta de extrema utilidad habida cuenta de
que la señal lingüística auditiva, debido a su multidireccionalidad, suele verse
afectado por un alta nivel de ruido.
La predictibilidad del lenguaje posibilita que las señales lingüísticas puedan
ser percibidas e interpretadas incluso aunque estén muy degradas. Esto le da
un valor extraordinario desde el punto de vista de un uso del lenguaje
adaptado a las condiciones de su entorno natural.

CARACTERÍSTICAS DEL LENGUAJE COMO MODALIDAD DE


COMPORTAMIENTO

La principal característica del lenguaje en cuanto a tipo de conducta es


la libertad de uso. La conducta lingüística carece de relaciones de
dependencia necesaria respecto de los estímulos (externos e internos); por
otra parte, los usuarios del lenguaje tienen la posibilidad de demorar sus
respuestas lingüísticas todo el tiempo que estimen oportuno.
Por estas razones la conducta lingüista suele considerase como un caso
prototipito de conducta inteligente, intencional y propositiva, cuya realización
presupone el establecimiento de metas y objetivos acerca de los cuales el
sujeto debe tener una representación previa y cuya explicación exige el recurso
a explicaciones teleológicas y no solo mecanicistas.
El carácter propositivo de la actividad lingüística, que requiere de
explicaciones de tipo intencional, nos permite entender por que los silencios
(ejemplos de no-conducta) poseen, en la especie humana un contenido
informativo tan importante desde el punto de vista comunicativo de nuestra
especie. NADIE PUEDE NO COMUNICAR.
Los silencios adquieren su valor precisamente por el hecho de que el sujeto
humano tiene la posibilidad de decidir si usa o no el lenguaje y cuando.
La ruptura del vinculo de necesidad que liga a los comportamientos
lingüísticos con sus antecedentes estimulares más directos, confiere una
cualidad peculiar al lenguaje humano.
Con el "aquí no y el todavía no, el lenguaje nos permite superar el sólido
encadenamiento de estimulo y respuesta... nos permite desear un
acontecimiento, planear una acción, recordar y referir un suceso."
La especificidad de la naturaleza de las respuestas o conductas lingüísticas
humanas en relación con las de otras especies, va sin embargo, más allá de su
aparente libertad de producción. Por ejemplo, la conducta lingüista es,
formalmente creativa. Ello hace que la conducta lingüística no pueda
interpretarse como un repertorio cerrado de respuestas sino, más bien, como
una actividad productiva y extremadamente flexible en la que es posible y muy
probable la comisión de errores. Dicho errores, por razones obvias, no tiene
lugar en los sistemas de comunicación cuyo uso viene directamente ligado a
condiciones estimulares prefijadas.
En nuestra especie, el hecho evidente de que los sujetos comenten errores
obliga a suponer la existencia de mecanismos funciones que les permitan
percatarse de ellos y, eventualmente, corregirlo. Las peculiaridades del
comportamiento lingüístico humano van ligadas también a condiciones
especificas de organización funcional de los sistemas responsables del uso del
lenguaje (en este caso, la retroinformación del propio mensajes).
Para Skinner el uso del lenguaje puede ser visto como una conducta
instrumental, porque se puede relacionar con ciertas condiciones
antecedentes del emisor o del ambiente y conciertas consecuencias o efectos
sobre el entorno. La posibilidad de transforma la conducta, el conocimiento
o las emociones de otros a partir del lenguaje convierte a este, pues, en uno
de los principales instrumentos de regulación interpersonal y social.
La actividad lingüística presenta otras muchas características diferenciales en
tanto que forma de conducta o comportamiento. Así por ejemplo, presenta
las características de intercambiabilidad de roles entre emisor y receptos y la
necesidad de retroinformación completa.
La intercambiabilidad de roles y la necesidad de retroinformación pueden
verse como estrechamente relacionadas con la mayor probabilidad que
tenemos como especie de cometer errores en la codificación o interpretación
de los mensajes. Estas dos propiedades dan pie a suponer que las actividades
de producción y compresión del lenguaje, puesto que deben realizarse
simultáneamente, comparte buena parte de sus estructuras y características
funcionales, si bien, probablemente, presentan también importantes
diferencia.
La importancia del interlocutor y de las interacciones lingüísticas y no
lingüísticas en la que se enmarca el uso del lenguaje, ponen de manifiesto,
también, aunque de forma colateral, la importancia que para una correcta
interpretación de la actividad lingüística tiene le análisis del contexto en que
esta se desarrolla.
Desde otra perspectiva, el lenguaje verbal aparece como un tipo de actividad
altamente especializada y compleja. Por un lado, no parece cumplir una
función biológica primaria. Por otro lado, su realización implica el concurso
de tipos de conocimiento y procesos extremadamente variados.
Desde una perspectiva neurofisiológicas, la naturaleza especializada del
lenguaje parece venir avalada por la confirmación de que existen ciertas
particularidades en la configuración de algunos del los sistemas periféricos
ligados al lenguaje.
Ciertos datos procedentes de la investigación antropológica del estudio de las
estructuras corticales y periféricas de otros primates y, y muy especialmente,
de la investigación neuropsicológicas de los déficit del uso del lenguaje
asociados a ciertas lesiones cerebrales han proporcionado también, en las
ultimas décadas, evidencia de primer orden acerca del sustrato neurológico
del lenguaje humano y de su proceso de desarrollo y fijación filogenéticos.
Otros autores han cuestionado la especifidad del proceso lingüístico y
destacando sus importantes puntos de conexión biológica y funcional con el
lenguaje de otras especies (sobre todo primates superiores).

ESTUDIO DEL LENGUAJE DESDE LA PSICOLOGÍA

INTRODUCCIÓN EL ESTUDIO DEL LENGUAJE

Hasta finales del siglo XIX el estudio del lenguaje consistió en una larga
espiral de reflexiones filosóficas y gramaticales y generó un prolongado y
multifacético debate sobre cuestiones extraordinariamente diversas:
 · Las ideas que sirven de soporte al lenguaje y al entendimiento ¿son
innatas o se adquieren por medio de la experiencia sensorial?.
 · ¿Es el pensamiento posible sin el lenguaje?.
 · ¿Surgió el lenguaje en la especie humana como respuesta a una
necesidad psicológica o sociológica?
 · ¿Se derivan los primeros vocablos de sonidos naturales o es una
especie de gesticulación vocal?.
Este debate sirvió de marco a la polémica ente anomalistas (los nombres son
el resultado de un pacto, consenso, convención o habito social)
y analogistas (hay una razón natural que vincula los nombre con sus
referentes, asegurando su exactitud). En el fondo esta polémica es de orden
teológico, el origen natural o sobrenatural del lenguaje.
A finales del siglo XVIII y principios del XIX Wilhelm Von Humboldt inicia
el estudio científico del lenguaje rompiendo con la interpretación tradicional
que asimilaba el lenguaje a un mero envoltorio, estático y encerrado en sí
mismo, con el que transmitir las ideas y conceptos. Con este autor el
término logos dejó de ser un simple producto del espíritu humano para
convertirse en un proceso.
Siguiendo a Humboldt, Moritz Lazarus y Heymann Steinthal difunden la idea
de que el lenguaje, por haber sido construido y utilizado por colectividades de
personas, constituye un instrumento de primer orden para profundizar en el
estudio de la actividad humana, al igual que otros productos culturales como
el arte, la mitología o las costumbres. Wundt comparte esta interpretación
acerca del lenguaje, pero al mismo tiempo sostuvo la idea de que el lenguaje
debe ser tratado como un proceso o actividad individual que debe ser objeto
de explicación por parte de la psicología general o experimental. Saussure
también sostiene que la lingüística debe ser considerado como una rama de la
psicología general.

EL SUJETO Y LA EXPLICACIÓN DE LA ACTIVIDAD LINGÜÍSTICA

Algunas Características Generales Sobre la Investigación de la Psicología del


Lenguaje
En la última mitad del siglo XIX se tiene una visión del lenguaje más próxima
a la de una capacidad o actividad generadora tanto de signos como de ideas.
Esto, junto con la ruptura del concepto de lenguaje cuya función era
simplemente el etiquetado de la realidad física o mental, pone los precedentes
a lo que llamamos perspectiva psicológica.
Interés por el sujeto y por la explicación de la actividad lingüística.
Desde una perspectiva psicológica, el lenguaje se concibe como un fenómeno
cuya existencia, naturaleza y génesis no pueden desvincularse científicamente
de las de los organismos que lo poseen.
El lenguaje puede interpretarse en términos psicológicos, como una capacidad
que emerge en, o que poseen, ciertos tipos de organismos a partir de ciertas
propiedades de su constitución biológica y psíquica interna. Si las capacidades
de cada especie se derivan de su constitución física o mental, puede
interpretarse como una proyección de su constitución, lo que podría informar
acerca de las posibilidades y limites de su constitución interna.
El análisis sistemático de tales conductas se convierte en uno de los modos de
aproximación científica potencialmente más útiles para el estudio, tanto de las
capacidades, como de las condiciones psíquicas y biológicas que la posibilitan.
Desde un punto de vista algo distinto, la capacidad para hacer algo no equivale
exactamente a la capacidad de saber hacer ese algo. El desarrollo de estas
habilidades requiere de un cierto proceso de instrucción o adiestramiento. Sin
embargo existe una diferencia notable cuando se compara el aprendizaje de
capacidades naturales con capacidades no naturales, en cuanto a la necesidad
de instrucción. Incluso cuando se compara la dificultad de adquisición con
formas secundarias o tardías de una habilidad o capacidad natural.
Desde este punto de vista, el lenguaje resulta un objeto de investigación
típicamente psicológico. Por un lado, porque es un tipo de capacidad y
comportamiento que forma parte de los repertorios de capacidades y
comportamientos naturales de algunos organismos. Por otro lado, porque el
lenguaje posibilita en los sujetos que lo desarrollan formas particulares de
relación y acción con su medio.
A la psicología no le interesa el lenguaje como producto acabado o cerrado
en sí mismo, lo que le interesa a la psicología del lenguaje es que éste, en sus
diferentes formas, se adquiere, se usa y resulta funcional en sujetos y
organismos de diferentes especies y entre ellos, y de forma muy particular, en
la especie humana.
Hay tres grandes núcleos de objetivos en la psicología del lenguaje:
 · El estudio de las actividades de producción y comprensión del
lenguaje- en los monólogos y las conversaciones, y también en las
diferentes modalidades del lenguaje (oral, escrito o signado)-.
 · El estudio de las funciones cognitivas, comunicativas, etc., que
desempeña el lenguaje y/o sirve de soporte a su adquisición y uso.
 · El estudio de los procesos de adquisición y de deterioro - o no
desarrollo - de las distintas funciones y modalidades de la actividad
lingüística, es decir, el estudio del lenguaje en sus aspectos evolutivos y
patológicos.
Naturaleza empírica de la investigación psicológica del lenguaje y principales
estrategias metodológicas.
El estudio de la función y de la actividad lingüística es el objetivo de la
psicología del lenguaje y es una rama de la psicología científica. Se constituye
así en una disciplina empírica, es decir, en una disciplina cuyas hipótesis y
conclusiones deben ser contrastadas sistemáticamente con datos procedentes
de la observación de la conducta lingüística efectiva o real de los sujetos ya sea
en situaciones naturales o experimentales. Los métodos que utiliza son: la
observación, la experimentación y la simulación.

LA METODOLOGÍA OBSERVACIONAL COMO FUENTE DE


EVIDENCIA

El primer método científico es la observación de la conducta lingüística tal y


como ésta se da en las situaciones en las cuales el investigador está presente,
participando o no en tal situación. Cuando la observación se aplica a uno
mismo, recibe el nombre de observación instrospectiva o,
simplemente, introspección.
Los datos procedentes de la metodología observacional permiten describir y
catalogar con relativa exhaustividad las diferentes formas de actividad
desempeñada por los sujetos, así como establecer ciertas relaciones
hipotéticas entre variables o fenómenos asociados a su realización. Este tipo
de metodología no permite someter a prueba directa hipótesis de tipo causal.
La observación sistemática implica la selección, registro objetivo y
codificaciónde un conjunto de conductas de los organismos en orden a la
consecución de ciertos propósitos teóricos.
Los datos obtenidos mediante la utilización de métodos
observacionales resultan particularmente apropiados para la realización
de estudios exploratorios y tiene enorme utilidad a la hora de identificar
variables con potencial valor explicativo.
La conducta lingüística (y, sobre todo, la producción del lenguaje) ha sido
objeto tradicional de estudio observacional.
El empleo de métodos observacionales permite acotar con relativa claridad el
rango de conductas lingüísticas que pueden ser realizar por los miembros de
la especie humana en distintas condiciones y también las funciones y
actividades lingüísticas que pueden ser realizadas por individuos de otras
especies.
El empleo de la metodología observacional comporta ciertos riesgos y
exigencias:
 · El uso del lenguaje es creativo y por tanto existen
numerosísimas diferencias tanto inter como intraindividuales, lo que
exige el diseño de mecanismos de control que garanticen, por ejemplo,
la representatividad.
 · La influencia que sobre ciertos aspectos de la actuación lingüística
pueden tener determinadas variables del contexto o situación en que se
desarrolla el intercambio comunicativo exige también la toma de ciertas
precauciones metodológicas y estadísticas en orden a garantizar la
replicabilidad de las observaciones.
 · La conducta lingüística, aunque realizada siempre por un sujeto
individual, presenta fuertes dependencias funcionales respecto a las
conductas realizadas por otros sujetos.

LA METODOLOGÍA EXPERIMENTAL

El método hipotético-deductivo, como se conoce habitualmente, implica


diversas fases:
 a) En primer lugar el investigador deberá elaborar hipótesis precisas
acerca de aquel o aquellos aspectos de la realidad que constituyen su
objeto de estudio
 b) A partir de estas hipótesis, el investigador tendrá que realizar
ciertas deducciones.
 c) El científico deberá comprobar de forma empírica la validez de sus
hipótesis y deducciones mediante la realización de estudios específicos
a los que se denomina experimentos.
A grandes rasgos, los experimentos pueden ser definidos como situaciones
artificiales y totalmente controladas de observación que permiten la
contrastación empírica de hipótesis sobre la relación de causalidad.
La capacidad de un experimento para contrastar hipótesis causales viene
definida por la posibilidad de manipular de forma reversible ciertas variables
(variables independientes), también por el control de otras variables (variables
extrañas) y por la observación y medida de los cambios que la manipulación
de las variables independientes producen en las variables que se desea explicar
(variables dependientes). Cuando la naturaleza de alguna de las variables
independientes no permite una manipulación, el diseño de investigación que
se aplicara será el de manipulación de las variables independientes por
selección.
Aplicando el método experimental sobre el lenguaje presenta también ciertas
peculiaridades y problemas:
 a) Dificultad para elaborar hipótesis sobre los mecanismos y sistemas
implicados en la conducta lingüística.
 b) Interpretación de resultados de los contrastes estadísticos.
 c) Extraordinaria dificultad para utilizar la metodología experimental
en el ámbito de la investigación sobre la producción del lenguaje, frente
a su fácilutilización en el estudio de los procesos de comprensión.
 d) Dificultad para poder llevar a cabo un control experimental riguroso
y suficiente de las condiciones contextuales en que se desarrolla la
activada lingüística.
Estas dificultades no impiden reconocer el hecho de que el método
experimental ha sido utilizado de forma sistemática y adecuada por los
psicólogos del lenguaje de todas las orientaciones teóricas proporcionando
buena parte de lo que constituye el bagaje empírico esencial de las
explicaciones psicológicas del comportamiento lingüístico humano.

LA SIMULACIÓN COMO MÉTODO DE INVESTIGACIÓN

La psicología del lenguaje tiene por objetivo la elaboración de teorías e


hipótesis explicativas de la conducta lingüística. En el caso del empleo de
técnicas de simulación los datos que se recogen sobre la conducta
lingüística son proporcionados por máquinas (ordenadores digitales).
El empleo de la simulación en psicología se deriva del supuesto de que existe
una equivalencia funcional entre las operaciones computacionales que
pueden ser realizadas por la mente humana y las que pueden ser realizadas
por un ordenador digital. Este supuesto, que implícitamente presupone la
idea de que la naturaleza exacta del sustrato físico que sirve de soporte a una
actividad es relativamente irrelevante para una caracterización funcional de
esta actividad, constituye, uno de los supuestos básicos del llamado paradigma
computacional.
En las últimas dos décadas, la investigación del lenguaje ha ido recurriendo
cada vez con mayor frecuencia, a los métodos de simulación.
Este tipo de investigación ha aportado resultados que constituyen una
evidencia de primer orden para la caracterización de la naturaleza inferencial
del lenguaje y, también, para demostrar hasta que punto las descripciones
formalizadas de la actividad lingüística y de los diferentes tipos de
conocimientos y capacidades implicadas en su ejecución posibilitan la
explicación científica de esta compleja forma de conducta.

COMPLEJIDAD DE LA ACTIVIDAD LINGÜÍSTICA

No existe nada equivalente a lo que podríamos denominar un único "enfoque


psicológico", teóricamente homogéneo, en el estudio del lenguaje. Hay tantas
"psicologías del lenguaje" como modos de explicación han ido desarrollándose
en la psicología científica a lo largo de su historia. Igual que en otras formas
de comportamiento, cabe describir y explicar psicológicamente la actividad o
el comportamiento lingüístico desde muy diferentes planos y perspectivas.
El plano físico o neurobiológico.
Este nivel de descripción implicará el análisis sistemático del sustrato material
en que se asienta tanto la capacidad humana para el lenguaje como la actividad
lingüística efectiva, tanto en términos macroestructurales como
microestructurales.
En términos macroestructurales esta perspectiva lleva a identificar y a
describir, por ejemplo, los sistemas centrales y periféricos que participan en la
producción y comprensión de las señales lingüísticas, así como sus diferentes
estados en los distintos periodos de la evolución genérica de las especies y los
individuos.
El psicólogo del lenguaje podría examinar las correlaciones existentes
entre estructuras anatómicas del cerebro y comportamientos
lingüísticos concretos. Desde una perspectiva microarquitectónica, el
psicólogo puede analizar el grado de especialización de ciertas neuronas o
grupos de neuronas respecto a la realización de ciertas tareas lingüísticas
especificas.
La orientación neurobiológicas en el estudio del lenguaje, suele identificarse
con la rubrica de "neuropsicología del lenguaje".
El plano de la descripción conductual.
Corresponde a la descripción del comportamiento o la conducta manifiesta
de los sujetos. Lo que interesa estudiar básicamente en relación con el lenguaje
son las acciones directamente observables en las que se manifiestan las
habilidades lingüísticas de los hablantes.
Estas manifestaciones no pueden reducirse exclusivamente derivadas de
la actividad neurofisiológicas, sino que requieren un entramado teórico y
conceptual propio, estrictamente psicológico.
Dicho entramado descansa en un lenguaje típicamente observacional que
excluye la referencia a todo constructo mentalista y que impone definiciones
extensionales de la conducta (definiciones que se basan en el análisis de la
relación de la conducta lingüística o el lenguaje con objetos o fenómenos
externos o distintos a ellas/él mismo)
El plano de las descripciones intencionales.
Centrando nuestra atención ahora en la descripción tanto de los contenidos
proposicionales o semánticos de los mensajes como en el de las actitudes de
los usuarios lingüísticos respecto a tales contenidos proposicionales.
Esta perspectiva implica también la introducción de elementos
extralingüísticosen la descripción del lenguaje, así como el análisis de
las relaciones que el mensaje guarda con estos elementos. La descripción de
estos aspectos impone al psicólogo la utilización de un vocabulario mentalistas
que no se limita a la descripción de hechos manifiesto o directamente
observables.
El lenguaje, desde una perspectiva intencional, podría ser interpretado como
un instrumento de representación de la realidad y de comunicación
interpersonal que imite a una realidad distinta a la suya propia y cuya
descripción se apoya en la utilización de atribuciones psicológicas o
predicados mentales relativos a las ideas, las creencias, los deseos o las
expectativas de los sujetos que producen o comprenden los mensajes
lingüísticos.
Se supondrá la idea de que los enunciados o verbalizaciones de los sujetos no
están tanto bajo el control externo de las circunstancias del ambiente cuanto
bajo el control mismo de las actitudes intencionales de los sujetos que los
producen o interpretan.
El plano de las descripciones computacionales.
Desde esta perspectiva la actividad lingüística es vista como el resultado de
la aplicación de un conjunto de reglas o algoritmos de
computación específicos sobre tipos de representaciones simbólicas que, en
el caso del lenguaje, implican tanto conocimientos específicamente lingüísticos
o gramaticales, como conocimientos o información de carácter más general.
En este sentido la actividad lingüística se interpreta como el resultado de un
conjunto de procesos u operaciones mentales de tratamiento y manipulación
de símbolos o representaciones que, con frecuencia, operan por debajo del
nivel de la conciencia de los usuarios. Estas operaciones mentales se rigen por
principios formales que son independientes tanto del contenido de los
mensajes como de las creencias y expectativas de los interlocutores que
participan en el intercambio comunicativo.
Las descripciones computacionales, emplean también un lenguaje mentalista.
Pero, a diferencia del plano de la descripción intencional, la caracterización
funcional de estos elementos no requiere la referencia a elementos externos
al sistema lingüístico, sino que pude realizarse a partir de criterios
directamente relacionados con la organización interna del conocimiento y/o
el sistema de procesamiento lingüístico.
Las descripciones computacionales presuponen el recurso a sistemas
complejos de reglas y de principios abstractos de descripción capaces de dar
cuenta de la organización de los sistemas de conocimiento y procesamiento
de la información lingüística en sí mismos. En este sentido, imponen una
dependencia disciplinar respecto a la lingüística y otras ciencias formales.

RECONOCIMIENTO Y COMPRENSIÓN DE PALABRAS

INTRODUCCIÓN AL RECONOCIMIENTO Y COMPRENSIÓN DE


PALABRAS

La noción de "comprensión" es difícil de precisar.


Desde el punto de vista fenomenológico la "comprensión" no parece
corresponder a lo que se entiende por "proceso mental" ( por ser repentina e
instantánea y no suponer esfuerzo por parte de quien comprende) y tampoco
encaja como "estado mental" (por no tener extensión en el tiempo ni
cualidades de experiencia, es decir, acontecer de forma ininterrumpida)
Comprender el lenguaje es un proceso integrado por varios subprocesos
diferentes.
Los procesos psicológicos iniciales a destacar son: reconocimiento y
comprensión de palabras.
Cuando una persona reconoce una palabra al leerla o escucharla, se halla en
un estado mental diferente al que se hallaba antes de reconocer dicha palabra.
Este estado es consecuencia de ciertos procesos de actuación lingüística que
consumen tiempo (y este tiempo se puede registrar); sin embargo en la medida
en que podamos hablar de conocimiento de palabras de una lengua
(competencia léxica), saber lo que una palabra significa no puede ser un estado
computacional, sino más bien un elemento de competencia lingüística; lo que
implica que no tiene propiedades temporales.
Se cree que hay diferencias entre la compresión de palabras y la de oraciones
y discursos y estas diferencias justifican el carácter polisémico de la
comprensión del lenguaje.

DIFERENCIAS ENTRE COMPRENSIÓN DE PALABRAS Y DE


ORACIONES

Las principales diferencias son:


Las diferentes tareas que llevan a efecto y representaciones empleadas en
dichas tareas
Las tareas que llevan a efecto:
 Comprensión de palabras: Se compara o acopla un estímulo externo
con estructuras previas de la memoria del sujeto. Una salvedad es en el
caso de palabras derivadas o compuestas no se reduce a una
comparación; en esos casos también implica procesos combinatorios.
 Comprensión de oraciones: Se realizan procesos combinatorios
sintácticos y semánticos de unidades simples para formar otras
complejas.
Aunque a veces (la salvedad que hemos visto arriba) haya procesos
combinatorios en la comprensión de palabras, los procesos combinatorios de
la comprensión de palabras y los de la comprensión de oraciones, tienen
distinta naturaleza, en el caso de la comprensión de palabras: se asientan en
reglas de yuxtaposición de afijos que se aplican sobre elementos subléxicos
(Empleando terminología estructuralista: Son procesos de carácter
paradigmático en virtud de los cuales, unidades del enunciado se asocian a
representaciones ausentes).
Por otro lado, en lo referente a la comprensión de oraciones: se asientan en
reglas dependientes de la estructura que operan sobre elementos léxicos (Son
procesos de carácter sintagmático que combinan entre sí elementos
lingüísticos del enunciado)
Diferentes representaciones empleadas
Comprensión de palabras: Las unidades lingüísticas que se utilizan son
subléxicas (fonemas, sílabas y morfemas).
Comprensión de oraciones: Las unidades lingüísticas utilizadas son léxicas y
supraléxicas (sintagmas) y a veces incluyen partículas subléxicas (morfemas
gramaticales o afijos lexivos)
Diferentes representaciones de entrada a los procesos de identificación léxica
de palabras y oraciones
Comprensión de palabras: Los procesos de identificación léxica se activan por
información, por un lado, fonológica, que tiene una estructura segmental
(secuencias de fonemas) y métrica (silabificación y acento) y por otro lado,
morfológica, que comprende unidades subléxicas con valor funcional.
Comprensión de oraciones: Se toman como entrada representaciones léxicas
dotadas de significado (de "clase abierta", es decir, nombres, verbos, adjetivos
y algunos adverbios) y elementos tanto léxicos como subléxicos (palabras de
"clase cerrada", es decir, artículos, pronombres, preposiciones y conjunciones)
y los morfemas gramaticales (terminaciones de género y número, desinencias
verbales, .)
Ambas comprensiones pueden trabajar en paralelo o de forma interactiva.
Diferentes representaciones de salida
Comprensión de palabras: Las representaciones léxicas son la estructura
fonológica (u ortográfica) y morfológica de la palabra más su estructura
semántica y las propiedades sintácticas.
Comprensión de oraciones: Los procesos de comprensión de oraciones
resultan en una representación del significado de la oración que abarca su
contenido proposicional y posee valor de verdad, es decir, puede
corresponder o no al estado de cosas del mundo.

SEMEJANZAS ENTRE COMPRENSIÓN DE PALABRAS Y DE


ORACIONES

 * Ambos procesos requieren reglas combinatorias ( en distinto grado)


 * En ambas existen 2 niveles de representación relativamente
independientes:
Por un lado un nivel en el que se representan las propiedades formales o
estructurales del estímulo lingüístico; para las palabras son su estructura
fonológica y morfológica y para las oraciones su estructura sintáctica.
Por otro lado un nivel en que se representan las propiedades semánticas
(significado) del estímulo.
La distinción entre estos niveles de representación se hace patente ya que se
puede identificar una estructura fonológica y morfológica en ausencia de
significado léxico, que es lo que ocurre con las "pseudopalabras".
Un objetivo en la investigación contemporánea es determinar hasta qué punto
los procesos de interpretación del significado léxico y oracional son
independientes de los procesos de recuperación de la forma en esos dos
niveles de representación lingüística; la pregunta es: ¿El acceso al significado
está necesariamente mediado por procesos de acceso a la forma de los
enunciados?
Aunque la comprensión de oraciones y la identificación de palabras y
comprensión de oraciones sean independientes muchas veces se solapan en
la práctica, ya que los límites entre una palabra y una frase a veces son muy
difusos; de echo, a veces una palabra es una oración o incluso un texto y a la
inversa, varias palabras pueden representar un solo concepto.
Vamos a partir de que en lo que a procesos se refiere, por regla general no
hay diferencias sustanciales entre comprensión oral y escrita del lenguaje.
El problema central del reconocimiento léxico es cómo aislar y decodificar
cadenas fonémicas para identificar las unidades significativas del habla
(morfemas y palabras)

REPRESENTACIONES Y PROCESOS EN LA COMPRENSIÓN

Dentro de la comprensión del lenguaje, la identificación de palabras ha de ser


un proceso temprano que se realiza con rapidez y con escaso margen para
tomar decisiones conscientes.
Aún así, es un proceso complejo y en el intervienen muchos tipos de
información:
 * Información estimular o de entrada: Codificada en formato fonémico
o grafémico.
 * Información léxica almacenada en la memoria: Que se activa y
compara con la información procedente del estímulo.
 * Información contextual: Puede facilitar o dificultar el proceso de
identificación de palabras. La hay de tipo lingüística (localizada en el
texto o discurso) o extralingüistica. (presente en el entorno o en la
memoria del preceptor)
Viendo esto deducimos que unos de los principales problemas del estudio de
la comprensión de palabras son:
 * Determinar las etapas en que se descompone el proceso.
 * Averiguar como se coordinan los distintos tipos de información que
intervienen.
 * Ver cuáles son las diferencias hipotéticas entre reconocimiento
auditivo y visual de palabras.
 * Evaluar el papel de la información contextual en el reconocimiento
léxico, en combinación o comparación con la información procedente
del estímulo. Es decir, se trata de aclarar cómo se coordinan los
procesos de análisis de la señal estimular-abajo-arriba con los procesos
de activación o recuperación de conocimiento general arriba-abajo y
cual es la contribución relativa de cada uno al procesamiento léxico
El proceso de identificación léxica ( que consiste en acoplar una entrada
sensorial o perceptiva a un conocimiento del que ya se dispone.) se puede
definir como un proceso de "activación" de conocimientos almacenados en
un "diccionario mental" o memoria de palabras, a partir de una entrada
sensorial dotada de ciertas características.
De la definición anterior surgen varias preguntas:
¿Qué clase de información sobre las palabras de la lengua tenemos en la
memoria y como esta organizada esa información?
¿Qué unidades receptivas se emplean para identificar palabras en un texto u
oración?
¿Cuál es la naturaleza del proceso de activación, acoplamiento o
correspondencia entre representaciones de entrada al léxico y
representaciones internas del léxico?.

NATURALEZA DE LAS REPRESENTACIONES LÉXICAS

Los hablantes/oyentes lingüísticamente competentes poseen una serie


de "entradas léxicas" con ciertas propiedades:
 1. Representación fonológica (pronunciación)
 2. Representación ortográfica (letras)
 3. Representación morfológica (estructura derivativa y a veces categoría
gramatical) (sufijos)
 4. Representación sintáctica (establece la categoría gramatical y los
contextos estructurales en que puede aparecer)
 5. Representación del significado (rasgos primitivos semánticos o
enunciado-definición).
 6. Lista de términos o conceptos asociados por significado.
Nos centraremos en el procesamiento léxico (procesos por los que
reconocemos la forma de las palabras, comprendemos su significado y
accedemos a otras propiedades).
No tendremos tan en cuenta la representación léxica (estructuras de
información a las que el oyente o lector accede para reconocer y comprender
palabras).
Las cuestiones más relevantes son dos:
¿Cómo se halla representado el significado de las palabras en la memoria? Y
¿Qué papel desempeñan las variables morfológicas en la organización y el
acceso al léxico interno?

TEORÍAS DEL SIGNIFICADO DE LAS PALABRAS


El problema de la semántica léxica ha sido abordado en psicología cognitiva
desde tres teorías:
1. Modelos composicionales del significado léxico (Katz y Fodor / Smith /
Shoben y Rips)
Consideran que el significado de las palabras se representa en la memoria
como agregados de rasgos o "primitivos semánticos", de cuya combinación
reglada surge la representación semántica de la palabra.
2. Modelos de redes semánticas (Collins y Loftus)
Los conceptos se organizan en la memoria como una red de representaciones
conectadas entre sí que se transmiten activación.
Cada unidad de la red representa un concepto individual y lleva asociado un
conjunto de rasgos semánticos primitivos.
3. Teoría de los prototipos (Rosch y Mervis / Garnham/ Valle Arroyo / Sierra)
Dicen que los conceptos son categorías difusas (representaciones mentales sin
límites precisos).
La noción de rasgo se considera inadecuada para caracterizar el significado de
las palabras porque no se puede hallar un conjunto necesario y suficiente de
rasgos primitivos que permita definir correctamente cada categoría
conceptual. El criterio para asignar un objeto a un concepto es la semejanza
familiar entre el objeto y los ejemplares más prototípicos del concepto (es un
juicio probabilístico basado en la proximidad relativa del objeto a una u otra
categoría).

MORFOLOGÍA

Se plantean dos cuestiones:


¿Qué información está listada en el léxico interno? Y ¿Qué distinciones
morfológicas son relevantes para el proceso léxico?
En respuesta hay dos hipótesis:
1. Hipótesis del listado exhaustivo. (Lukatela / Butterworth)
Dicen que el léxico interno consta de una lista exhaustiva de todas y cada una
de las entradas léxicas de la lengua que incluye las formas base de las palabras,
las palabras derivadas e incluso las compuestas.
2. Hipótesis del listado parcial
Asumen que el léxico sólo contiene una lista parcial de entradas léxicas que
comprende por separado las raíces de las palabras y los afijos (y éstos se
pueden unir mediante flexión y derivación) más un conjunto de reglas para
llevar a efecto dichas uniones.
Para reconocer palabras derivadas hay que descomponer la palabra en sus
componentes morfológicos.
Esta descomposición se produce antes del reconocimiento de la raíz de la
palabra(Talf y Foster), aunque para otros (Hankamer) ocurre después.
Hay quien intenta conciliar estas hipótesis:
 1. Landamna y Burani, presentan un modelo de listado exhaustivo que
incluye la representación de la estructura morfológica interna de cada
palabra.
 2. Segui y Zubizarreta: Proponen que el acceso a palabras con prefijos
(se reconocen por una representación con el prefijo incorporado) y
sufijos (se reconocen por la representación de la raíz de la palabra,
previa descomposición morfológica) se efectúa de distinta forma.
Una distinción sumamente útil para esclarecer el papel de la estructura
morfológica en representaciones léxicas es la distinción entre:
 1. Morfología de Nivel I: Que engloba todas las palabras
morfológicamente relacionadas entre sí con raíces fonológicamente
diferentes (irregulares).
 2. Morfología de Nivel II: Todas las palabras cuya flexión y /o
derivación deja intacta la estructura fonológica de la raíz (regulares).
De esta distinción surge la hipótesis de que las palabras de Nivel I requieren
un listado exhaustivo en el léxico interno mientras que las de Nivel II pueden
disponer de una única representación.
De cualquier forma, la complejidad de la morfología y la presencia de tantas
irregularidades y excepciones hacen difícil una solución general que de cuenta
de todos los fenómenos que se dan en este ámbito del procesamiento
lingüístico.
El símil entre léxico mental y diccionario de la lengua es inadecuado en
algunos aspectos:
 1. El léxico mental no está ordenado alfabéticamente.
 2. Incluso puede que no haya entradas independientes unas de otras
sino una red de nodos con conexiones.
 3. En los diccionarios no figuran las propiedades sintácticas de las
palabras y los conceptos asociados a ellas, mientras que son importantes
en el procesamiento léxico.
El que las seis propiedades de las entradas léxicas se representen
separadamente en el léxico mental supone que a veces las entradas léxicas
pueden estar incompletas (ejem. Niños pequeños o analfabetos no tiene
representaciones ortográficas; afasias, dislexias o cualquiera tiene un bloqueo
momentáneo "punta de la lengua" o no conocer el significado de alguna
palabra)
Aún está por descubrir cómo se hallan organizados en nuestro diccionario
mental y como se hacen accesibles al oyente o lector estos componentes:
1. Algunos autores (Foster / Marslen-Wilson / Swinney) hablan de dos etapas
diferenciadas:
 - Reconocimiento de la palabra.
Etapa en la que se hacen accesibles las propiedades formales de la
palabra. Es de carácter autónomo.
 - Acceso léxico y comprobaciones post-acceso.
Se accede al significado y a otras propiedades de la entrada léxica. Se
dan interacciones con información supraléxica.
Estos autores consideran que el reconocimiento de la forma de la palabra está
guiado por la señal (es abajo-arriba) y sin interferencia de información de
orden superior. Sólo empieza a haber influencia arriba-abajo cuando la
representación fonológica u ortográfica ha sido parcialmente recuperada.
2. Otros (Marton /Elman y McChelland)
Dicen que el reconocimiento palabra y el acceso al léxico acontecen
simultáneamente.
Es un modelo interactivo o de "acceso directo" en el que la información
potencialmente relevante para identificar una palabra puede ejercer su
impulso desde los primeros instantes del procesamiento.
En los modelos de "acceso directo" las dos fuentes de información empleadas
en el reconocimiento léxico contribuyen conjuntamente a la identificación de
palabras.

EL PROBLEMA DEL CÓDIGO DE ACCESO

¿Qué señal acústica o visual del lenguaje pone en marcha los proceso de
reconocimiento? (llave que abre el diccionario)
Desde el punto de vista de la percepción esta "llave" debe ser la unidad
lingüística mínima a partir de la cual se dan constancias perceptivas fiables.
(desaparece la ausencia de invarianza perceptiva).
También se conoce como "código de acceso", "representación de acceso" o
"representación de contacto".
No tiene porque ser la palabra entera, pero al menos en el lenguaje hablado
tiene que ser más que la unidad mínima de representación lingüística.
La mayor parte de los investigadores coinciden en que tanto en habla como
en lectura, el acceso al léxico mental está guiado por la porción inicial de la
palabra, que se supone portadora de la información más relevante.
Una prueba de esto es que las palabras habladas suelen reconocerse en
tiempos mas breves de lo que dura su emisión completa y los errores fonéticos
que se cometen al hablar se detectan mas fácilmente si afectan a la porción
inicial de la palabra.
Aún así, no hay que pasar por alto otros factores que pueden condicionar la
importancia de la porción inicial de la palabra en el reconocimiento léxico;
por ello hay diversas hipótesis sobre la identidad del código de acceso al
léxico.
1. Modelos de una representación abstracta y relativamente superficial
Algunos modelos hablan de una representación abstracta y relativamente
superficial que facilita la puesta en marcha del reconocimiento
Esta representación es constante (no depende de características idiosincráticas
de la palabra, longitud, frecuencia o numero de palabras con que guarde
semejanza- "vecinos" de la palabra).
Entre las unidades que se han propuesto como código de acceso están:
 i. Unidades fonémicas individuales. (Pisoni y Luce)
 ii. Sílaba inicial (Mehler, segui)
 iii. Sílaba ortográfica (taft)
 iv. Porción acentuada de la palabra.
 v. Rima (Grosjean y Gee).
2. Representaciones de Acceso en el Reconocimiento Léxico
Hay representaciones de acceso en el reconocimiento léxico, pero pueden
diferir de unas palabras a otras en función de "propiedades de la entrada
léxica" (de las características idiosincráticas de la palabra en oposición al punto
1.)
Autores como Marslen-Wilson y Tyler dan gran importancia a la porción
inicial de la palabra; en concreto a los 150 primeros milisengundos;
aunque "no se puede hablar de una unidad fija lingüísticamente definida que
sirva como representación de acceso; cada palabra representa un punto
óptimo de reconocimiento o unicidad y a partir de este momento se reducen
los posibles candidatos a entrada léxica".
3. Procesos de Reconocimiento
Los procesos de reconocimiento ocurren directamente, sin mediación
lingüística entre la señal acústica y la entrada léxica, operarían mediante la
acumulación de información acústica (Klatt) ó acústica y contextual (Morton,
Elman y Mclelland), así se activarían las representaciones almacenadas en la
memoria léxica del sujeto.
En estos modelos el problema de la ausencia de invarianza es desplazado hasta
su nivel léxico de procesamiento.
Si se habla de un código de acceso para el reconocimiento de palabras habrá
que explicar como se obtiene el código y cómo se utiliza para llegar a la entra
léxica.
Los modelos que postulan un código de acceso explican su obtención
por "segmentación o fragmentación" de la entrada sensorial en unidades
lingüísticas discretas.
Hay ciertos trabajos sobre los procesos de segmentación en el acceso al léxico:
Unos destacan el papel de la sílaba como unidad de segmentación y como
código de acceso en el reconocimiento léxico.
Experimentos de detección de sonidos y sílabas auditivas (Mehter) hablaron
que el tiempo necesario para detectar una secuencia CV de una palabra era
menor si la secuencia constituía una sílaba de la palabra de la que formaba
parte que si la secuencia no correspondía una sílaba de la palabra en cuestión
y a la inversa.
Los primeros estudios en francés con francoparlantes mostraron
silabificación, tanto con materiales en francés como en inglés. No hubo
silabificación con angloparlantes tanto en inglés como en francés; tenían
tiempos de reacción menores tanto con secuencias CV que con CVC.
Se llegó a la conclusión con estos estudios de que las estregias de segmentación
del habla para el reconocimiento léxico y el tipo de código empleado no
siguen pautas universales sino que dependen de las características
idiosincráticas del sistema fonológico de la lengua materna de los oyentes. Las
lenguas con estructura silábica regular facilitan el uso de la sílaba como código
de acceso, mientras que las de estructura silábica irregular o ambigua ignoran
este tipo de unidad lingüística. El oyente no sólo aplica las estrategias de
segmentación propias de la lengua materna en su lengua, además las extrapola
hacia lenguas de características fonológicas distintas.
En cuanto a reconocimiento visual el código de acceso es la sílaba ortográfica
que es igual a la sílaba fonológica más tantas consonantes como permitan las
reglas ortográficas y morfológicas del idioma.
En los primeros estudios de reconocimiento visual de palabras en inglés la
segmentación basada en la sigla ortográfica reconocía en tiempos menores que
la basada en la sigla fonológica.
Estos resultados no se han podido repetir en lenguas de silabificación regular.
Estudios en castellano manifiestan la superioridad de la sílaba fonológica
sobre la ortográfica para el reconocimiento de palabras.

ETAPAS Y PROCESOS IMPLICADOS

La naturaleza del conocimiento léxico y de las representaciones de acceso al


léxico depende de la concepción que se tenga de las etapas y procesos
implicados en el reconocimiento de palabras, sin embargo, por encima de las
discrepancias entre los modelos existentes hay un acuerdo general sobre las
operaciones que requiere una tarea compleja como el reconocimiento de
palabras.
Estas son:
i. Contacto léxico inicial.
El reconocimiento comienza con la recepción de la onda sonora (habla) o
visual (escritura) y su transformación en representaciones que puedan ser
acopladas a representaciones internas de entradas léxicas.
Las representaciones de acceso están codificadas con base en las propiedades
formales de las palabras.Salvo en el caso de palabras poco frecuentes o con
pocos vecinos, el contacto léxico inicial suele activar una serie de posibles
candidatos léxicos llamados "cohorte inicial de palabras"
ii. Activación
Debido al contacto léxico inicial se activan las entradas léxicas de la "cohorte
inicial de palabras"
Se debate si todas las palabras activadas tras el contacto léxico inicial tienen
igual nivel de avivación.Todos los modelos contemplan que las palabras con
mas frecuencia de uso están mas disponibles o activadas por lo que es mas
probable que sean seleccionadas (Esto supone que se pueden cometer errores
en favor de palabras mas frecuentes leer o entender "graso" por "craso")
Los modelos interactivos dicen que la adecuación del contexto determina el
nivel de activación alcanzada en un momento dado.
iii. Selección.
Operación inversa a la activación; aquí se van desechando candidatos hasta
que sol queda uno.
Distintos modelos describen la selección de diferentes formas:
 1.Hay quien cree que el proceso de lección se verifica por la activación
diferencial de la "cohorte inicial". ; así, según se acumula evidencia
relevante los candidatos incompatibles con esa evidencia se van
inhibiendo.
 2.Otros hablan de una disminución progresiva del tamaño de la cohorte
de candidatos.
 3.Finalmente hay quien dice que la selección es un proceso de
búsqueda exhaustiva de candidatos a través de una lista de entradas
léxicas ordenadas por la frecuencia de uso.
iv. Reconocimiento.
Es el momento en el que la palabra es identificada inequívocamente.
Varios factores determinan el reconocimiento de una palabra:
 - Las propiedades "físicas" de la palabra (longitud,.. etc.)
 - Las propiedades intrínsecas (frecuencia de uso)
 - Número de vecinos.
Cabe plantearse, ¿El reconocimiento es cuestión de todo o nada? ¿A que
información se accede cuando decimos que reconocemos una palabra? ¿Qué
es reconocimiento?
 Los modelos interactivos equiparan reconocimiento y acceso al léxico.
 Modelo conexionista probabilística que admite variaciones continuas
en la activación de ls representaciones refleja lo que ocurre al reconocer
la palabra.
 Los modelos autónomos separan reconocimiento de acceso al léxico.
El reconocimiento es completo cuando el sistema establece una
correspondencia fiable entre la señal del estímulo y su entrada léxica.
Todo proceso posterior es post-léxico, incluso de recuperación de
información.
v. Acceso al léxico.
Proceso por el que las propiedades de las representaciones léxicas
almacenadas y a las que aún no se ha accedido se hacen disponibles al sistema
de comprensión del lenguaje para su uso posterior.
 · En los modelos autónomos o de dos etapas la información sobre las
palabras sólo está disponible cuan son reconocidas en virtud de sus
propiedades formales.
 · En los modelos interactivos o de una sola etapa la información se
activa simultáneamente a la descripción formal de la entrada léxica.
(nada mas producirse el contacto léxico inicial).

MODALIDADES SENSORIALES

Las investigaciones de reconocimiento auditivo de palabras son más tardías


que los de reconocimiento visual (con la excepción de los trabajos de Marsten
- Wilson con Tyler y con Welsh) y minoritarias. Esto se justifica diciendo que
los estímulos visuales so más fáciles de manipular.
Si las diferencias entre la percepción visual y auditiva de palabras no son muy
grandes los resultados de experimentos visuales se pueden extrapolar a
palabras habladas; pero si las diferencias son sustanciales habrá que hacer
teorías exclusivas y separadas para los procesamientos visual y auditivo.
Ya en el capítulo anterior vimos que las diferencias entre percepción visual y
auditiva del lenguaje no es sólo una cuestión de transducción sensorial; en lo
que se refiere a reconocimiento de palabras, el sistema de reconocimiento de
palabras trabaja bajo mayor presión temporal cuando se trata de palabras
habladas que cuando son escritas. En el lenguaje hablado hay que explotar
todos los recursos de información de que dispone el sistema por eso se cree
que los subprocesos de reconocimiento léxico funcionan de forma interactiva
y en paralelo. Por el contrario se supone que el reconocimiento visual pueda
distribuir sus recursos de forma más ordenada y sistemática.
A pesar de las diferencias las dos tareas tiene un objetivo común: Qué
comprensión de los estímulos recibe el perceptor; por eso se puede suponer
que en las etapas de acceso al significado léxico o en los procesos post-léxicos,
ambas tareas tienen que compartir muchos recursos.
No parece lógico que haya dos inventarios separados para los significados
léxicos dependiendo de cómo se perciba el lenguaje; pero ¿En qué punto de
las operaciones mentales desaparecen las diferencias entre los procesos de
comprensión lectora y auditiva del lenguaje? (Bradley y Foster)
RUTAS DE ACCESO AL LÉXICO

Para algunos autores el nivel de procesamiento en que convergen los dos


procesos es el nivel léxico. Por eso los modelos de esta perspectiva (Hipóteis
de la ruta dual) hablan de dos sistemas independientes de reconocimiento de
palabras:
A para palabras habladas, a través de la ruta fonológica, y B para palabras
escritas ( a través de la ruta directa = representación ortográfica o por la
ruta "indirecta" = a representación fonológica.
Grosjean y Gee dicen que el reconocimiento del habla en un discurso tiene
como punto de partidas las sílabas tónicas de las palabras mientras que las
sílabas débiles se identifican "a posteriori" mediante procesos de
reconocimiento de patrones que utilizan información acústica, segmental,
morfosintáctica y semántica. Estas constricciones suprasegmentales no existen
en el lenguaje escrito.
Otros autores dicen que la convergencia entre procesos de reconocimiento
auditivo y visual se hace antes de acceder al léxico. (Hipótesis de la ruta única).
Postulan un código preléxico ( representación fonológica de la palabra, en la
lectura hay que "recodificar" el estímulo visual a su descripción fonológica)
común de acceso para materiales visuales y auditivos, por eso ha llamado
hipótesis de la remodificación fonológica, y se apoya en que la percepción del
habla y el reconocimiento auditivo del lenguaje son procesos universales,
mientras que la lectura no lo es y que las habilidades lectoras surgen después
que las habilidades de percepción del habla y se adquieren mediante
instrucción explícita.
La recodificación fonológica es obligatoria y se hace por reglas de conversión
grafémico-fonémica.
Ventajas e inconvenientes de la hipótesis de la ruta única:
Aunque el código fonológico es indispensable para adquirir la lectura no
parece "económico" ya que da mas trabajo al procesador perceptivo. Además
en las lenguas de ortografía irregular la ruta fonológica no puede dar cuenta
de la lectura de palabras ortográficamente irregulares. Igualmente inadecuado
resulta para lenguas ideográficas como el chino.

PRUEBAS EMPÍRICAS RELATIVAS A LAS RUTAS DE ACCESO

Evidencia experimental.
Pese a las inconsistencias teóricas hay pruebas de medicación fonológica
palabras escritas:
1.- Una prueba es que las palabras de ortografía irregular tardan más en ser
reconocidas. (No sería así si ambas clases de palabras fueran reconocidas
indistintamente a través de la ruta visual.)
2.- En un conocido experimento de reconocimiento léxico (Lewis y
Rubesnstein) los lectores tardaban mas en rechazar "pseudo-
homófonos" (pseudo-palabras que se pronuncian de forma idéntica a la
palabra real) que "pseudo-palabras".
Se interpretó como indicio de que se identifica a partir de la pronunciación
de la palabra.
3.- Mayor, Schvameveldt y Urdí pedían a los sujetos que respondieran a pares
de estímulos, algunos formados por palabras de ortografía semejante que
además rimaban y otros con ortografía semejante pero sin rima.
Los juicios léxicos más rápidos fueron en los pares ortográfica y
fonológicamente semejantes.
Se han juzgado estos datos (Garnham y Forster) como pruebas que muestran
recodificación fonológica sólo de forma indirecta y circunstancial ya que las
tareas a realizar pueden incluir procesos posteriores al propio proceso de
reconocimiento como tal.
Por eso estos datos no demuestran claramente que la recodificación sea un
proceso obligatorio para identificar palabras escritas, (aunque pueda ser una
estrategia de apoyo cuando el sistema visual de acceso fracasa y puede que
desempeñe un papel relevante en procesos post-léxicos de comprensión de
oraciones, al permitir primero un acceso visual y luego uno fonológico al
estímulo evitando que haya que retroceder constantemente en la lectura;
Foster).
Por otra parte y aunque se apoye la ruta fonológica, no excluye que pueda
haber uso de la ruta visual de acceso al léxico.
Las pruebas a favor de la ruta dual (independencia de ruta visual y fonológica
de acceso al léxico) vienen de dos fuetes:
1.Estudios experimentales: Estudio de Kleiman con dos tareas simultáneas:
 · Clasificar palabras visualmente; unas veces decir si dos palabras tenían
significados parecidos o estaban semánticamente relacionadas y otras
vecesdecir si dos palabras rimaban.
 · Mientras realizaban estas tareas tenía que repetir en voz alta una
secuencia de números que escuchaban por unos auriculares.
Se observó que la repetición de números (tarea que probablemente requiera
recursos fonológicos) interfería con los juicios de rima pero no con los
semánticos, lo que indica que el acceso del código fonológico es necesario
para realizar eficazmente ciertas clases de tareas en la lectura pero no todas.
Otros estudios muestran que las diferencias en el tiempo de reconocimiento
de palabras regulares e irregulares desaparecen si son palabras de alta
frecuencia (Seidenberg) y cuando se induce a los sujetos a responder con
rapidez (Stanovich y Baner); esto es, cuando se obstaculizan los procesos post-
léxicos de apoyo que parecen ser los responsables de la recodificación
fonológica.
2. Trastornos neurológicos de la lectura. (dislexias)
La sintomatología de las dislexias originadas en una lesión neurológica local
presenta pautas altamente selectivas y complementarias de déficit y
conservación:
 · Algunos parecen tener inutilizada la ruta visual aunque está
prácticamente intacta la fonológica (dislexia superficial) y son incapaces
de leer correctamente las palabras regulares, se confunden entre
palabras homófonas y hacen regulares las palabras ortográficamente
irregulares; pero leen sin problemas las palabras regulares y las psudo-
palabras.
 · La dislexia fonológica hace que les sea difícil leer palabras
infrecuentes o desconocidas (que requiere análisis fonológico) mientras
que leen normalmente las palabras familiares. Se dice que es un
trastorno selectivo de la ruta fonológica y sólo se usa la ruta visual.
 · Finalmente, los disléxico-profundos no pueden leer pseudo-palabras
y cierto tipo de palabras (verbos y palabras con significado abstracto) y
cometen errores semánticos de sustitución de palabras. Es un trastorno
de tanto alcance que no es pertinente para discriminar las rutas de
acceso al léxico.
La mayoría de los autores hablan de la coexistencia de dos rutas de acceso,
una léxica o visual y otra fonológica (no léxica) y el empleo de una u otra
depende de varios factores tanto léxicos como idiomáticos;
En lo que a factores léxicos se refiere, las palabras más frecuentes se
reconocen por la ruta visual y las menos frecuentes o desconocidas por la
fonológica. Las irregulares por la visual.
En lo referente a factores idiomáticos y teniendo en cuenta que hay lenguas
ortográficamente transparentes y opacas, señalaremos que cuanto mas opaca
e irregular mas fácilmente se accederá por una ruta directa = visual y viceversa.
Finalmente, se supone que según aumenta la destreza lectora del individuo se
van abandonando las estrategias analíticas de la lectura y se van automatizando
los procesos de acceso individual a las entradas léxicas almacenadas en la
memoria.

METODOS DE ESTUDIO DE LA COMPRENSIÓN DE PALABRAS

El reconocimiento de palabras es difícilmente observable de forma directa.


Por ello hay que diseñar diseños indirectos. Casi todos estos procedimientos
se basan en la observación y registro del tiempo invertido por oyentes y
lectores en realizar tareas de identificación lingüística.
En condiciones ideales de máximo control, se cree que el tiempo invertido en
esas tareas muestra el grado de complejidad de los procesos que subyacen.
 · Algunas tareas permiten observar los procesos subyacentes de forma
simultánea y concurrente a su desarrollo en tiempo real; son las: tareas
en curso, sobre la marcha o simultáneas (online).
 · Otras recogen respuestas posteriores y se
llaman: procedimientos fuera de curso o sucesivos (off-line).
La mayoría de los procedimientos son aplicables tanto a la modalidad visual
como a la auditiva (se da por válido el que los mecanismos asociativos de
reconocimiento léxico son iguales en la visión y en la audición). Pero hay
algunas tareas diseñadas para una modalidad en particular.

PROCEDIMIENTOS DE MEDICIÓN DEL TIEMPO

· Procedimiento fuera de curso o sucesivos (off-line).


Estos procedimientos se exige al sujeto perceptor producir una respuesta
motora consciente ante un determinad estímulo.
 - El más tradicional es la identificación taquistoscópica de estímulos
visuales, en que se presenta al sujeto, secuencias de letras (palabras, no-
palabras o secuencias aleatorias) con periodos breves de exposición que
se van alargando progresivamente, para ver que puede identificar el
sujeto con cada tiempo de exposición (osea, su umbral de identificación
para diferentes clases de estímulos.
Tiene un serio inconveniente, ya que no fuerza al sujeto a dar una
respuesta rápida y facilita las estrategias post-perceptivas.
 - Una variante que intenta resolver este problema es la tarea de decisión
léxica; en la que se muestra al sujeto una secuencia de letras (o fonemas)
para que la clasifique lo más rápidamente posible como palabras o no-
palabras, pulsando un botón para palabras y otro para no-palabras. Se
suelen presentar palabras y no palabras entremezcladas en listas
aleatorias y en cada ensayo se da una sola secuencia para su
identificación. Se supone que para realizar la tarea el sujeto tiene que
consultar su léxico mental. Para hacer la estimación adecuada del
tiempo de reconocimiento es preciso restar al tiempo total en tomar la
decisión (550 mseg.) el tiempo empleado en la respuesta motora.
Al tratarse de una tarea "decisional" no ha logrado erradicar totalmente la
presencia de efectos post-léxicos.
 - Se puede eludir este problema rebajando al máximo la necesidad de
tomar decisiones conscientes durante la identificación. Por eso se
inventó el procedimiento de denominación (raming) que consiste en
pronunciar en voz alta y lo más rápido posible un estímulo verbal
presentado visualmente.
Mediante un sensor de voz o "llave local" conectado al medidor del TR
se registra el tiempo entre la presentación del estímulo y la emisión de
la respuesta. Esta tarea no implica decisiones conscientes. El supuesto
básico es que el tiempo necesario para pronunciar el estímulo viene
determinado por la disponibilidad de representaciones léxicas que
correspondan a la entrada sensorial; así cabe esperar ventajas de las
palabras sobre las no-palabras o de las palabras mas frecuentes sobre
las menos familiares.
En la medida en que los resultados de estas dos técnicas coincidan, habrá
evidencia convergente sobre las determinantes de la complejidad de los
procesos de acceso al léxico mental.
· Procedimientos en curso o sobre la marcha (online).
En los procedimientos de detección de estímulos (monitoring) el sujeto ha de
responder (con un botón) cada vez que identifique un estímulo lingüístico
(fonema, sílaba o palabra) estipulado de antemano. El tiempo de detección
refleja el trabajo cognitivo que está realizando el sujeto.
A menudo se combina con tareas de reconocimiento de palabras, de forma
aislada o en contexto.
La detección de sílabas se ha utilizado en estudios sobre la naturaleza de las
representaciones de acceso al léxico y la detección de fonemas en
experimentos sobre reconocimiento de palabras ambiguas en contexto.
 - Un método muy fructífero empleado para la modalidad auditiva es
el paradigma de apertura sucesiva y consiste en la presentación sucesiva
de segmentos cada vez mayores de la onda sonora de una palabra, en
incrementos de 30 mseg. cada uno. El sujeto ha de intentar identificar
el estímulo que se le presenta en cada ensayo. El objetivo fundamental
de esta técnica es destacar los determinantes prosódicos del
reconocimiento léxico en la modalidad auditiva y la dependencia
contextual que guía la identificación de palabras habladas( contrastando
con lo que ocurre en el reconocimiento visual)
 - También fructífero pero utilizado en el reconocimiento visual es
el registro de movimientos oculares.
El mayor atractivo de esta técnica es que apenas se dan decisiones conscientes
y su cercanía al reconocimiento de forma natural. Por el contra, su mayor
inconveniente es saber que aspectos del movimiento son atribuibles a las
variaciones a los que se someten esta clase de respuestas motoras.
EFECTOS EXPERIMENTALES REGISTRADOS

Aquí trataremos fenómenos contrastados y replicados y que pueden


considerarse factores determinantes del tiempo de reconocimiento o de
acceso a las palabras del léxico mental.
1. Frecuencia de uso de palabras.
Las palabras mas familiares o mas usadas se reconocen más rápidamente. El
efecto de frecuencia se mantiene relativamente constante a través de diferentes
tareas experimentales; así, las palabras de frecuencia de uso tienen mayores
latencias de decisión y tardan mas en ser nombradas; aunque se ha observado
que la magnitud del efecto de frecuencia es menor sobre la tarea de
denominación que sobre la decisión léxica.
Se ha desatado polémica sobre el presunto efecto diferencial de la frecuencia
de uso de los vocabularios de clase abierta y de clase cerrada.
Bradley observó que la frecuencia sólo afecta a elementos léxicos de clase
abierta (nombres, verbos y adjetivos) y no a los de clase cerrada (artículos,
preposiciones y conjunciones).
Este resultado (replicado en Castellano) justifica la hipótesis de que hay
mecanismos independientes de acceso a estas dos clases de vocabulario:
 · Las palabras de contenido se reconocen mediante mecanismos
sensibles a la frecuencia (mecanismos de activación, selección o
búsqueda)
 · Las palabras funcionales se identificarían en el contexto estructural de
la oración por mediación de procesos de análisis sintáctico.
Otra prueba de lo que estamos viendo es que los pacientes agramáticos (que
sufren una alteración selectiva del procesamiento sintáctico) no muestran esa
sensibilidad diferencial de los vocabularios abierto y cerrado al efecto de
frecuencia; siendo ambos vocabularios, en estos pacientes, sensibles a la
frecuencia de uso.
Aún así no se ha podido replicar en otros experimentos [La sensibilidad de
los vocabularios de clase abierta y cerrada a la frecuencia de uso].
2. Palabras versus no-palabras
El tiempo que se tarda en aceptar cierto estímulo como palabra es inferior al
invertido en rechazar las no-palabras, incluso si se trata de palabras
infrecuentes. Además una no-palabra tarda mas en se rechazada si se parece
a una palabra.
Esto solo ocurre si las no-palabras tiene secuencias de letras que respeten las
restricciones fonológicas y ortográficas de la lengua.
Esta mayor latencia de respuesta a las no-palabras legales se cree que es indicio
de que el sujeto efectúa una búsqueda es su léxico interno que finalmente
acaba en fracaso.
Un fenómeno derivado del efecto palabra versus no-palabra es el "efecto de
interferencia"; que consiste en el aumento de la latencia de respuesta a no-
palabras cuya porción inicial es una palabra real.
Este efecto se explica en virtud de un sesgo de respuesta inducido por la
presencia en la no-palabra de un elemento léxico que induce a una respuesta
afirmativa incorrecta.
3. Efecto de priming.
Este factor tiene que ver mas con las condiciones de presentación de los
estímulos que con propiedades intrínsecas de las palabras. Así, la presentación
de ciertos estímulos léxicos antes de una palabra crítica pueden facilitar o
dificultar su reconocimiento, si tienen alguna relación con ella. A esos
estímulos se les llama "primos" y al efecto que producen "priming".
Los efectos de priming mas contrastados en investigación son el de repetición
y el semántico; el de repetición consiste en la menor latencia de respuesta a
una palabra cuando ha sido presentada con anterioridad en la misma lista u
oración.
El semántico resulta facilitador de la respuesta cuando la palabra que hace de
prime tiene un significado similar o está relacionado con la palabra crítica.
La magnitud de este efecto está en torno a los 80 msg. (valor bastante elevado)
También existe el priming contextual en el que si el fragmento de oración
anterior a la palabra crítica hace que esta sea predecible o adecuada a ese
contexto.
Hay que señalar que el "priming" solo es efectivo con palabras reales (sólo el
de repetición afecta igual a palabras y a no-palabras) lo que demuestra que se
trata de un efecto lingüístico no imputable a semejanzas perceptivas.
El "priming" ha sido explicado por diferentes autores:
Algunos hacen una explicación intraléxica o autónoma, según la cual la
presentación del prime en el priming de repetición origina una "apertura" de
la representación léxica en la memoria y al presentar luego la palabra ya esta
pre-activada y el tiempo se reduce. Lo mismo ocurre en el priming contextual;
la activación se da por asociaciones de entradas léxicas del mismo campo
semántico.
Los modelos interactivos hablan de la influencia de los factores extraléxicos
en el procesamiento de palabra, sobre todo representaciones supraléxicas que
ejercen influjo de arriba-abajo sobre los procesos de reconocimiento de
palabras.
4. Ambigüedad léxica.
La ambigüedad se utiliza para poner al descubierto aspectos ocultos de los
procesos de comprensión del lenguaje.
Un aspecto es la relación entre la forma y el significado de los mensajes
verbales.
En la mayoría de las ocasiones disponemos de información del contexto que
nos permite determinar el significado adecuado. Nos planteamos si cuando
oímos o leemos una palabra ambigua se nos hacen presentes todos sus
significados o sólo 1 de ellos. Y las posibles explicaciones son de dos clases:
1. Acceso directo; dice que guiados por el contexto sólo se activa un
significado de la palabra y 2. Acceso múltiple; dice que se activan todos los
dignificados y la elección del correcto se hace en una etapa post-léxica
(interpretación)
Las pruebas mas interesantes a favor de la primera hipótesis se han obtenido
en experimentos sobre juicios de ambigüedad y en estudios de priming léxico
a contextual.
Los resultados indican que los sujetos no suelen detectar la ambigüedad léxica
si ésta está en un contexto fuertemente predecible o si el significado de la
palabra ambigua es el más habitual.
Schvameveldt, Mayor y Becker hallaron que la latencia de decisión ante una
palabra crítica se reducía si la palabra iba precedida de un vocablo ambiguo
que había sido primado de acuerdo con un significado relacionado con la
palabra crítica mientras aumentaba, si el priming facilitaba un significado
alternativo.
Los datos para apoyar los modelos de acceso múltiple vienen de
procedimientos fuera de curso (off-line) y solo pueden averiguar lo que sucede
después del reconocimiento no durante.
Parece indudable que el contexto elimina la ambigüedad, pero los modelos
de acceso múltiple dicen que el efecto del contexto es post-léxico (después de
haber reconocido la palabra y todos sus significados).
Las primeras pruebas de que se reconocen todos los significados de la palabra
ambigua se dieron en tareas en curso (on-line) como la detección de fonemas
donde se observó que cuando el fonema crítico seguía inmediatamente a una
palabra polisémica, la latencia de detección aumentaba con respecto a la de
palabras no ambiguas.
La evidencia más contundente viene de experimentos de priming transmodal,
que combina la presentación visual y auditiva de estímulos (Swinney y
Slidenberg). El procedimiento consistía en presentar auditivamente pasajes
que servían de contexto (a veces neutro, a veces sesgado) y que contenían una
palabra ambigua. Tras escuchar la palabra ambigua, visualmente se presentaba
otra que podía o no guardar relación con los significados de la ambigua.
Se emplearon tareas de decisión léxica y denominación y se incluyeron dos
condiciones de presentación de la palabra visual:
1. inmediatamente después de la palabra ambigua, 2. tres o cuatro sílabas más
tarde.
Los resultados mostraron que el efecto desambiguador del contexto sólo se
deja sentir tras una breve demora, durante la que se produce un acceso rápido,
automático e inconsciente, guiado por la forma; a todos los significados de la
palabra.
MODELOS DE RECONOCIMIENTO DE PALABRAS

Ya hemos hablado de dos modelos de reconocimiento léxico, los autónomos


(o de dos etapas) y los interactivos (o de una etapa).
Se diferencian en el grado de encapsulamiento de que gozan los procesos de
reconocimiento de palabras; los interactivos postulan un influjo temprano (y
poco restringido) de representaciones supraléxicas sobre los procesos de
identificación de palabras y de información perceptiva procedente de la señal.
Los modelos autónomos hablan de procesos destinados a recuperar entradas
léxicas, que funcionan a partir de representaciones perceptivas y en ellos no
influyen variables contextuales de orden superior.
Entre unos modelos y otros está el modelo mixto de Marslen-Wilson y postula
una fase inicial de carácter autónomo y otra con interacción entre distintas
clases de información.

MODELOS INTERACTIVOS DE PROCESAMIENTO LÉXICO

Modelo logogén (Morton).


Los modelos de reconocimiento de palabras que adoptan postulados
interactivos se llaman "modelos de activación" porque utilizan la activación
como constructo explicativo de los procesos de identificación léxica. El más
tradicional es el logogén.; es de acceso directo e interactivo ya que admite el
acceso simultáneo del sistema de reconocimiento de palabras dos fuentes de
información; la sensorial y la sintáctica y semántica del contexto. Cada palabra
está representada en el léxico mental por mi "logogén" o dispositivo de
detección sensible a diferentes tipos de información que registra pasivamente
las características relevantes de cada pieza léxica.
El logogén sería como un receptáculo que acoge información de diferentes
tipos y que responde a la información que va acumulando una vez que alcanza
su "punto de saturación". Según un logogén recibe información su nivel de
activación aumenta hasta alcanzar un umbral (diferente para cada logogén)
que es cuando el logogén se dispara y se reconoce la palabra. Los logogenes
reciben información de dos fuentes: de la entrada sensorial (información
acústica y gráfica) y del contexto lingüístico (información sintáctica y
semántica).
En la primera formulación, sólo había un sistema de logogenes común para
identificar palabras orales y escritas, pero hallazgos experimentales como la
ausencia de efectos transmodales en las tareas de priming hicieron que se
postulasen dos sistemas independientes de reconocimiento léxico, uno visual
y otro auditivo. Más tarde se añadieron otros dos sistemas de logogenes de
salida, responsables de la producción oral y escrita de palabras.
Al haber dos sistemas de logogenes diferentes de entrada no hay influencia
del sistema visual a oral y viceversa. Esto es lo que mas se le ha criticado ya
que hay pruebas de que a veces hay interferencias de ciertas tareas fonológicas
sobre el procesamiento visual.
Este modelo impide que se postule una representación fija de acceso; se
parece mas bien a una competición en la que varios logogenes van
acumulando activación simultáneamente y en paralelo hasta que uno alcanza
el umbral de disparo, entonces se compara una entrada sensorial con
representaciones léxicas almacenadas en la memoria. En esta competición, las
palabras de mayor frecuencia de uso llevan ventaja porque sus umbrales de
activación son más bajos.
Modelo TRACE de reconocimiento de palabras.
Es un modelo conexionista (de activación interactiva) Desciende le modelo
logogen.
Consta de una red de nodos que representan rasgos acústicos, fonemas y
palabras. Igual que los logogenes, las unidades de representación de la red
presentan un nivel de activación que se puede modificar por la activación que
se propaga desde los nodos con que están conectados. Las conexiones entre
diferentes niveles de representación son excitatorias y bidireccionales, y las
conexiones internas a un mismo nivel aunque también bidireccionales, son
inhibitorias.
La palabra que obtenga mayor activación diferencial será reconocida por el
sujeto. Según esta descripción la activación crea más activación. Es interesante
destacar el carácter progresivo ya que el patrón de activación se va
consolidando a medida que recibes información estimular, así en un principio
la activación es mayor en los niveles inferiores (rasgos y fonemas) y los nodos
de palabra no empiezan a activarse hasta que no están sustancialmente
activados los nodos de fonemas.
Esto explica que los efectos léxicos sobre el reconocimiento de fonemas sean
mayores al final de la palabra que al principio. Este modelo también explica
ciertos efectos excitatorios del contexto previo sobre el reconocimiento de
palabras.
Estas y otras precisiones cuantitativas de los modelos conexionistas,
constituyen innovaciones con respecto al logogen y a la vez permiten que estos
modelos tengan la capacidad de fijar con mayor precisión los parámetros
relevantes de los procesos de reconocimiento e imponer restricciones a la
interacción entre niveles o fuentes de información.
En estos modelos se entiende que las palabras mas frecuentes presentan
conexiones con pesos mas elevados entre los nodos de rasgos, fonemas y
palabras.
Y mientras que el "priming" de repetición produce efectos excitatorios,
el "priming" fonológico (con palabras semejantes, pero no idénticas a la crítica)
origina efectos inhibitorios. Este efecto se atribuye a la competición que se
genera en el nivel léxico, entre los nodos de palabras que tienden a inhibirse
mutuamente.
Hay distintas versiones de modelos conexionistas algunos bastantes
divergentes, no todos postulan conexiones inhibitorias intranivel, ni todos
atribuyen carácter simbólico a los nodos del sistema. Aún así todos igual que
el modelo de logogen son de acceso directo y rechazan las representaciones
directas de acceso al léxico, a la vez que admiten la idea de que el contexto
extraléxico (sintáctico y semántico) puede interferir en los procesos de
reconocimiento.

MODELOS AUTÓNOMOS DE COMPRENSIÓN DE PALABRAS

El modelo de búsqueda (Forster), es una caraterización abstracta de la


operaciones de identificación léxica, que se hayan organizadas en dos etapas:
1. Procesos de recuperación de la forma y 2. Procesos de recuperación del
significado.
En la primera etapa se compara la representación perceptiva del estímulo con
su representación fonológica u ortográfica, esto ocurre en un almacén
periférico que contiene entradas léxicas de mayor a menor frecuencia con una
especificación de la estructura fonológica u ortográfica de cada palabra mas
los codigos de acceso (sílabas) que permiten el contacto léxico inicial.
Hay tres archivos perféricos:
1. Ortográfico (entradas visuales), 2. Fonológico (entradas auditivas) y 3.
semántico (empleado en la producción de palabras).
La comparación se realiza mediante una búsqueda serial y exhaustiva. Una
vez localizada se pasa en la segunda etapa a otro archivo denominado archivo
central, en el que están representadas las propiedades sintácticas y semánticas
de las palabras. En esta etapa se dan comprobaciones post-acceso que sirven
para revisar y confirmar la selección y poner la disposición de los procesos
subsiguients de comprensión lingüística.
Un aspecto a destacar es el postulado de que la búsqueda en los archivos
periféricos es serial a diferencia de los modelos interactivos en los que la
búsqueda era paralela o simultánea. Forster trata de ofrecer una
caracterización abstracta del procesamiento léxico sin querer simular lo que
ocurre en el cerebro cuando se reconocen palabras.
Desde el punto de vista computacional el mecanismo de búsqueda tiene la
ventaja de no precisar la localización exacta de las entradas léxicas sino que
basta con su localización aproximada lo que supone un ahorro a la hora de
diseñar la forma del almacenamiento de las entradas léxicas en nuestro
diccionario mental.
Por otra parte, el mecanismo de búsqueda permite dar cuenta de los efectos
experimentales antes reseñados:
El efecto de frecuencia se explica en virtud de la ordenación de las entradas
léxicas en los archivos periféricos donde los elementos más frecuentes, están
antes que los menos frecuentes. Pero eso también significa que para identificar
una palabra habrá que efectuar una búsqueda a través de todo el archivo
periférico y ese procedimiento seria poco económico y además ignoraría la
información que proporciona la entrada sensorial. Para evitar esto se postula
que las entradas léxicas de los archivos periféricos se organizan en
compartimentos en función de sus características perceptivas, así en cada
compartimento se agruparían por orden de frecuencia todas las entradas que
compartieran el mismo código de acceso.
El efecto palabra versus no-palabra, sobreviene a consecuencia de una
búsqueda infructuosa (y exhaustiva) en los archivos perféricos. Al ser la
búsqueda exhaustiva las no palabras tardan mas en ser rechazadas.
Los efectos contextual y de priming obedecen a conexiones entre
representaciones semánticas de las entradas léxicas en el archivo central.

MODELOS MIXTOS DE COMPRESIÓN DE PALABRAS

El modelo de cohorte (Marslen-Wilson), es un modelo mixto que postula dos


etapas ordenadas secuencialmente una autónoma y otra interactiva; la
autónoma tiene por objeto, la activación simultánea de una cohorte de
candidatos léxicos y se basa en propiedades acústico fonéticas de las entradas
sensoriales.
En la etapa interactiva se selecciona el candidato óptimo mediante
desactivación de los candidatos incompatibles, con las propiedades
perceptivas de la entrada sensorial y las características del contexto.
Así ser reducen progresivamente la cohorte hasta que queda una sola entrada
léxica.
Un factor determinante del proceso de reconocimiento de este modelo es el
"punto de unicidad o punto optimo de reconocimiento" a partir del cual el
candidato léxico es discriminado definitivamente de los restantes. Este punto
define la duración máxima de la etapa acústico-fonética inicial.
Sin embargo este límite se reduce cuando la palabra está en una oración ya
que en este caso se aprovechan los factores contextuales para reducir la
cohorte sin explotar las propiedades acústico fonéticas del estímulo. Por ello,
el proceso de reconocimiento de palabras habladas en contexto tiene latencias
muy breves.
Esto explica también que la unidad que sirve de código de acceso a la palabra
varíe mucho para este modelo, ya que la cantidad de información perceptiva
necesaria para establecer el contacto léxico-inicial depende de la información
supraléxica disponible en cada caso.
Este modelo tiene dos inconvenientes:
1. La dificultad para dar cuenta del efecto de frecuencia y 2. La incapacidad
para explicar como logra el sistema recuperarse de los errores y corregirlos.
En lo referente al punto uno, Marslen-Wilson ha incorporado a su modelo la
noción de activación para explicar porque cuando dos palabras comparten el
mismo punto óptimo de reconocimiento se identifica antes la palabra mas
frecuente.
Sin embargo la activación en este modelo no tiene justificación empírica
independiente; algo parecido ocurre con los errores, tal y como está diseñado
el modelo si se da un error perceptivo de pronunciación en la porción inicial
de la palabra no se podrá corregir sobre la marcha, ya que según la hipótesis,
la cohorte inicial de palabras, sólo tendrá los candidatos que empiecen por la
secuencia original.
También Marslen-Wilson, trata de solucionarlo permitiendo una
preselección en la cohorte inicial de elementos de aquellos que guarden
semejanza acústica global y no una estricta identidad como planteaba al
principio.

COMPRENSIÓN DE ORACIONES

INTRODUCCIÓN LA COMPRENSIÓN DE ORACIONES

Por muy amplio y sofisticado que sea nuestro conocimiento léxico y por muy
rápidos y eficaces los procesos o estrategias que empleamos en recuperar el
significado de las palabras, todo ello sería de escasa utilidad si no tuviéramos
al mismo tiempo la capacidad de organizar o combinar los significados léxicos
individuales en unidades más complejas como las oraciones, y de analizar e
interpretar estas unidades complejas de significado mediante las cuales
representamos transmitimos hechos e intenciones comunicativas a nuestros
interlocutores.
El acceso al significado de las palabras que integran estas oraciones es
condición necesaria, aunque no suficiente para comprender su significado. Se
trata de elaborar una representación mental del contenido proposicional de
los mensajes, entendiendo por ello una representación que especifique los
predicados, o sea, las acciones, sucesos o relaciones descritos por la oración y
los argumentos o papeles que desempeñan los conceptos o entidades que
participan en tales acciones o sucesos.
Para comprender una oración es necesario emplear conocimientos y
estrategias que van más allá de la mera combinación de significados léxicos
individuales con arreglo a estrategias heurísticas y restricciones conceptuales y
de conocimiento mundano: es necesario analizar también la estructura de los
mensajes.
Estos mecanismos son en su mayoría inconscientes y operan de forma
automática y muchas veces predictiva, lo que a veces puede inducir a error:
cuando el sistema de comprensión cree descubrir una expresión estructural y
semánticamente completa tiende a dar por terminada e interpretada la
oración. Sin embargo, al recibir el fragmento siguiente, el procesador advierte
que este fragmento debe ser adjuntado a la oración en curso, por lo que se ve
obligado a revisar su interpretación inicial y elaborar una nueva (Oraciones de
vía muerta o garden path: ej.: A Pedro le secuestró un gángster su novia)
Resumiendo, los procesos semánticos de asignación de argumentos o papeles
temáticos a las entidades de la oración mantienen una dependencia directa
con respecto a los procesos de análisis de la estructura.
Uno de los problemas más importantes de la comprensión de oraciones es
precisamente el de determinar las relaciones que existen entre estas dos clases
de proceso, o sea, el grado de autonomía o de dependencia entre ellos.
Sin embargo, es necesario considerar otro tipo de demandas cognitivas no
menos importantes que las anteriores que plantea la comprensión de
oraciones.
El significado de los mensajes verbales no se agota en su representación
semántica o contenido proposicional, sino que incluye también un
componente pragmático o comunicativo relativo al intercambio de
intenciones entre los interlocutores. En la medida en que la fuerza ilocutiva es
un componente más del enunciado verbal, también ha de ser objeto de
interpretación por parte del sujeto que comprende, y requiere por ello una
explicación psicológica.
Cualquier oración se produce e interpreta en un contexto comunicativo: para
entenderlas no basta con atribuirles una representación semántica de
naturaleza proposicional. En ciertos casos las oraciones carecen de valor de
verdad (interrogativos e imperativos) y en otros muchos difícilmente se puede
interpretar su auténtico sentido (ironía, metáfora) sin tener en cuenta el
contexto conversacional o interpersonal que les rodea. En estos caso, pues,
no cabe hablar tanto de la verdad o falsedad del mensaje, sino más bien de su
adecuación o relevancia dentro de un contexto dado.
Si bien es evidente que para entender esta clase de mensajes sigue siendo
necesario derivar sus estructuras sintáctica y semántica, no lo es menos que
para lograr una comprensión cabal de los mismos hay que trascender su
significado literal y descubrir el sentido indirecto oculto, en definitiva el
significado que interesa.
Para que la comprensión sea efectiva es necesario que hablante y oyente
compartan, además de un código lingüístico común, una serie de
conocimientos extralingüísticos relativos al discurso, situación y estados
mentales del interlocutor. Una teoría de la comprensión del lenguaje debe
abordar estos fenómenos, de lo contrario quedaría excluida la explicación de
la forma en que los humanos interpretamos y producimos actos
comunicativos habituales como peticiones, promesas, ruegos, compromisos,
ironía, humor o metáforas, casos todos ellos de habla indirecta o
pragmáticamente marcada

COMPONENTES DEL PROCESAMIENTO DE ORACIONES

La comprensión de oraciones se compone de dos procesos: el análisis


sintáctico y la interpretación semántica.
 Análisis sintáctico: parsing, proceso cognitivo que consiste en asignar
una estructura de constituyentes a la oración. Para ello es necesario
establecer las relaciones estructurales entre las palabra y entre otros
constituyentes oracionales más amplios
 Interpretación semántica: proceso de asignación de papeles temáticos
a los constituyentes oracionales con vistas a recuperar la representación
proposicional del enunciado. Cada sintagma de la oración debe recibir
un papel semántico y todos estos papeles se deben organizar en torno
a un predicado que define la estructura semántica del mensaje.
Altman Mientras que el análisis sintáctico consiste en la asignación de
categorías gramaticales y relaciones estructurales a los constituyentes de la
oración (al margen del su significado), la interpretación consiste en la
integración de información suministrada por los propios constituyentes y por
las dependencias estructurales que existen entre ellos en una representación
interna de los sucesos descritos en la oración.
Esta distinción dista mucho de ser unánimemente aceptada por los estudiosos
de la comprensión del lenguaje, ya que da a pie a defender el postulado de
que el análisis sintáctico es un proceso autónomo con respecto a la
interpretación semántica en la comprensión del lenguaje (y porque si se ponen
de acuerdo revientan)
Una condición previa para interpretar cualquier enunciado lingüístico es
acceder a los significados de las piezas léxicas que lo integran. A continuación
el oyente tiene que descubrir las relaciones funcionales entre esos significados
léxicos, con vistas a asignar una estructura a la secuencia de palabras que
forman la oración. Por último, es necesario atribuir un significado global al
enunciado, lo que supone derivar una representación mental de la misma
formulada en un código de otra naturaleza.
O sea, los componentes de procesamiento son:
1. Segmentación de una representación de entrada en unidades estructurales
Tales como las cláusulas o los sintagmas, lo que supone determinar las
fronteras entre dichas unidades y agrupar las palabras que pertenecen a cada
unidad (o sea, partir la frase en trozos que van juntos)
2. Asignación de papeles estructurales o etiquetas sintácticas a los
constituyentes lingüísticos segmentados.
Se reconoce la categoría gramatical de las piezas léxicas que constituyen
núcleos de sintagmas, con vistas a establecer la identidad de estos. Esto sirve,
a su vez, para identificar el papel que desempeña cada constituyente en la
estructura de la oración (sintagmas nominales, verbales, adjetivales...)
3. Establecimiento de dependencias o relaciones entre los constituyentes
segmentados y etiquetados.
Este proceso implica la reconstrucción de la estructura jerárquica de
constituyentes sintácticos o marcador sintagmático. El marcador sintagmático
refleja las relaciones estructurales entre las distintas partes de la oración, lo
que indica el nivel de jerarquía en que se halla cada constituyente y las
relaciones de dependencia que hay entre ellos (los análisis de oraciones de
toda la vida)
4. Acoplamiento sintáctico-semántico o búsqueda de correspondencia entre
papeles sintácticos y papeles temáticos.
Este proceso representa el último paso del análisis sintáctico, pues supone la
transformación de la representación estructural de la oración en una
representación proposicional definida en términos conceptuales. (pillar el
mensaje)
El debate aparece en saber hasta qué punto estos procesos influyen en los
procesos más propiamente estructurales de construcción del marcador
sintagmático.
No está claro en qué medida la info semántica contenida en la representación
conceptual del verbo de la oración puede establecer de antemano las opciones
sintácticas más probables y adecuadas a las preferencias semánticas del verbo,
influyendo directamente en los procesos de asignación de estructura.
Este problema es análogo al suscitado en el terreno del procesamiento de
palabras ambiguas cuando se discutía hasta qué punto el influjo del contexto
se produce en una etapa relativamente temprana o tardía del reconocimiento
léxico.
5. Construcción de la representación proposicional de la oración.
Para construir la representación proposicional de la oración resulta muchas
veces necesario e inevitable recurrir a información que no está explícitamente
presente en ella. Para comprender adecuadamente ciertas oraciones, y sobre
todo para integrarlas correctamente en el contexto del discurso, el sujeto ha
de realizar inferencias semánticas, es decir, ha de incorporar a la
representación del significado de los enunciados cierta información no
explícitamente mencionada en ellos.
Se plantean en consecuencia dos dificultades esenciales: en primer lugar, la
de explicar de qué forma y en qué momento del procesamiento se tienen
acceso a la información implícita que hipotéticamente forma parte de la
representación semántica del enunciado; y en segundo lugar, la de poner un
límite al número de inferencias que el procesador semántico tiene que realizar
en cada momento del proceso de comprensión para evitar una inflación
desmesurada de representación que sobrepase las capacidades de
procesamiento del sistema.
Los procesos de comprensión descritos hasta aquí no deben entenderse como
etapas independientes del procesamiento de oraciones, ni tampoco como una
aplicación directa o transparente de reglas de la gramática o de la competencia
lingüística del hablante.
Antes bien, deben contemplarse como problemas que el procesador del
lenguaje ha de resolver para obtener una representación, primero estructural
y luego proposicional, del enunciado. Estas tareas se llevan a cabo por medio
de estrategias o rutinas cognitivas de actuación que operan bajo restricciones
de tiempo, atención y memoria, al igual que cualquier otro proceso cognitivo.
Estas estrategias, por tanto, no tienen por qué ser un fiel reflejo de las reglas
de la gramática, aunque naturalmente tienen que respetar las constricciones
que éstas imponen.

ESTRATEGIAS DE ANÁLISIS Y AUTONOMÍA DEL PROCESO


SINTÁCTICO

La discusión sobre las estrategias de análisis utilizadas en la comprensión de


oraciones gira en torno a dos cuestiones estrechamente relacionadas:
 - por una parte, la cuestión de hasta qué punto debe atribuirse a estas
estrategias un carácter específicamente lingüísticos o por el contrario,
una naturaleza cognitiva más general
 - y por otra, la de las relaciones entre procesos sintácticos y semánticos
en la comprensión del lenguaje.
La cuestión del carácter lingüístico de los proceso de parsing ya se mencionó
en el capítulo 6. Baste recordar que las teorías de orientación
formalista sostienen la tesis de que los procesos de análisis estructural en la
actuación son un reflejo más o menos directo de las reglas y principios de la
competencia.
Por el contrario, las teorías más funcionalistas defienden la idea de que las
estrategias de análisis estructural tienen su origen en propiedades generales de
la percepción y la cognición humanas.
La inclinación por una u otra postura condiciona inevitablemente la respuesta
a la segunda cuestión. Así, si uno se inclina por la especificidad gramatical de
los procesos de análisis es más probable que defienda la autonomía de la
sintaxis en materia de procesamiento, mientras que si mantiene una
caracterización cognitiva de estos procesos, tenderá a favorecer una posición
interactiva
Veamos los aspectos más relevantes de la controversia entre las posturas
autónoma e interactiva

HIPÓTESIS DE LA SEGMENTACIÓN EN CLÁUSULAS

Hipótesis de la cláusula
Los procesos de análisis de la estructura exigen que los mensajes verbales sean
troceados en unidades adecuadas para su interpretación semántica. El interés
por la naturaleza de las unidades de segmentación se remonta a los primeros
años 60 y respondía al afán de confirmar la realidad psicológica de las
estructuras postuladas por la gramática generativo-transformacional.
La H surgida de los primeros estudios se conoce como Hipótesis de la
cláusula, y se caracteriza por dos postulados:
 1) Los mensajes se segmentan y organizan en la memoria inmediata del
oyente por cláusulas, es decir, unidades lingüísticas organizadas en
torno a un verbo
 2) La información de cada cláusula se va registrando de forma literal y
al término de la misma se efectúa el análisis sintáctico y se codifica el
contenido semántico en un formato más abstracto para almacenarlo en
la MLP
La H (hipótesis) de la cláusula tiene tres implicaciones en materia de
procesamiento:
 1) Predicción 1 de que el análisis y la interpretación de cada cláusula
imponen una sobrecarga computacional en torno a la frontera de
cláusula y no durante su recepción.
 2) Predicción 2 de que el recuerdo de la cláusula en curso ha de ser
más fiel que el que se conserva de cláusulas previas a ella.
 3) Supuesto de que las unidades de segmentación perceptiva en la
comprensión se definen en términos exclusivamente estructurales.
La primera predicción se confirmó en una serie de estudios de comprensión
oral de oraciones con una tarea subsidiaria (mirarse cuadro 10.0 por si acaso)
Los resultados indicaron que cuando la tarea subsidiaria se sitúa hacia el final
de la cláusula, los TR son significativamente más largos que cuando se
introduce en otros lugares del texto; esto sugiere que al término de cada
cláusula el sistema de comprensión tienen que dedicar un trabajo extra a
procesos de integración sintáctica, lo cual le resta recursos atencionales para
efectuar la tarea subsidiaria.
La segunda predicción recibió también apoyo experimental en estudios de
recuerdo inmediato de oraciones. En ellos se halló que el recuerdo del
material verbal se degrada de manera drástica cuando el sujeto tiene que
reproducir literalmente partes del texto que acaba de oír, pues tan sólo es
capaz de retener textualmente en la memoria la información contenida en la
última cláusula percibida.
Respecto a la tercera implicación, numerosos investigadores han puesto en
tela de juicio la idea de que las unidades de segmentación perceptiva del habla
tengan un carácter exclusivamente estructural por dos razones básicas:
 Primero, porque la cláusula no sólo codifica unidades sintácticas, sino
también unidades conceptuales, siendo muchas veces imposible
establecer una clara distinción entre las primeras (que se definen en
virtud relaciones gramaticales) y las últimas (que se constituyen en
términos funcionales)
 En segundo lugar, porque la tendencia a segmentar el texto por
cláusulas depende, a su vez, de un número de factores ajenos a la
cláusula, entre ellos el grado de cohesión o dependencia entre
cláusulas, o la posición relativa de las cláusulas subordinada y principal,
en el caso de oraciones compuestas con subordinación. Se ha
observado que las cláusulas con mayor dependencia tienden a
procesarse de forma más integrada que las que gozan de mayor
autonomía; de forma similar, en las oraciones con subordinación, la
anteposición de la cláusula subordinada a la principal minimiza el
efecto perceptivo de la cláusula, ya que la interpretación de la cláusula
principal puede verse afectada por el contenido de la subordinada pero
no a la inversa.

HIPÓTESIS DE LA DESCODIFICACIÓN CONTINUA

Este tipo de observaciones ha llevado a muchos autores a rechazar la H de la


cláusula, sosteniendo en cambio que el procesamiento de oraciones tiene
lugar de forma continua o palabra-por-palabra.
Esta H conocida como H de la descodificación continua tiene su origen en
los trabajos de Marslen-Wilson y es compartida hoy por buena parte de los
modelos de procesamiento del lenguaje.
En esencia estos modelos mantienen que la recepción de cada nuevo
elemento léxico da inicio a procesos sintácticos y semánticos que operan en
paralelo y de forma incremental, construyendo paso a paso una
representación proposicional de la oración.
Algunas de las pruebas más concluyentes a favor de la descodificación
continua se han expuesto en el capítulo 8 en los experimentos de seguimiento
de Marslen-Wilson. En esta misma línea se sitúa un experimento de Tyler y
Marslen-Wilson en el que los sujetos escuchaban fragmentos ambiguos
precedidos de un contexto desambiguante.
La tarea consistía en nombrar una palabra representada visualmente tras el
fragmento ambiguo que podía o no ser congruente con la lectura apropiada
del mismo a la luz del contexto previo. La lógica del experimento: si en el
momento de nombrar la palabra crítica el sujeto ha optado ya por la lectura
adecuada del fragmento ambiguo, la latencia de R será más breve si la palabra
es coherente con dicha lectura que si no lo es.
Estos datos, además de mostrar el influjo temprano de factores semánticos
sobre las decisiones sintácticas, ponen de manifiesto que ciertas decisiones
que corresponden a niveles de procesamiento de orden superior se toman
con extraordinaria rapidez y de forma enteramente inconsciente.

POSTURA INTERMEDIA

La H de la cláusula estuvo vinculada en su origen a las posturas que defendían


la autonomía del procesamiento sintáctico.
La H de la descodificación continua se asocia con los modelos interactivos.
Una postura intermedia entre las dos defiende una versión débil de la H de la
cláusula, afirmando que el procesamiento de oraciones sigue un curso
discontinuo donde se alternan periodos de mayor carga computacional con
otros de relativo reposo.
Los procesos lingüísticos no pueden operar estrictamente sobre la marcha, ya
que a menudo hay restricciones estructurales que imponen la demora de
ciertos procesos hasta que el sistema dispone de la información necesaria para
reanudarlo. En ciertos casos es imposible construir palabra por palabra la
representación del significado porque las oraciones no siguen un curso lineal
y continuo.
Véase las discontinuidades entre constituyentes sintácticos hermanos situados
en el mismo nivel jerárquico pero que están separadazos por otro
constituyente; o bien entre constituyentes que guardan entre sí una relación
de correferencia a larga distancia.
Esta propuesta cuenta a su favor con numerosos datos de estudios en los que
se empleaban tareas de lectura controlada con registro de movimientos
oculares, o bien la técnica de lectura a ritmo personal. Estas tareas permiten
medir el patrón de fijaciones y regresiones oculares efectuados durante la
lectura y el tiempo que el sujeto se demora en la lectura de cada fragmento de
un texto.
Uno de los efectos más llamativos obtenidos es el llamado "efecto de vía
muerta". Las oraciones de vía muerta exigen generalmente una vuelta atrás y
un reanálisis, dado que en primera instancia provocan errores sintácticos
derivados del compromiso prematuro que el procesador contrae con uno de
los posibles análisis de la oración. Se ha comprobado que la duración media
de la fijación inicial en la región en la que se manifiesta el error cometido
aumenta considerablemente y que las regresiones hacia regiones anteriores
son más abundantes que en circunstancias normales.
Otro efecto similar se ha observado al emplear oraciones con ambigüedades
estructurales, en las que se registran mayores tiempos de fijación en la región
que ocupa el constituyente ambiguo, así como mayor número de regresiones
hacia sus antecedentes potenciales.

ESTRATEGIAS ESTRUCTURALES DE ANÁLISIS SINTÁCTICO

Estrategias estructurales
Según los defensores de modelos autónomos los efectos conductuales de los
fenómenos de vía muerta o de ambigüedad estructural ponen de manifiesto
que el procesador sintáctico opta por asignar el primer análisis disponible,
utilizando para ello estrategias de carácter estructural y con entera
independencia de las características semánticas de mensaje.
La estrategia utilizada en cualquier oración que produce un efecto de vía
muerta es la denominada estrategia de "adjunción mínima": el procesador
debe optar siempre por la estructura menos compleja de todas las posibles,
aquella que postule menos nodos sintácticos potencialmente innecesarios
Otra de las estrategias empleadas en el análisis sintáctico afecta a decisiones
relativas al cierre o terminación de las cláusulas. En casos de ambigüedad
transitoria los lectores suelen optar inicialmente por adjuntar un constituyente
potencialmente ambiguo a la cláusula en curso, estableciendo un cierre tardío
de la misma, en lugar de asignarle el papel de sujeto de la cláusula
subsiguiente, originando así un cierre temprano de la primera
cláusula.("Mientras el granjero cocinaba [el pollo]se escapó del corral") La
estrategia de cierre tardío produce a veces efectos opuestos a la adjunción
mínima, por lo que ambas pueden entrar en conflicto.
A la estrategia de cierre tardío se le llama también "principio de asociación a
la derecha", dado que tiende a asociar cada nuevo nodo de constituyente al
nodo inmediatamente anterior, situándolo a la derecha de éste y en el mismo
nivel jerárquico en la estructura.
A fin de determinar qué estrategia predomina en caso de conflicto, se han
llevado a cabo estudios con distintas clases de estructuras e incluso
comparando distintas lenguas. Aunque la evidencia obtenida es insuficiente,
la preferencia por una determinada estrategia parece depender del tipo de
construcciones a la que se aplique y, sobretodo, de las peculiaridades de cada
idioma.
Una tarea sintáctica que también puede enfocarse desde la perspectiva de las
estrategias de procesamiento es el ligamiento de categorías vacías (capítulo 5),
que consiste en la asignación de constituyentes sintácticos a las huellas que
aparecen en la estructura superficial del enunciado como resultado de la
aplicación de la regla transformacional "muévase".
Según los modelos de análisis sintácticos inspirados en la teoría de reacción y
ligamiento de Chomsky, para que una oración con un elemento desplazado
pueda ser correctamente interpretada, es preciso que el elemento desplazado
sea ligado o asociado con la posición que ocupaba en la estructura profunda,
y que deja una huella o categoría vacía en la estructura superficial.
En principio esta formulación del problema respondía a postulados de la
teoría lingüística para dar cuenta de ciertas propiedades estructurales de la
oración; se trataba de un problema de competencia lingüística, por lo que no
exigía que las categorías vacías tuvieran entidad psicológica, ni tampoco que el
proceso de ligamiento tuviera lugar sobre la marcha, durante la recepción del
enunciado por parte del sujeto.
No obstante, hay pruebas de que la asignación de antecedentes a éstas y otras
clases de categorías vacías es, en efecto, un proceso que tiene lugar sobre la
marcha durante la comprensión de oraciones. Varios autores han hallado
indicios de que en el momento de detectar la huella sintáctica la información
asociada a esa huella se halla más activada o está más disponible para el sujeto
que otros tipos de información
Por ejemplo, utilizando el paradigma de priming transmodal observaron que
los TRs a una palabra visual relacionada con el SN antecedente eran
significativamente más breves que a una palabra no relacionada con el
antecedente de la categoría vacía, siempre y cuando la presentación de la
palabra visual se hiciera simultánea con la posición de la categoría vacía en la
oración presentada auditivamente.
En otras palabras, a raíz de la aparición de la categoría vacía se produce una
reactivación transitoria en la memoria inmediata, del constituyente sintáctico
al que va ligada dicha categoría. Resultados similares se han obtenido en otros
estudios.
Estos datos proporcionan evidencia psicológica de la operación de ligamiento
de categorías vacías, pero no nos informan directamente de cuáles son las
estrategias empleadas. Para eso es necesario plantear situaciones de conflicto,
problemas de análisis que obliguen al sujeto a elegir entre diferentes
estrategias. Una de estas situaciones es la asignación de antecedentes a dos
categorías vacías incluidas en una misma oración.
Empleando oraciones de este tipo, Frazier, Clifton y Randall llevaron a cabo
un experimento para determinar si el proceso de asignación de antecedentes
a categorías vacías de ve afectado de algún modo por la distancia que media
entre ambos, o sea, por la posición relativa que ocupa el antecedente con
respecto a la huella sintáctica.
La H era que la estrategia cognitiva lleva una menor carga computacional para
el sujeto y, por consiguiente, la estrategia preferida es la de asignar
automáticamente la huella al antecedente más próximo. Así los casos en que
esta estrategia no sea operativa plantearán mayores dificultades de
interpretación. Utilizando una tarea de juicios acelerados de
comprensibilidad, hallaron que si se mantienen constantes otros factores, las
oraciones cuya interpretación requiere la estrategia del antecedente más
reciente recibían respuestas más rápidas que las que requieren la estrategia del
antecedente distante.
Uno de los postulados más cuestionado de los modelos autónomos de
procesamiento sintáctico es la idea de que las estrategias empleadas en el
análisis sintáctico son de carácter estructural. El argumento lógico en defensa
de este postulado se basa en consideraciones de economía de procesamiento:
al ser el procesador del lenguaje un sistema de capacidad limitada, tiene que
buscar un compromiso entre la rapidez y la eficacia en el procesamiento para
poder explotar al máximo sus recursos, lo que le obliga a tomar decisiones a
la mayor brevedad, muchas veces en ausencia de suficiente evidencia
confirmatoria. Dado que la información semántica potencialmente relevante
para optimizar esas decisiones es difícil de delimitar a priori, resulta más
oportuno postular unas rutinas automáticas que funcionan a partir de
información sintáctica, mucho más limitada.
Frente a esta postura, los modelos interactivos insisten en que la información
semántica presente en el contexto de la oración o del discurso se encuentra
igualmente accesible al procesador sintáctico, guiando o dirigiendo de
antemano la elección de estrategias de análisis. Bajo esta H se han propuesto
diversas estrategias no estructurales que interactúan con la información
sintáctica en la toma de decisiones.

ESTRATEGIAS NO ESTRUCTURALES DE ANÁLISIS SINTÁCTICO

Deben considerarse más como factores o V que determinan el empleo de


estrategias de análisis que como estrategias per se. Su principal función es la de
facilitar el uso de estrategias de comprensión adecuadas al contexto semántico
o pragmático y bloquear o debilitar la aplicación de las que puedan producir
resultados implausibles o anómalos desde el punto de vista semántico o
pragmático.
Son las relaciones conceptuales entre ciertas piezas léxicas de la oración las
que facilitan o inhiben el uso de una u otra estrategia.
Ej.: Encontramos un cuadro en el salón que estaba cubierto de polvo
(lectura plausible: el cuadro estaba lleno de polvo)
El pájaro vio al cazador con prismáticos
(incorrecta desde el punto de vista pragmático)
Una de las principales restricciones conceptuales a este respecto es la que
ejercen las propiedades sintácticas y semánticas del verbo de la oración.
Dichas propiedades se refieren, fundamentalmente, a la estructura temática o
argumental que llevan aparejadas las representaciones léxicas de los verbos.
Así, la presencia de un determinado verbo permite realizar sobre la marcha y
de forma generalmente inconsciente predicciones sobre el tipo de argumentos
o complementos que pueden acompañarle en la oración.
Aún cuando la estructura temática de un enunciado concreto en un contexto
oracional completo no pueda conocerse de antemano existen, al parecer,
ciertas preferencias temáticas asociadas a cada verbo que pueden introducir
sesgos en los procesos de análisis de oraciones. Algunos autores sostienen que
las preferencias léxicas más fuertemente asociadas a un verbo, es decir, la
estructura temática más frecuente de un predicado, determina el análisis
sintáctico inicial de la oración.
La información conceptual representada en el léxico determina de antemano
la elección de una alternativa de análisis sintáctico. Algunos investigadores han
proporcionado confirmación empírica del influjo de la estructura argumental
del verbo en diferentes problemas de análisis sintáctico.
No obstante, aún no se ha podido determinar hasta qué punto esta
información léxica se emplea efectivamente para guiar la elección inicial del
análisis o simplemente para filtrar o evaluar los resultados de un análisis
realizado por otros medios.
Además de la léxica, hay otras clases de información no estructural que
también pueden introducir sesgos en el procesamiento sintáctico,
favoreciendo el empleo de ciertas estrategias locales de procesamiento.
Haciendo hincapié en el carácter contextualizado de los procesos de
comprensión de oraciones, Crain y Steedman llamaron la atención sobre el
hecho de que la información que el sujeto va recibiendo a lo largo del texto
crea un contexto referencial o escenario pragmático que determina la
interpretación de sucesivas oraciones y con ello la aplicación de estrategias de
análisis sintáctico.
En caso de conflicto entre varias alternativas sintácticas, el procesador utilizará
información del contexto para decidir sobre la marcha cuál de las alternativas
estructurales es más adecuadas al contexto referencial o pragmático de que
dispone.
Recientes experimentos con tarea de lectura a ritmo personal de Altmann y
Steedman mostraban que los tiempos de lecturas de los fragmentos
inmediatamente posteriores a la cláusula ambigua aumentaban
sustancialmente cuando tales fragmentos no se ajustaban a la lectura que era
apropiada al sesgo presuposicional introducido por el contexto previo de la
oración, con independencia de la estrategia sintáctica que resultara adecuada
en cada caso.
Lo sujetos no emplean la información estructural de forma autónoma, sino
que evalúan la probabilidad de éxito de las diferentes alternativas estructurales
en función de la representación conceptual que tienen del discurso
previo. Altmann y Steedman concluyen que el trabajo del procesador
sintáctico es guiado por los sesgos conceptuales que introduce el contexto
lingüístico previo a la oración, por lo que resulta innecesario postular
estrategias estructurales de análisis independientes de la información
semántica accesible al procesador.

PROCESADORES SINTÁCTICOS EN INTELIGENCIA ARTIFICIAL

Los tres son herederos del desencanto de la psicolingüística contemporánea


por las teorías de la actuación que incorporaban de forma directa y
transparente las reglas de competencia. No obstante, los tres admiten la
necesidad de incluir conocimiento lingüístico en los procesos de actuación,
aunque lo hacen con distinto grado de aquiescencia y por medios bastante
diferentes.
Los tres modelos pretender dar cuenta de la microarquitectura del sistema de
comprensión, es decir, se sitúan en un nivel molecular de explicación. Sin
embargo, cada uno se ocupa de problemas teóricos relativamente diferentes
empleando principios y postulados distintos y, en ocasiones, incompatibles.
Procesadores sintácticos en Inteligencia Artificial: redes de transición
ampliadas ATN
Procesador cuyo único cometido es asignar una estructura sintagmática a
cadenas de elementos léxicos, por lo que sólo emplea información estructural.
Los sistemas de procesamiento del lenguaje natural creados en IA son
sistemas artificiales de computación diseñados para realizar o simular tareas
cognitivas complejas. Las áreas en que estos sistemas han producido
simulaciones más efectivas de comprensión del lenguaje son las que
corresponden a los procesos menos especializados en actividades
propiamente lingüísticas: comprensión del discurso, actividades
conversatorias. En cambio, en otros procesos más básicos como percepción
del habla o análisis sintáctico, el desarrollo alcanzado ha sido
comparativamente menor.
El ATN no es intrínsecamente un procesador sintáctico, sino un sistema
general de computación basados en la noción de reglas de producción o pares
condición-acción. Se trata de una máquina de estados finitos que en principio
permite simular diferentes clases de procesos, a la que se ha incorporado una
gramática transformacional que establece las condiciones que es preciso
satisfacer para pasar de un estado al siguiente.
El ATN no pretende ser un reflejo exacto del procesador sintáctico humano
en tiempo real, sino un programa de implementación de una tarea cuya
ejecución está sujeta a reglas. No es un sistema de simulación, su objetivo es
el de asignar un marcador sintagmático a una secuencia de elementos léxicos
que recibe como entrada, efectuando un recorrido a través de una red de
estados y procesos que encadenan unos estados con otros. En este caso
particular, los procesos consisten en la identificación y etiquetado de unidades
lingüísticas de diversos tipos.
El ATN tiene cuatro características principales:
 1. Sistema jerarquizado que opera en dos niveles, compuesto de dos
clases de redes:
o - nivel superior donde se halla la red de la oración, que
corresponde al nivel de los constituyentes oracionales principales
o - nivel inferior, ocupado por la red de sintagmas, nivel de los
constituyentes oracionales menores (palabras)
 2. Sistema de transición, constituido por un conjunto de estados
(nodos) que se suceden y un conjunto de instrucciones (arcos) que se
deben recorrer o atravesar para acceder de unos estados a otros. Las
transiciones entre estados son las operaciones de etiquetado sintáctico
 3. El sistema opera de forma recursiva, una misma regla o acción se
puede ejecutar sobre diferentes clases de unidades
 4. Procesador serial que funciona de arriba-abajo, aplicando reglas de
estructura sintagmática
Los nodos de un ATN vienen definidos por las categorías sintácticas de
la gramática que el sistema ha de identificar y etiquetar, se
corresponden exactamente a los nodos de la estructura sintagmática.
Por su parte, existen cinco clases de arcos o instrucciones:
o - CAT para identificar la categoría sintáctica de las palabras
o - SEEK para identificar sintagmas
o - JUMP permite proceder de un estado al siguiente cuando no
se identifica ningún constituyente nuevo
o - SEND para enviar constituyentes etiquetados desde la red de
los sintagmas a la red de la oración
o - HOLD para almacenar transitoriamente constituyentes que
luego han de adjuntarse a un nodo distante
Ejemplo El hombre que saludó a María era su padre
El sistema comienza el proceso en la red de la oración. A partir de esta red se
inicia, mediante arcos SEEK la búsqueda de constituyentes principales de la
oración: el SN de sujeto, Sv...Para identificar el primer SN del enunciado es
preciso entrar en una red de SN e identificar en ella categorías léxicas
satisfactorias. Así comienza una búsqueda serial de constituyentes del SN que
conduce a identificar CAT. Cuando el primer SN ha sido etiquetado se envía
SEND a la red de la oración. Para ello se debe atravesar la búsqueda SEEK
de un SV. Sin embargo, en el ejemplo lo que sigue no es un verbo sino un
pronombre relativo: la red del primer SN no ha sido concluida, por lo que se
debe proseguir su análisis. El SN ya etiquetado se retiene HOLD para
adjuntarlo más tarde al SV cuando se identifique. Una vez identificada la
subordinada se adjunta al SN que se recupera del almacén. Una vez
identificado el SN completo se envía SEND hacia la red de la oración que
reanuda el proceso SEEK SV. El proceso continúa con la búsqueda y la
identificación de los constituyentes del SV.
Una de las ventajas del ATN es que, a partir de principios de funcionamiento
y mecanismos de acción relativamente sencillos permite incorporar de forma
natural estrategias de análisis como la adjunción mínima o la asociación a la
derecha, que en otros modelos se postulan de forma independiente, en
términos abstractos.
Por el contrario, uno de los principales inconvenientes se deriva del hecho de
que sus operaciones están guiadas desde arriba por conocimiento previo, y no
por información de entrada. Esto aumenta sustancialmente el riesgo de
incurrir en predicciones erróneas durante el análisis. Por ejemplo, en
situaciones de ambigüedad estructural o de vía muerte, y al carecer de la
capacidad de inspeccionar partes posteriores de la entrada sensorial, el
procesador no tendría más opciones que computar en paralelo diferentes
alternativas de análisis o bien resignarse a efectuar continuos retrocesos y
reanálisis. Esto supone una desventaja desde el punto de vista de la economía
de procesamiento.
No obstante, éste es un mal que aqueja por igual a todos los procesadores de
carácter autónomo, es decir, a los que emplean únicamente reglas, rutinas o
estrategias de naturaleza estructural.

PROCESADORES SINTÁCTICOS AUTÓNOMOS

Inicialmente hace uso de información exclusivamente estructural, aunque en


una etapa posterior emplea también información semántica y contextual.
Como sucede en casi todos los modelos autónomos, presenta dos
propiedades distintivas:
 - consta de dos etapas ordenadas secuencialmente
 - está formulado en términos abstractos, no ofrece una descripción
realista de los procesos de parsing, sino una caracterización de los
mismos basada en restricciones de procesamiento.
A consecuencia de ello el modelo está concebido con una arquitectura muy
sencilla y muy restrictiva, que pretende reflejar las limitaciones de memoria
inmediata bajo las que opera el procesador humano. Esta sencilla arquitectura
permite reducir el número de estrategias utilizadas por el procesador a una
sola: la estrategia de adjunción mínima.
El procesador sintáctico de Frazier y Fodor se trata de un sistema
que inspecciona la oración de izquierda a derecha y va configurando unidades
discretas para asignarles una estructura. Consta de dos etapas bien
diferenciadas:
 - un analizador de la estructura superficial, que consta a su vez de dos
componentes independientes
o - PPP empaquetador preliminar de sintagmas que segmenta la
entrada perceptiva en paquetes o secuencias de constituyentes
con una longitud en torno a las 6 palabras: todos los
constituyentes que no excedan esa longitud pueden ser
analizados simultáneamente
o - SSS supervisor de la estructura oracional que ensambla los
paquetes que recibe del PPP y les asigna una estructura
sintagmática, operando exclusivamente con la estrategia de
adjunción mínima: adjunta cada nuevo nodo al nodo más alto
posible de la estructura ya analizada
 - un procesador temático que asigna papeles a los constituyentes
sintácticos analizados
Con este modelo afirman haber dado solución a todos los problemas
sintácticos de adjunción de constituyentes, si bien el propósito fundamental
era ofrecer una solución a los problemas de procesamiento de la estructura
superficial de la oración, por lo que este modelo se centra particularmente en
cuestiones como la de la adjunción.
Ej.:. a. Marisa escondió el libro que leía en la biblioteca
b. Marisa escondió el libro que leía con sumo interés en la biblioteca
Cabe esperar que la interpretación de a sea que "en la biblioteca" es donde
Marisa escondió el libro, mientras que la de b, "en la biblioteca" es donde
Marisa leía. La razón por la que el tipo de adjunción en cada caso es distinta
no obedece, sin embargo, a estrategias diferentes, sino a la limitada capacidad
de almacenamiento del empaquetador de sintagmas. El supervisor de la
estructura sólo tiene acceso simultáneo a una parte de la oración, que resulta
ser diferente en a y b, quedando el resto fuera del alcance de operaciones
sintácticas de adjunción. Por eso, y en rigurosa aplicación del principio de
adjunción mínima, "en la biblioteca" es adjuntado en cada caso a un
constituyente distinto, dando la engañosa impresión de que en b, el
procesador ha aplicado la estrategia de cierre tardío.
El modelo autónomo de Frazier y Fodor concibe el procesador temático
como un sistema que sirve de interfaz o contacto entre dos sistemas de
naturaleza muy distinta:
 - el analizador de la estructura superficial, que es un sistema de entrada
exclusivo para el lenguaje específico de dominio e informativamente
encapsulado
 - el sistema cognitivo general, un sistema central inespecífico de
dominio y no encapsulado, que utiliza información conceptual y
pragmática y que es común a otras muchas actividades inteligentes.
Por esta razón, si bien el procesador temático se muestra sensible a factores
como la plausibilidad pragmática o la adecuación contextual en su tarea de
asignar papeles temáticos a los constituyentes oracionales, el procesador
sintáctico no sufre influencia alguna de esta clase de factores.

PROCESADORES CONEXIONISTAS

El objetivo principal de este modelo no es tanto analizar los procesos de


asignación de estructura, sino dar cuenta del proceso de acoplamiento entre
categorías sintácticas y papeles semánticos.
Dos características que los distinguen de los modelos de arquitectura clásica:
 - no requieren el empleo de representaciones estructuradas, como la
estructura sintagmática en el nivel sintáctico, o las proposiciones en el
nivel semántico
 - no utilizan reglas entendidas como operaciones o instrucciones que se
aplican sobre representaciones de una clase para transformarlas en
representaciones de otra clase
Los sistemas conexionistas computan un tipo especial de representación que
se hallan distribuidas a través de una red de nodos mutuamente
interconectados y operan mediante un único proceso de propagación de
activación a través de los nodos del sistema.
La comprensión del lenguaje así se define como un proceso esencialmente
interactivo, sometido simultáneamente a múltiples constricciones.
En los procesos de comprensión participan varias fuentes de información,
cada una de las cuales impone constricciones sobre el resultado final del
proceso. Estas constricciones actúan, no obstante, como fuerzas de magnitud
variable que modelan, con distinto grado de influencia, la formación de la
representación de salida del proceso.
El objetivo primordial del modelo es el de interpretar la distribución de los
papeles temáticos de la oración. En esta tarea intervienen dos fuentes de
constricción:
 * la información de entrada, que consiste en una secuencia de palabras
que forman una oración, y más concretamente, en la representación de
los significados de esas palabras y las estructuras temáticas asociadas a
ellas
 * un entorno o contexto, integrado por información lingüística y
conceptual, representado por un conjunto finito de pares oración-
suceso que se suministran previamente al sistema y en cada uno de los
cuales se especifican los constituyentes de cada oración del par y el
papel temático asociado a cada constituyente. El entorno es lo que
genéricamente podríamos llamar el conocimiento previo del sistema.
Para entender cómo funciona un modelo así es preciso hacer referencia a
otras dos peculiaridades de los sistemas conexionistas:
 * dado que estos sistemas se conciben como programas de computador
ejecutados en una máquina, se les debe someter a una fase inicial de
aprendizaje. En esta fase de aprendizaje se establecen primero los
nodos y conexiones y se fijan ciertos parámetros, después se somete al
sistema a un experiencia con datos reales para que realice los ajustes
necesarios. Para perfeccionar el rendimiento durante el aprendizaje se
emplea el procedimiento de propagación retroactiva: suministrarle una
medida del error que comete para que vaya ajustando los parámetros a
los valores óptimos que debe adoptar para minimizar dicho error. Así
pues, una vez en la fase de prueba, la R que estos sistemas proporcionan
ante cada nueva entrada depende de su experiencia previa, del valor de
probabilidad con que una determinada representación de entrada
activará ciertas configuraciones de nodos. Estos valores probabilísticas
se fijan de antemano, aunque se van modificando a medida que el
sistema adquiere experiencia al ser expuesto a nueva info. En
condiciones de rendimiento óptimo, el sistema debería ser capaz de
suprimir por completo su margen de error. Sin embargo, esto no
sucede nunca del todo.
 * al tratarse de un fenómeno que se desarrolla en el tiempo, la
comprensión de oraciones se concibe como un proceso incremental,
lo que significa que el patrón de activación que se crea en el sistema se
va modificando sobre la marcha al recibir cada nueva palabra. El
sistema va creando paso a paso una configuración de entrada, que
restringe progresivamente las interpretaciones que la oración puede
recibir. Sin embargo, el conocimiento previo o entorno impone
también constricciones sobre la interpretación de la configuración de
entrada. Aquí se aprecia la naturaleza interactiva de estos modelos.
Las dos fuentes de información: configuración de entrada y configuración de
entorno, se traducen en sendos patrones de activación que interactúan en una
red de nodos denominados unidades ocultas. El proceso de acoplamiento de
papeles temáticos a los conceptos de la oración dependerá pues, en grado
variable, de
 - información suministrada por la oración abajo-arriba
 - información proporcionado por el entorno arriba-abajo
Unas veces la interpretación de la oración dependerá fundamentalmente de
propiedades sintácticas de la entrada, sobre todo si no hay información
semántica que pueda introducir sesgos de interpretación.
Sin embargo, en aquellas ocasiones en que la información no estructural
puede ser utilizada de forma predictiva, la interpretación de la oración se verá
influida por otras variables, como por ejemplo, las relaciones conceptuales
entre constituyentes oracionales.
El modelo de procesamiento distribuido en paralelo de McClelland y cia es
probablemente uno de los más representativos de los modelos conexionistas
de procesamiento del lenguaje.
Sin embargo, no todos los modelos conexionistas adoptan los mismos
principios de procesamiento ni defienden los mismos postulados teóricos. No
todos asumen el carácter distribuido de las representaciones que computa el
sistema, ni tampoco defienden todos la naturaleza interactiva de los procesos
sintácticos y semánticos.
En un modelo conexionista se pueden manipular ciertos parámetros para
reproducir los efectos típicos de un procesador autónomo. Por ejemplo: la
retroinformación de niveles jerárquicamente superiores hacia otros de orden
inferior. Puede haber casos en que la retroinformación se propague de forma
débil entre niveles, o bien con una demora lo bastante larga para permitir a
unidades de niveles inferiores computar sus representaciones de modo
independiente, sin influencia de niveles superiores.

REFLEXIONES CRÍTICAS SOBRE LOS MODELOS DE


PROCESAMIENTO

Existe una serie de problemas que los modelos existentes no terminan de


resolver de forma satisfactoria. Estos problemas se pueden agrupar en dos
categoría antitéticas: donde un modelo exhibe mayores carencias, el modelo
alternativo ofrece mejores soluciones.
Por un lado hay un grupo de problemas que parecen afectar más a los
modelos clásicos y que se derivan de la naturaleza no discreta, difusa o
probabilística de algunas de las representaciones lingüísticas que se computan
durante la comprensión del lenguaje.
Por otro, encontramos un conjunto de problemas que resultan más premiosos
para los modelos conexionistas, ya que sobrevienen a consecuencia del
carácter componencial, estructurado o combinatorio de otro tipo de
representación que intervienen en dicho proceso.
La mera coexistencia de estas dos categorías opuestas de problemas pone de
manifiesto la naturaleza compleja del lenguaje natural humano como sistema
de procesamiento y representación.
Si bien resulta innegable que las unidades significativas del lenguaje son
producto de la combinación reglada y sistemática de una serie de
componentes más elementales, no es menos cierto que la interpretación de
tales unidades dotadas de significado no emerge directa y exclusivamente de
esa combinación de elementos básicos, sino que deja abierto un amplio
margen de indeterminación en el que intervienen otros factores que no se
dejan someter tan fácilmente a un tratamiento reglado o sistemático.
Por ejemplo, las distinciones de significado de muchas palabras no se agotan
en la especificación de un conjunto de rasgos semánticos necesarios y
suficientes, sino que a menudo dependen de otras clases de información que
resulta difícil restringir a priori.
Hay serias dudas de que la interpretación de los significados léxicos se limite
exclusivamente a la computación de un conjunto específico de rasgos
primitivos y no pueda incluir, además multitud de asociaciones, muchas veces
idiosincrásicas y aparentemente azarosas, que tienen lugar dentro del
complejo e inagotable universo de conceptos que configuran la memoria
semántica.
La noción de papel temático plante un problema similar. A pesar de los
esfuerzos de muchos lingüistas, ha resultado imposible hasta la fecha
establecer un conjunto finito de papeles temáticos que permita captar las
sutiles distinciones que se dan en la compleja experiencia humana. La
interpretación de un mismo papel temático varía considerablemente en
función de las propiedades semánticas del verbo con el que aparece.
Un tercer problema asociado a la naturaleza difusa del significado es el de
poner coto a la información extralingüística que puede resultar pertinente, en
un momento dado, para interpretar el significado de los mensajes verbales.
En este sentido ya se ha mencionado el peligro que, para una explicación
científica de los procesos de comprensión, supone la existencia de elementos
implícitos en el enunciado, cuya activación resulta muchas veces
imprescindible para una adecuada comprensión del mismo.
Todos estos problemas tienen como telón de fondo una propiedad inherente
al lenguaje natural sobre la que algunos filósofos han llamado insistentemente
la atención desde hace tiempo y que podríamos denominar: el problema de
la indeterminación del significado o, en términos más prosaicos, el problema
de la ambigüedad del lenguaje.
Hechos como la multiplicación de los significados léxicos, la dificultad de
interpretar inequívocamente los papeles semánticos de los constituyentes de
la oración y la amplia gama de posibles inferencias que pueden realizarse
durante la comprensión del lenguaje representan serios problemas para
cualquier teoría psicológica de la comprensión, pero de forma muy especial
para las teorías computacionales clásicas, ya que estas teorías ponen todo el
énfasis en el carácter regular y sistemático de los procesos mentales y en las
propiedades estructurales de las representaciones sobre las que operan estos
procesos.
Por consiguiente, estas teorías sólo tienen dos maneras de lidiar con el
problema de la indeterminación del significado:
 - bien aumentando hasta un límite razonable la capacidad de cómputo
del sistema, de manera que éste pueda multiplicar las interpretaciones
alternativas de los enunciados lingüísticos
 - bien restringiendo esta capacidad y obligando al sistema a contraer un
compromiso temprano con una de las posibles interpretaciones
descartando las restantes.
La primera solución es la que ofrecen los modelos clásicos al problema de la
ambigüedad léxica. En cambio, la segunda ha sido la opción favorecida en el
caso de la comprensión de oraciones; una prueba bastante persuasiva de ello
la tenemos en la interpretación de oraciones de vía muerta.
La otra cara de la moneda es el problema de la compositividad del lenguaje.
Esta propiedad es, sin duda, una de las más singulares e importantes del
lenguaje natural. El carácter compositivo o combinatorio del lenguaje es
directamente responsable de otras propiedad, como la productividad y la
sistematividad, que no pueden explicarse de otro modo que apelando a un
conocimiento de reglas y principios abstractos y formales que se aplican sobre
símbolos o representaciones elementales para generar otros símbolos más
complejo que no se pueden describir como la simple suma o yuxtaposición
de esos símbolos elementales.
La literatura empírica sobre los procesos de actuación lingüística está repleta
de pruebas que nos indican que la actividad lingüística es un continuo proceso
de transformación de objetos estimulares que por sí mismos carecen de
estructura en objetos lingüísticos dotados de estructura.
El problema de la compositividad del lenguaje es a los modelos conexionistas
lo que el problema de la indeterminación del significado a los modelos
clásicos.
Los modelos conexionistas son, por su propia naturaleza, refractarios a toda
noción de estructura, por lo que el único modo que tienen de enfrentarse al
problema de la compositividad del lenguaje es sustituyendo la sintaxis por
otros sucedáneos que permitan simular los efectos que la aplicación de reglas
o estrategias de comprensión dependientes de la estructura ejerce sobre la
interpretación del significado.
Por ejemplo, en casi todos los modelos conexionistas se concede gran
importancia a ciertos productos emergentes de la sintaxis, tales como marcas
morfológicas de las palabras o el orden series de éstas en la oración. Asimismo
se observa una tendencia a incorporar a estos modelos ciertas propiedades
estructurales de la oración de forma indirecta, por ejemplo, postulando un
estrato de nodos cuya misión es la de acoplar representaciones léxicas con
representaciones temáticas, como si se tratara de mediadores sintácticos.
Así, algunos modelos conexionistas postulan una categoría de nodos cuyo
cometido es ligar o asociar nodos correspondientes a las representaciones
semánticas de las palabras de la oración con los nodos correspondientes a los
papeles temáticos, efectuando una traducción del vocabulario sintáctico a un
vocabulario asociativo con el fin de replicar los mismos efectos del análisis
sintáctico sin tener que postular directamente reglas sensibles a la estructura.
El problema más general se trata de determinar, en primara instancia, qué
clase de arquitectura debe atribuirse a la mente humana en su totalidad, en
tanto que sistema inteligente o intencional y, en un plano más abstracto, qué
tipo de principio son los que guían el funcionamiento de este sistema
inteligente.
La postura clásica defiende un modelo logicista de la mente, según el cual lo
que regula el funcionamiento de este sistema son las propiedades formales o
estructurales de los estados que lo constituyen.
La postura conexionista representa el regreso hacia una concepción más
naturalista de la mente, según la cual lo que determina el funcionamiento del
sistema son las propiedades referenciales o el contenido de los estados
mentales y no la estructura de dichos estados.
A partir de ahora vamos a dedicar más atención a las cuestiones del significado
lingüístico. Las teorías psicolingüísticas de la comprensión del lenguaje suelen
ser muy prudentes a la hora de aventurarse a definir el concepto de
significado. Este es, ciertamente, uno de los temas más espinosos, no sólo en
las disciplinas psicológicas, sino sobretodo en la filosofía y en la lingüística. Sin
embargo, hay ciertos aspectos psicológicamente relevantes del concepto de
significado que no pueden soslayarse en las explicaciones de la actuación
lingüística.

PROCESOS INFERENCIALES EN LA COMPRENSIÓN DE


ORACIONES

Los procesos de interpretación del significado de enunciados lingüísticos se


pueden clasificar en dos categorías generales:
Procesos de integración: tienen un carácter más básico y comprenden todas
aquellas operaciones que hacen uso de información explícitamente reflejada
en las oraciones que componen el discurso, desde la información fonológica
y léxica hasta la sintáctica y semántica. El cometido de estos procesos
es integrar los diferentes tipos de información presentes en las oraciones en
una única representación en la memoria del sujeto. Esta representación no es
una copia exacta de las oraciones a partir de las cuales se constituye, sino que
experimenta ciertas modificaciones que suponen, por regla general, la pérdida
o supresión de algunos de los elementos de información que formaban parte
del E original, así como la reorganización de los elementos que permanecen
en él.
La representación de la oración ya interpretada y codificada en la memoria
resulta de una serie de procesos de integración que tienen por objeto
seleccionar los componentes más relevantes de la información contenida en
los enunciados y relacionarlos en una representación formulada en un código
no lingüístico. Aún cuando los componentes de información que se
seleccionan durante este proceso forman parte del enunciado original, la
disposición en que se hallan integrados o relacionados en la memoria al
término del proceso rara vez es la misma que en el enunciado original
Procesos de interpretación: procesos constructivos que suponen algo más que
la mera selección y reorganización de los contenidos de la oración en la
memoria, ya que implican también la inclusión de elementos de información
no explícitamente presentes en el enunciado original. En muchas ocasiones es
necesario añadir más información de la presente en el material que se lee o se
escucha, es preciso reconstruir la representación del significado a partir de
elementos de información tanto explícitos como implícitos. La información
implícita se añade a partir de conocimientos extralingüísticos del sujeto, bien
referido a situaciones que se menciona o bien a las intenciones y creencias
que se atribuyen a la persona que lo produce.
Se trata de un conocimiento del mundo que, sin estar formulado en términos
lingüísticos, se hace intervenir en los procesos de comprensión. Se trata
de procesos inferenciales.
Los aspectos integrativo y constructivo no son fenómenos separados. Muchas
veces es necesario recurrir a información no explícitamente presente para
poder integrar o vincular diferentes partes de oración o discurso, en apariencia
inconexas.
Por otra parte, el conocimiento del mundo que se utiliza en los procesos
constructivos se puede usar para establecer qué información debe ser incluida
y qué información puede ser excluida de la representación final del significado
del enunciado.
La inferencia que realizamos al comprender el lenguaje determina mucha
veces el modo de integra la información en la representación del significado.
En este capítulo nos hemos centrado en el estudio de procesos integrativos:
reconocimiento del habla, acceso al léxico, análisis sintáctico e interpretación
semántica.
En este apartado vamos a prestar más atención a los diferentes procesos
constructivos o inferenciales que intervienen en la comprensión de
oraciones y de algunas cuestiones como:
 * tipos de información que intervienen en la realización de inferencias,
 * grado de autonomía o encapsulamiento informativo de que gozan las
diversas clases de inferencias examinadas
 * el carácter automático o controlado de estas clases de operaciones de
comprensión lingüística.
 * la distinción entre el plano del significado inmediato o literal y el
plano del significado elaborado o pretendido
 * la naturaleza diversa de los procesos inferenciales que se emplean en
la comprensión, es decir, el hecho de que los procesos de inferencia
pueden presentar diversos grados de inmediatez o complejidad, en
función de las clases de información y los recursos de procesamiento
que consumen.

INFERENCIAS PERCEPTIVAS E INFERENCIAS COGNITIVAS

Atendiendo al grado de complejidad de los procesos de inferencia en la


comprensión podemos distinguir, de acuerdo con Swinney y Osterhout, dos
clases de inferencias:
* Inferencias perceptivas
Automáticas, obligatorias y de realización inmediata durante el procesamiento
perceptivo del lenguaje. Son procesos encapsulados, que tienen lugar en
etapas relativamente tempranas del procesamiento del E, por lo que son
independientes de las V extralingüísticas que pueden influir en la
comprensión del enunciado
* Inferencias cognitivas
No se derivan de forma automática e inmediata y se hallan bajo control
cognitivo. Dependen de estrategias que hacen uso de conocimiento general
(semántico y pragmático) y que operan de forma controlada, más lenta y
elaborada.
Si mantenemos, como hacen estos autores, que los procesos de análisis
sintáctico y los de interpretación semántica son dos especies diferentes de
procesos que acontecen de forma secuencia, podemos predecir que los
respectivos efectos de las inferencias perceptivas y cognitivas en tareas de
comprensión no se manifestarán simultáneamente, sino que los primeros
precederán en el tiempo a los segundos.
Para someter a prueba esta predicción se utilizó la interpretación o resolución
de anáforas.
Una anáfora es una expresión que tiene el mismo significado que otra que le
precede o sigue en el discurso, y que se denomina antecedente. La
interpretación o resolución de una anáfora es, pues, un proceso consistente
en establecer vínculos de correferencia entre dos o más expresiones que
comparten el mismo significado: la anáfora y su antecedente.
Las anáforas pueden adquirir su significado de dos maneras: o por identidad
de referencia (la anáfora y su antecedente se refieren a la misma entidad del
mundo real) o bien por identidad de contenido (ambas tienen el mismo
significado aunque no compartan el mismo referente)
Las unidades lingüísticas más habitualmente empleadas como expresiones
anafóricas son pronombres, o incluso cláusulas completas (o sea, cuando
utilizamos un pronombre para no repetirnos más que el ajo)
Los procesos de resolución de anáforas se pueden contemplar como un caso
particular del proceso de integrar en la memoria las distintas partes o
elementos de un discurso al objeto de mantener la cohesión del mismo. Los
antecedentes se pueden caracterizar como información dada previamente en
el discurso y conocida por el sujeto, y que sirve como punto de anclaje para
añadir información nueva que, a su vez, viene introducida por los elementos
anafóricos. Unas veces los vínculos de cohesión se manifiestan expresamente,
otras no, ya sea porque el antecedente es ambiguo o porque no se puede
localizar en la estructura manifiesta del discurso.
La presencia o ausencia de un antecedente explícito constituye un aspecto
relevante de los procesos de resolución de anáforas de cara a la comparación
entre inferencias perceptivas y cognitivas:
 * Si el contexto lingüístico no suministra un antecedente claro al que
ligar la anáfora, es evidente que será necesario recurrir a
un conocimiento extralingüístico
 * Si todos los elementos necesarios para resolver una anáfora se
hallan presentes en el discurso, el proceso de interpretación podrá
efectuarse de forma directa e inmediata
En una serie de experimentos Swinney y Osterhout se propusieron
comprobar hasta qué punto la activación de información relevante para
resolver la anáfora se produce de forma automática e inmediata, y en qué
medida la forma en que se produce dicha activación de información depende
del tipo de inferencias necesarias para llevar a cabo la interpretación del
enunciado.
Por activación automática entendían el acceso directo o mayor disponibilidad
de la representación del antecedente apropiado de la expresión anafórica, en
comparación con otras representaciones neutras o ajenas. Por activación
inmediata entendían el hecho de que el antecedente apropiado se hiciera
disponible en el momento mismo de procesar la anáfora y no después.
Según Swinney y Osterhout, cuando el antecedente es explícitamente
mencionado en el discurso, su activación se produce de modo automático y
concurrente a la recepción de la anáfora, es decir, en el momento de
percibirla.
¿En qué medida ocurre lo mismo cuando la interpretación del enunciado se
apoya en inferencias cognitivas? Examinaron en otro experimento dos tipos
de oraciones cuya interpretación exige la realización de inferencias cognitivas.
No se registró ningún efecto facilitador para los conceptos semántica o
pragmáticamente implícitos cuando las correspondientes palabras eran
presentadas en el punto crítico, en la primera oportunidad en que los sujetos
podían hacer uso de la información contextual. Sin embargo, pasadas unas
pocas sílabas sí se registraron efectos facilitadores sobre el TR a estas palabras.
Esto viene a sugerir que, contrariamente a las inferencias perceptivas, las
cognitivas no se realizan estrictamente sobre la marcha, sino con una ligera
demora: la información implícita necesaria para interpretar la oración no se
hace disponible al sujeto de forma inmediata.
En resumen, además de justificar empíricamente la distinción entre
inferencias perceptivas y cognitivas, el trabajo de Swinney y Osterhout supone
un apoyo para la tesis de que ciertos componentes de los procesos de
comprensión del lenguaje son independientes de factores extralingüísticos
como la plausibilidad, el conocimiento del mundo o la pragmática; es decir,
funcionan como módulos de propósito específico en el sentido fodoriano del
término.

SIGNIFICADO LITERAL Y SIGNIFICADO ELABORADO

Los resultados de los estudios de Swinney y Osterhout plantean dos


implicaciones inmediatas:
Los procesos de interpretación del significado oracional parecen discurrir
en dos velocidades:
 - por una parte, hay procesos rápidos, obligatorios, automáticos,
específicos de dominio y encapsulados, que sólo aprovechan
información presente en el discurso
 - por otro encontramos procesos más lentos, cognitivamente
controlados, inespecíficos de domino, en la medida en que están
abiertos a información de diversas clases y no encapsulados, pues
reciben influencias extralingüísticas
Los procesos encapsulados producen representaciones del significado literal
o inmediato de la oración, en tanto que los no encapsulados dan como
resultado representaciones del significado indirecto, pretendido o elaborado
de la oración.
Tomadas en conjunto, estas dos implicaciones nos llevan a caracterizar la
comprensión de oraciones como una actividad dividida en tres etapas
discretas y secuenciales:
 1) en la primera el oyente construye el significado literal del enunciado
 2) en la segunda, decide si este significado es el apropiado al contesto
semántico y pragmático en que se encuentra el enunciado
 3) en caso de que este significado sea inadecuado a las características
del contexto, deriva un significado figurado que se ajusta a tales
características
Bajo este punto de vista el significado literal del enunciado lingüístico es
siempre una representación intermedia a la que es imprescindible acceder
para poder derivar sus otros posibles significados.
Hay casos en los que esta descripción parece bastante plausible. Por ejemplo,
hay expresiones lingüísticas cuyos significados literal y pretendido pueden
compartir elementos comunes: Gibbs señala las peticiones o promesas
expresadas de forma indirecta como: ¿Te importaría pasarme la sal?
Un caso semejante es el de las expresiones metafóricas. Un aspecto
consustancial a la noción de metáfora es su condición de vehículo para
expresar un significado indirecto. Este significado se atribuye al tema de la
metáfora, es algo que se predica del objeto de la misma.
Para dar con el significado pretendido del enunciado es imprescindible que el
atributo sea interpretado en términos de una hipotética relación de semejanza,
que en toda metáfora se halla implícita entre el vehículo y el tema.
No obstante, como ha señalado Gibbs, esta armonía entre los significados
literal y pretendido es la excepción y no la norma en los enunciados con
significado indirecto. Así resulta extremadamente difícil asignar un significado
literal a muchas oraciones de la lengua, especialmente cuando éstas se hallan
en un contexto comunicativo muy preciso.
Muchas expresiones lingüísticas sólo adquieren su significado a la luz del
contexto pragmático en el que se hallan. En estos casos, resultará del todo
imposible derivar inicialmente un significado literal del enunciado para
después evaluarlo a la luz del contexto, como propone el modelo serial en tres
etapas.
En diversos estudios llevados a cabo por Gibbs y otros, al objeto
de comprobar hasta qué punto es necesario recuperar un significado literal e
independiente de contexto para comprender enunciados lingüísticos
indirectos, se pudo constatar no sólo que los oyentes son capaces de
interpretar inequívocamente el sentido indirecto de este tipo de enunciados,
sino que además lo hacen de forma inmediata, sin mediación alguna del
significado literal del enunciado.
Así lo demuestra el hecho de que si se proporciona un contexto de
interpretación apropiado, los sujetos invierten aproximadamente el mismo
tiempo en leer un enunciado indirecto que otro directo de características
similares al primero, y producen paráfrasis adecuadas del mismo en un
tiempo incluso menor que ante un enunciado literal.
A primera vista parece que los resultados sobre comprensión de actos de
habla indirectos dan al traste con la idea de que las actividades de
comprensión del significado indirecto descansan en procesos inferenciales
complejos que consumen tiempo y recursos cognitivos.
Sin embargo, a poco que examinemos el tipo de evidencia aportada por los
distintos estudios, se aprecia que, a pesar de la considerable velocidad a la que
se suceden, los procesos de interpretación del significado indirecto se sitúan
en una magnitud temporal diferente de la de los procesos de inferencia rápida
o perceptiva empleados en la resolución de anáforas o el ligamento de
categorías vacías. Hay que tener en cuenta que las medidas de R empleadas
por Gibbs en sus experimentos son comparativamente más globales y menos
en curso que las utilizadas por Swinney y Osterhourt en sus estudios sobre
inferencias. Así pues, es muy posible que el tiempo total de lectura de la
oración crítica (aprox 2.000 mseg) no llegue a reflejar los procesos de
inferencia perceptiva que tienen lugar sobre la marcha y que, muy
probablemente, concluyen antes de que el sujeto hay terminado de leer la
oración completa.
Hemos de concluir que por muy veloces que sean los procesos inferenciales
que subyacen a la interpretación del contenido pretendido o significado
elaborado de la oración, éstos pueden seguir siendo comparativamente más
lentos que los procesos de análisis del significado literal de los enunciados.
Por ello, resultados como los de Gibbs no permiten desechar la posibilidad
de que la interpretación del significado elaborado del lenguaje se apoye en
una serie de procesos de nivel más moleculares tendentes a construir una
representación provisional del significado lingüístico, es decir, del que se
define con arreglo a criterios formales, representación que más tarde es
evaluada y modificada a la luz del contexto para dar lugar a la representación
definitiva del significado de la oración.

COMPRENSIÓN DEL DISCURSO

INTRODUCCIÓN A LA COMPRENSIÓN DEL DISCURSO

Textos o discursos: son los productos últimos de la maquinaria de la mente.


De aquí surgen dos preguntas:
 a) ¿Es preciso diferenciar un nuevo nivel psicológico autónomo?
 b) ¿Es preciso recurrir al nivel supraoracional del discurso para dar
cuenta de la actividad psicolingüística?
La respuesta positiva a la primera cuestión se deriva del hecho de que la
comprensión del lenguaje incluye un nivel supraoracional con propiedades
específicas y leyes compositivas propias. El discurso se define por:
 - Coherencia, que no depende solamente de la forma y significado que
lo componen.
 - Resulta de procesos molares -> por lo cual se transmiten estructuras
complejas de ideas e intenciones que sobrepasan, a veces, la estructura
de las propias oraciones.
 - Fuerte componente inferencial en los procesos de comprensión -> no
solamente procesos de descodificación.
IMPORTANTE:
No es cierto que cada oración se corresponda con una proposición ni que el
discurso comprendido se componga sólo de las proposiciones establecidas
explícitamente.
Lo anterior da lugar a problemas de investigación a la hora de definir cómo
se impide la propagación de ideas activas por cualquier unidad de discurso:
"Cualquier unidad del discurso se deriva de un compromiso entre lo tácito y
lo explícito".
¿Cómo se seleccionan las ideas que deben hacerse explícitas y las que deben
permanecer tácitas? Grice: "Principio de cooperación". Establece en esencia
que el discurso es una actividad cooperativa entre los interlocutores (o entre
el escritor y sus lectores) siguiendo los supuestos de relevancia, economía y
coherencia, que explican por qué no hay que decir todo lo estrictamente
requerido para comprender el discurso.

LA TEORÍA DE LA DEPENDENCIA CONCEPTUAL

Lo comentado anteriormente es un obstáculo para desarrollar sistemas


artificiales inteligentes ya que hay que dotar a las máquinas de esquemas
conceptuales y conocimientos sobre el mundo que le permita realizar
inferencias a veces triviales pero que nosotros realizamos de una forma
completamente automática al comprender el discurso.
No obstante, los modelos más inferenciales y guiados conceptualmente han
sido desarrollados por teóricos de Inteligencia Artificial, siendo el modelo más
claro la Teoría de la Dependencia Conceptual (TDC de Roger Schank).
La TDC parte del supuesto de que el proceso de comprensión se guía por
entidades muy abstractas que son las conceptualizaciones y tienen carácter
proposicional, compuestas a su vez de primitivos conceptuales que son
principios últimos en que se descomponen los elementos léxicos. Las
conceptualizaciones pueden ser de acción o de estado; e incluyen ideas no
explícitas pero necesarias para la comprensión.
El núcleo principal de las conceptualizaciones son los actos primitivos,
entendidos como primitivos semánticos que se incluyen principal, pero no
únicamente, en el significado de los verbos. Implican:
 - Transferir una relación de posesión o control.
 - Localización física de un objeto.
 - Información.
 - Aplicar una fuerza sobre un objeto.
 - Mover una parte del cuerpo.
 - Etc.
El motivo a recurrir a concepciones y representaciones tan abstractas es que
para un sistema artificial no resultan accesibles a no ser que se establezcan de
forma explícita presunciones aparentemente básicas, como por ej.: que leer
consiste en transferir información a la mente obteniendo esa información por
medio de los ojos y atendiendo a un objeto al que se llama libro.
Según Schank y Abelson, las inferencias que realizamos de forma cotidiana
en la comprensión se basan en relaciones causales muy simples que obedecen
a determinadas reglas de sentido común, tales como que las acciones pueden
provocar cambios de estado, los estados pueden posibilitar acciones, pueden
impedirlas, etc.
Además de dotar al ordenador de representaciones explícitas, de relaciones
conceptuales y causales simples, Schank y Abelson necesitan utilizar
secuencias conceptuales más amplias:
 - Guiones, que representan los conocimientos de la memoria a largo
plazo, acerca de los cursos de acción producidos en situaciones
habituales.
 - Objetivos y planes, dado que los supuestos sobre la naturaleza de las
intenciones humanas también determinan el curso de la comprensión.
¿Puede caracterizarse como lingüístico el nuevo plano discursivo? Según
Schank, no. El plano del discurso es un nivel conceptual compuesto de planos
generales de inferencias. Comprender=pensar. La comprensión implica una
actividad de arriba abajo cuyos procesos solamente recurren a procedimientos
de análisis sintáctico si fallan los sistemas de dependencia conceptual por los
que se guían.
Bastantes críticas por parte de lingüistas y psicólogos, ya que hay fenómenos
lingüísticos que requieren niveles discursivos de análisis (referencia anafórica).
Además, investigaciones sobre la comprensión del discurso no avalan la idea
de que el proceso implique un predominio masivo de mecanismos de arriba
abajo con carácter exclusivamente conceptual. Esto quiere decir que el plano
discursivo constituye un punto de encuentro entre los mecanismos más
específicamente lingüísticos y los sistemas de pensamiento más globales.

LAS REPRESENTACIONES DEL DISCURSO

Mediante el enfoque cognitivo se definen un conjunto de procesos y


representaciones que explican la actividad lingüística. Los procesos se
individualizan y delimitan en función de las representaciones, luego lo
primero que hay que hacer es determinar los diferentes niveles de
representación.
El discurso está constituido por un plano manifiesto y por niveles más internos
reflejados en diversos fenómenos psicológicos; como por ejemplo: la pérdida
rápida de memoria en cuanto a la representación literal de su forma mientras
se conserva su significado.
Experimento SACHS: los cambios formales y de significado eran detectados
por igual si no existía intervalo entre la oración inicial y la de reconocimiento;
pero cuando se establecía un intervalo de unas ochenta sílabas entre la primera
y la segunda, apenas se detectan cambios de forma pero sí los de significado.
El proceso de pérdida de forma también se detecta en fenómenos de pérdida
de información referida al código de los estímulos.
Experimento ROSENBERG y SIMON: presentaban oraciones y
representaciones gráficas relacionadas entre sí y, en otra condición, oraciones
en diferentes idiomas en sujetos bilingües. Si se intercalaban oraciones y
dibujos, los sujetos reconocían en falso como presentadas las traducciones de
unas a otros en un tercio de los casos.
En la segunda condición, los sujetos bilingües decían que se les había
presentado oraciones en inglés cuando en realidad se les había presentado en
francés. Conclusión: R. Y S. Consideran que tanto dibujos como oraciones y
oraciones en diferentes idiomas comparten un mismo sistema semántico
subyacente.

LA FORMA DE LAS IDEAS EN EL DISCURSO: LAS


PROPOSICIONES

Sobre la Noción de Proposición


Dos ideas:
 - Las proposiciones son necesarias para explicar el componente
inferencial.
 - Sirven para extraer la invarianza del significado a pesar de las
diferencias de forma existente entre oraciones sinónimas.
Las proposiciones no son imágenes mentales ni oraciones; son amodales o
supramodales (no pertenecen a ninguna modalidad sensorial completa) e
implican como mínimo la predicación de algo. Las representaciones
proposicionales reflejan dos ideas básicas en Psicología Cognitiva:
- La mente es una maquinaria simbólica con lenguaje abstracto y conceptual.
- Los significados no son modales.
Luego, entonces, podremos entender las proposiciones como aquellas
unidades abstractas que posibilitan que el lenguaje tenga significado y sea
computable.
Las proposiciones nacieron en lógica en un intento de des-psicologizar la
lógica; luego constituyen las influencias de postulados logicistas en Psicología
del Lenguaje y del Conocimiento.
Las proposiciones en Psicología son:
 - Unidades de conocimiento de carácter analítico.
 - Naturaleza abstracta.
 - Poseen valor de verdad.
Se definen por reglas de formaciones explícitas.
En la comprensión del discurso los sujetos elaboran esas unidades desde las
oraciones que reciben de entrada y en la producción convierten en oraciones
las proposiciones.

EL MODELO PROPOSICIONAL DE KINTSCH

Existen varias formalizaciones y modelos proposicionales desarrollados por


los psicólogos cognitivos, de los que destacamos como diferencias más
significativas las siguientes vertientes:
 - SCHANK: las proposiciones no se componen de conceptos de la
misma extensión que palabras, sino de primitivos semánticos. (Marco
explicativo para la elaboración de simulaciones en IA).
 - KINTSCH: las palabras no se descomponen en átomos semánticos.
Los conceptos de que las proposiciones se componen abarcan la misma
extensión que las propias palabras. (Estudio experimental de la
memoria y la comprensión del discurso).
El concepto principal de Kintsch en cuanto a comprensión y memoria de
textos es el de texto base o aquel compuesto de ideas, y más propiamente de
conceptos y proposiciones que constituyen una representación elaborada de
los procesos de comprensión. También se detecta lo que podría llamarse texto
de superficie o aquel compuesto de palabras y oraciones que es el percibido
por el lector o el oyente.
El texto base se compone de ideas y se representa por un conjunto de
proposiciones ordenado en diferentes niveles jerárquicos, expresando la
intuición de que unas ideas son más importantes que otras. Las proposiciones
se componen de concepto-palabra que no deben identificarse con las palabras
como tales aunque sí con su significado, pero que no resultan de la
descomposición semántica de ellas. Según el modelo de Kintsch, al no
descomponer en primitivos semánticos la representación de las oraciones se
realizaría de forma mucho más económica. Considera que una proposición
contiene un predicado y n argumentos pudiéndose utilizar las palabras
conceptos bien como argumentos, bien como predicados, siendo función del
léxico el describir qué tipo de combinaciones son permisibles. Según la
relación de cada argumento con el predicado, se asigna a tal argumento un
caso (ej.: agente es un caso y un objeto sería otro caso). La idea de Kintsch es
que la gramática del lenguaje del pensamiento (del mentalés) es una gramática
de casos semejante a la propuesta por Fillmore basad en uan semántica
generativa. Los casos reflejan papeles semáticos, que son formas de relación
predicados- argumentos.
Los casos incluidos en la gramática de KINSTCH son los siguientes:
 - Agente: realiza la acción.
 - Paciente de experiencia: experimenta un fenómeno psicológico.
 - Instrumento: fuerza que se implica en una acción o experiencia.
 - Objeto: objeto de una acción que supone cambio.
 - Fuente: fuente de la acción en el tiempo, espacio o fuente de
transferencia.
 - Meta: resultado de la acción.
Idea importante en el modelo es el principio de que siempre que se realiza
implícitamente o explícitamente un acto de predicación , se establece una
proposición atómica. Luego el número de proposiciones que surgen de un
texto base es mayor que el número de oraciones existente en los textos de
superficie. O sea, lo que individualiza a las proposiciones es la predicación,
siendo los verbos pistas importantes. No obstante los verbos no son los únicos
elementos lingüísticos que pueden servir a la función predicativa: también lo
hacen los adjetivos, conjunciones y adverbios, e incluso los nombres en las
proposiciones nominales. Para comprender cómo las conjunciones, por
ejemplo, pueden jugar ese papel hay acudir a otro principio esencial en el
modelo: es un sistema recursivo en el que las propias proposiciones pueden
jugar el papel de argumentos de otras proposiciones.
Hay que destacar otra diferencia esencial en los dos modelos que hemos visto:
 - SCHANK: en su representación del modelo se incluyen inferencias.
 - KINTSCH: las inferencias no forman parte de la lista de
proposiciones que forman la microestructura del texto base.
La microestructura sería un primer nivel de estructura que constituye un
requisito para la coherencia del texto y determina el nivel jerárquico de las
proposiciones en el texto base.

MICROESTRUCTURA Y REGLA DE REPETICIÓN DE


ARGUMENTOS

El mecanismo por el que se define la microestructura consiste en el


establecimiento de relaciones entre proposiciones que comparten argumentos
comunes con arreglo a una regla de repetición. Se basa en el principio de que
todas las proposiciones comparten los mismos referentes. Las proposiciones
con argumentos repetidos se dice que están subordinadas a aquella
proposición en que apareció originalmente el argumento.
Para definir la jerarquía debe establecerse primero una proposición
supraordinada. Debajo estarían aquellas que comparten un mismo
argumento, y debajo de éstas las que comparten algún argumento con las
últimas pero no con la primera. Según Van Dijk y Kintsch, mediante esta
estructura se predice muy bien el recuerdo.
Esta jerarquía proposicional permite realizar predicciones psicológicas
basadas en la hipótesis de que las proposiciones del texto base tendrán mayor
relevancia cuanto mayor sea el nivel que ocupan en la jerarquía proposicional.
De aquí surgen varios interrogantes:
 - ¿Tiene las proposiciones realidad psicológica?
 - ¿Permiten predecir fenómenos que se producen en comprensión y
recuerdo de textos?

LAS PROPOSICIONES COMO UNIDADES DE PROCESAMIENTO


PSICOLÓGICO

El empleo de formalizaciones en psicología cognitiva cobra sentido en la


medida de que éstas demuestran su utilidad para predecir o simular la
conducta. Luego es necesario destacar aquellas investigaciones que
demuestran el valor de las proposiciones como unidades psicológicas. Son
cinco los paradigmas experimentales los que se enumeran a continuación.
Recuerdo con Claves
Partimos del supuesto, según Kintsch, de que las proposiciones son unidades
psicológicas compuestas de conceptos-palabras. Las palabras que
corresponden a conceptos de una misma proposición son claves de recuerdo
más eficaces que las que remiten a unidades proposicionales diferentes aún
cuando la distancia superficial de las primeras en el texto sea mayor que la de
las segundas.
Si se emplean palabras de un texto como claves para recordar otras, las claves
pueden ser más eficaces si se representan conceptos incluidos en la misma
proposición que la palabra que debe recordarse y menos eficaces si
pertenecen a proposiciones diferentes.
Recuerdo Libre
Parece que las unidades proposicionales tienden a recordarse completas con
independencia de su familiaridad o plausibilidad semántica.
Facilitación por Priming en Tareas de Reconocimiento
Los procedimientos de Priming permiten captar la influencia de variables
estructurales en el procesamiento del lenguaje.
Cuando la palabra que se reconoce sigue a otra ya reconocida de la misma
oración, los sujetos tardan menos en reconocerla como presentada que si las
palabras pertenecen a oraciones diferentes (el efecto de facilitación es de unos
100 milisegundos).
Experimento de RATCLIFF y McKOON: el efecto era mayor cuando la
palabra de Priming o el concepto al que alude y la palabra reconocida
pertenecían a la misma proposición, y menor cuando pertenecían a
proposiciones diferentes aún cuando no formasen parte de la misma oración.
Seguimiento de Palabras de Oraciones Presentadas a Ritmo Rápido
Constante
Si las proposiciones son unidades psicológicas su procesamiento debe
consumir recursos cognitivos interfiriendo con otras actividades como el
recuerdo, el reconocimiento o la lectura.
Experimento FORSTER: el procesamiento de las proposiciones interfiere
con las tareas de seguimiento.
Investigaciones Sobre Tiempo de Lectura
Si queremos demostrar la influencia psicológica de las proposiciones en la
comprensión es necesario eliminar el intervalo temporal que permite la
intervención de factores de memoria y, en especial, de la memoria a largo
plazo.
En estos procedimientos las variables dependientes pueden ser los
movimientos oculares o el tiempo dedicado a leer un texto, ya que son
variables muy sensibles a las proposiciones. Hipótesis: el tiempo que se tarde
en leer un texto dependerá del número de proposiciones que contenga.
Experimento KINTSCH y KEENAN: demuestran que las proposiciones se
codifican en el procedimiento de comprensión. Cuantas más proposiciones
eran capaces de recordar los sujetos mayor era su tiempo de lectura.
Esta relación lineal entre tiempo de lectura y número de proposiciones se ha
confirmado en estudios que emplearon textos largos y controlando el número
de argumentos o términos conceptualmente nuevos.
Recientemente se han demostrado ciertas anomalías en relación con los
hallazgos comentados. Aparecen al utilizar una variante de la técnica de los
métodos on line denominada "ventana móvil", que consiste en que los sujetos
leen textos en la pantalla de un ordenador autoadministrándose las palabras
de una en una a la vez que el ordenador registra el tiempo de lectura de cada
palabra.
Permite medir los procesos cognitivos a medida que transcurren evitando los
efectos de memoria, (la variable que se mide es el tiempo dedicado a la lectura
de cada palabra y no el tiempo total de lectura del texto). HABERLANDT Y
GRAESSER demostraron con esta técnica que el número de proposiciones
no ejerce influencia en el tiempo de lectura de cada palabra.
No se sabe el porqué de los nuevos resultados y se especula sobre la
posibilidad de que este método induzca un tipo de procesamiento diferente
al presentar los textos palabra a palabra.
Conclusión: esta última anomalía no constituye evidencia suficiente contra los
anteriores hallazgos que avalan la idea de que las proposiciones son unidades
de procesamiento. Además, los niveles jerárquicos de las proposiciones en los
textos base tienen efectos claros en el procesamiento y la retención de
información textual.

EL EFECTO DE NIVELES

Implica que las proposiciones o ideas incluidas en el contenido de un texto


no se recuerdan todas por igual y quizá no se procesan con la misma
intensidad.
Se ha demostrado en párrafos breves y en textos más largos, en recuerdo libre
inmediato y demorado y en reconocimiento demorado. No obstante, existen
divergencias en cuanto a su interpretación teórica. KINTSCH y VAN DIJK
establecen relación entre el efecto de niveles y la regla de repetición, y para
entenderla debemos aludir a su modelo de procesamiento propuesto. La
elaboración del texto base no puede esperar a que se haya presentado el texto
de superficie completo; pero la comprensión tiene lugar en el curso del
procesamiento de los datos de entrada, de forma gradual, y no
posteriormente. Este tipo de procesamiento establece limitaciones claras de
recurso, ya que procesamos los textos en tiempo real y con restricciones en
cuanto a los tiempos de atención y memoria a corto plazo. En el caso de textos
muy largos el sistema cognitivo tiene que ir elaborando trozo a trozo el texto
base. Por otra parte, el retén de memoria solo puede mantener
simultáneamente un cierto número de unidades semánticas (de una a cuatro).
Es decir, en cada momento solo contamos con un número limitado de ideas
activadas a las que incorporar las nuevas ideas del texto. Por cada ciclo de
procesamiento se seleccionan solo algunas de las ideas previas. Conforme
avanza el proceso de ciclo en ciclo, las proposiciones de nivel más alto tienden
a repetirse más al ser seleccionadas una y otra vez para retenerse en la
memoria operativa. Explicaciones del efecto de niveles:
 - Según Kintsch y Van Dijk se debe a estrategias de codificación del
texto base a partir del texto de superficie.
 - Hipótesis de la accesibilidad representacional (McKoorn): las ideas
superiores se recuerdan mejor porque sus representaciones mentales
ocupan un lugar prominente en la memoria y son más accesibles al estar
mejor integradas en el conjunto de estructuras mnémicas. Predice que
las ideas principales deberán olvidarse menos y recuperarse más
rápidamente que las secundarias, si bien esta segunda predicción no
parece cumplirse, ya que cuando recordamos textos inferimos muchas
ideas que no estaban explícitas en ellos pero que son coherentes con el
contenido del discurso. Además las inferencias se hacen más probables
en relación con las ideas del texto cuanto más importantes son,
incorparando el sistema cognitivo esas ideas principales a la estructura
de memoria incrementando la probabilidad de recuerdo.
 - Hipótesis de la reconstrucción inferencial: puede explicar una parte
del efecto de niveles debido al carácter reconstructivo de la memoria
del significado, pero los procesos inferenciales en la comprensión
también ejercen influencia en el efecto de niveles (falsas alarmas en el
reconocimiento que afectan sobre todo a ideas principales no implican
necesariamente tiempos de respuesta mayores que los reconocimientos
correctos).
¿Es el efecto de niveles un fenómeno de memoria o un fenómeno de
comprensión? ambos fenómenos intervienen en este efecto. Evidencia: las
palabras y cláusulas que corresponden a proposiciones de niveles jerárquicos
superiores reciben tiempos de lectura más altos que la de niveles inferiores.
Nos fijamos más en aquellos elementos lingüísticos que reflejan ideas
importantes y volvemos más veces sobre ellos.
CIRILO y FOX: el efecto de niveles podría explicarse por el hecho de que
las ideas superiores consumen más recursos de atención que las otras. La
comprensión de textos y discursos da lugar a la elaboración de macro-
estructuras que implican funciones de abstracción que permiten ir más allá de
la simple comprensión literal del texto.

MACROESTRUCTURAS Y TEMAS

Coherencia Local y Coherencia Global


La comprensión del discurso no sólo implica establecer una coherencia local
entre ideas, sino que constituye un proceso activo basado en el supuesto de
que los textos tienen un significado global que coincide con lo que llamamos
tema. La esencia del texto se extrae de las ideas particulares que contiene,
pero además, de un conjunto de conocimientos y esquemas sobre el mundo
al que el discurso hace referencia y de otro conjunto de esquemas sobre la
organización sobre el propio discurso.
Comprensión -> depuración + abstracción + elaboración => coherencia global
Tema, macroestructura y coherencia global remiten a dos supuestos para
explicar la comprensión:
 - Textos y discursos se organizan en torno a unidades globales de
significado.
 - Una parte importante de la comprensión consiste en obstraer esos
componentes esenciales de significado y aplicar coherencia global.
IMPORTANTE: pueden existir textos globalmente coherentes pero cuya
coherencia local sea difícil de establecer, exigiendo una intervención masiva
de inferencias.
La Noción de Macroestructura
Concepto empleado por KINTSCH y VAN DIJK para definir la descripción
semántica del contenido global del discurso. Es la organización de significado
que representa los aspectos esenciales de un texto, (efecto de niveles ->
recordamos las ideas principales de un texto y no las subordinadas). Se
correspondería con la representación psicológica de los textos y discursos en
los procesos de comprensión y recuerdo. O sea, comprensión como proceso
que permite elaborar la macroestructura de un texto a partir de su micro
estructura.
KINTSCH y VAN DIJK identifican macrorreglas, que son reglas de
proyección semántica que relacionan proposiciones de nivel más bajo con
otras de nivel más alto:
 - Supresión: se eliminan aquellas proposiciones que no son condiciones
de interpretación de otras proposiciones.
 - Generalización: varias proposiciones se sustituyen por otra que recoja
su sentido esencial.
 - Construcción: secuencias de proposiciones que son condiciones,
consecuencias o componentes de otra más global.
La aplicación de estas reglas da lugar a una estructura más económica que la
del texto base, luego comprensión -> "principios de economía cognitiva y
abstracción suficiente":
 - Se limita la complejidad de las representaciones.
 - Se extraen los contenidos esenciales para que se dé lugar el proceso
de comprensión.
La abstracción de la macroestructura es un proceso gradual que se realiza en
función de la microestructura y además, en función de los esquemas
organizados en la memoria permanente.
Se guía desde abajo por las ideas explícitas del texto y desde arriba por los
esquemas sobre la organización de los textos y los mundos reales o ficticios a
los que el texto remite.
Macroestructura y Estructura Lógica del Texto
La relaciones de coherencia están determinadas por los conocimientos
previos del lector u oyente que se presuponen en el texto sin hacerse
explícitas. MEYER establece cinco grupos de relaciones en los textos
expositivos:
 - Colecciones.
 - Causaciones.
 - Respuestas.
 - Comparaciones.
 - Descripciones.
La idea esencial es que comprender un texto consiste en descubrir las
relaciones que contiene y jerarquizarlas.
Factores de Procesamiento Macroestructural
La relación entre el nivel de las proposiciones en el texto base y el tiempo de
lectura de los elementos que representan a esas proposiciones, ( palabras,
cláusulas y frases), avalan la idea de que la comprensión implica procesos de
elaboración macroestructural. SCHMALHOFER Y GLAVANOV: las frases
que corrresponden a proposiciones superiores exigen más tiempo sólo
cuando se induce un procesamiento macroestructural por parte de los
lectores. En caso contrario, la diferencia entre proposiciones superiores e
inferiores desaparece.
Las variables principales que condicionan el grado de elaboración de la
macroestructura son:
 - Variables del texto -> textos bien organizados facilitan el
procesamiento macroestructural.
 - Propósitos y metas con que se recibe -> la elaboración de la
macroestructura se hace más probable cuando por ejemplo se plantea
el objetivo de resumir o esquematizar un texto.
 - Características personales de los sujetos -> conocimientos previos,
edad, capacidades lingüísticas, etc.
El Tema y su Relevancia Psicolingüística
Núcleo -> TEMA -> Macroproposición que ocupa el lugar más alto de la
jerarquía de la macroestructura. Es importante destacar que el tema del
discurso no es reductible a los temas de las ideas que contiene => es una guía
para acceder a un conjunto relevante de conocimientos sobre el mundo que
guían el proceso de comprensión. Cumple la doble función de apuntar los
conocimientos extradiscursivos relevantes para comprender y de organizar el
propio discurso. En la actividad discursiva se establece la necesidad de marcar
el tema con ciertos recursos lingüísticos, ( títulos, comentarios a párrafos, etc.).
Es frecuente que el tema se mencione inicialmente y no al final. También se
suele mencionar frecuentemente en el texto cumpliendo el papel gramatical
de sujeto de una oración.
Visto lo anterior, el tema facilita la integración, comprensión y recuerdo del
discurso. Además, definido por el título, determina las inferencias específicas
que se realizan sobre el texto. Hay que destacar que la primacía cognitiva del
tema se deriva de los mismos factores que explican el efecto de niveles, pero
añadimos otras dos explicaciones:
 - Conectividad: cantidad de conexiones que cada proposición mantiene
con otras en el texto base, cuando en éste se incluyen las inferencias
necesarias para la comprensión.
 - Grado de pertenencia de una idea a la cadena principal del discurso:
en todo discurso hay ideas que se insertan en un marco de relaciones
centrales y otras ideas que terminan en puntos muertos o en los que no
se continúa la cadena relacional. Las primeras son evaluadas como más
importantes y se recuerdan mejor.
No obstante a veces los temas no son explícitos y puede haber proposiciones
inferidas con niveles de conectividad y pertenencia a la cadena principal
mayores que los de otras ideas explícitas en el texto o discurso.

COMPRENSIÓN Y CONOCIMIENTO: LOS ESQUEMAS

Los esquemas son estructuras cognitivas genéricas de alto nivel, jerárquicas e


interconectadas, que contienen conocimientos prototípicos. Organizan el
conocimiento encajándose unos en otros y configurando una estructura
inclusiva del sistema cognitivo. Son instrumentos esenciales de inferencia al
contener relaciones que permiten comprender el carácter tácito de las
proposiciones implicadas en la comprensión.
Cumplen funciones de integración y elaboración de los textos, facilitan las
inferencia y predicciones y la selección y el control de la información.
La activación de los correspondientes esquemas aportan a los textos la
coherencia global suficiente para su comprensión. Intervienen en la
codificación, definiendo el significado de ciertos elementos textuales y
relacionando unos elementos con otros de forma que hacen que la
comprensión sea en parte, una actividad predictiva.
Existen varias tipologías de esquemas: perceptivos o marcos, situacionales
- "guiones", abstractos de dominio, sociales, de autoconcepto, etc. Los más
estudiados en relación con la comprensión son los guiones, (importantes en
la TDC de SCHANK). Pueden entenderse como paquetes de información
relativos a situaciones convencionales, incluyendo secuencias estereotipadas
de acciones secuenciadas con arreglo a relaciones de causalidad o mera
contigüidad.
Su papel de integración es necesario para la elaboración de la macroestructura
en la comprensión explicando el mejor recuerdo de los párrafos globalmente
coherentes. Los guiones configuran estructuras canónicas, de forma que
cuando las acciones de un guión se encuentran desordenadas el sistema
cognitivo tiende a reordenarlas con arreglo a su orden canónico.
Críticas:
 - Constatación teórica de la inflexibilidad que pueden tener. La
actividad de la comprensión parece ser más versátil. Solución ->
RUMELHART: consideran los esquemas como propiedades
emergentes del funcionamiento de redes conexionistas de
procesamiento distribuido y paralelo cuya configuración sería el
resultado de modos de funcionamiento probabilístico, no estrictamente
reglado con un grado de flexibilidad mucho mayor que el de los
esquemas clásicos.
 - Constatación empírica de que es posible la comprensión de textos que
no se corresponden con ningún guión almacenado en la memoria. (Los
guiones no bastan para la comprensión y conviven con reglas generales
de inferencia).
KINTSCH, incorporando la filosofía conexionista, ha propuesto un
procesamiento del discurso en dos fases:
 - Primera: bottom-up (de abajo a arriba), de activación en una red de
unidades moleculares, significados y evocación de proposiciones e
inferencias.
 - Segunda: selección y refinamiento de proposiciones e inferencias en
función del contexto activado en la fase anterior.

MODELOS MENTALES Y ESCENARIOS EN LA COMPRENSIÓN


DEL DISCURSO

La comprensión del discurso implica también la definición de modelos


específicos desde fases muy tempranas, acerca de los referentes concretos del
discurso y las situaciones a que estos se refieren. Al comprender construimos
escenarios mentales iniciales que delimitan el procesamiento posterior del
discurso, permitiendo a su vez, una definición cada vez más precisa y completa
de los propios escenarios o modelos mentales.
Las teorías de los modelos mentales, a diferencia de las teorías
proposicionales clásicas, proponen la intervención de escenarios mentales no-
lingüísticos desde el procesamiento inicial, diluyendo la importancia de los
procesos macrolingüísticos de elaboración discursiva. Se ciñen más a modelos
estrictamente lingüísticos de explicación.
SANFORD y GARROD: consideran los escenarios como redes de
información que se recuperan desde la MLP desde una entrada lingüística y
pueden variar mucho en su grado de precisión y complejidad, (laxos -------------
----detallados y completos). (Escenarios construidos al principio de una
narración y los construidos posteriormente).
La construcción del escenario de una novela sirve de ejemplo para ilustrar las
propiedades de los modelos mentales:
 - Son representaciones dinámicas: se transforman y elaboran a lo largo
del proceso de comprensión.
 - Poseen algún grado de isomorfismo con sus referentes : a diferencia
de las proposiciones, que son entidades abstractas y arbitrarias.
 - Preservan aspectos determinantes de las formas y las relaciones de los
mundos a los que representan: cuestión relacionada con la posible
identidad de los modelos mentales con las imágenes mentales.
 - Especifican objetos, sucesos, personajes y roles, que se mantienen
activados y accesibles en la memoria guiando el procesamiento del
discurso.
CRÍTICAS: relacionadas con la relativa falta de precisión y elaboración
formal que poseen.
 - No definen con claridad sus primitivos representacionales, ni el código
en que se representan.
 - Tampoco definen modelos cognitivos precisos que permitan explicar
paso a paso los procesos de comprensión.
No obstante, permiten explicar fenómenos como:
 - Correferencia: que expresiones del discurso remitan a un mismo
modelo de situación.
 - Coherencia global: definida por el modelo de situación.
 - Perspectiva: los modelos varían en función de la perspectiva desde la
cual se elaboran.
 - Datos empíricos: al menos ciertas inferencias discursivas se guían por
los escenarios y se hacen más difíciles en la medida que implican la
modificación de los propios modelos de situación o la incorporación
de nueva información no compatible con ellos.
Metodología SANFORD Y GARROD: textos administrados oración por
oración. Se mide el tiempo de comprensión de cada oración y ha demostrado
varias predicciones:
 - Los escenarios se forman en fases iniciales.
 - Dirigen los procesos de inferencia.
 - Hacen innecesaria la abstracción de proposiciones puente entre
proposiciones explícitas del texto, ya que los contenidos informativos
de éstas se integran en los propios escenarios mientras se procesan .
Una vez construido el escenario, éste regula las inferencias sin la
necesidad de nuevos elementos lingüísticos.

INFERENCIAS DISCURSIVAS Y TEXTUALES

El texto o discurso se puede concebir como un compromiso entre un


conjunto de información codificable y otro conjunto de información inferible.
Las investigaciones se han articulado en torno a varias opciones:
 - Modularistas frente a interactivo-contextuales.
 - Teorías basadas en el texto (KINTSCH) frente a las basadas en
modelos de situación.
 - Dicotomía entre comprensión y memoria o entre fases iniciales y
avanzadas.
Respecto a la primera hay que distinguir entre:
 - Inferencias perceptivas: encapsuladas, automáticas y extremadamente
rápidas. Dejan de manifestarse en el priming transmodal a los 250
mseg.
 - Inferencias cognitivas: dejan de manifestarse tras 500 mseg. Y se han
clasificado de varias formas siendo la más simple en inferencias
necesarias y elaborativas. Las primeras son imprescindibles para
vincular una unidad lingüística a otra inmediatamente anterior.
HAVILAND Y CLARK consideran a las inferencias necesarias inferencias
puente, que en lógica y lingüística se denominan implicaturas. Estos autores
han demostrado que las oraciones de prueba que exigen inferencias puente o
implicaturas tardan más tiempo en comprenderse que aquellas que no las
requieren. Las inferencias puente también han recibido el nombre de
inferencias retrospectivas, dado que implican la relación entre una unidad
lingüística y otra anterior a la que ésta debe ser ligada. También existen otras
inferencias de carácter prospectivo que se denominan optativas o elaborativas,
cuya función está más ligada a rellenar lagunas.
La diferencia procesual clara entre inferencia puente y elaborativas es que la
primeras se realizan en actividades de comprensión e implican la evaluación
de conocimientos generales o entinemas. La dificultad de comprensión de los
inputs que implican inferencias puente depende de la dificultad de acceso a
los entinemas que corresponden con éstas y de la dificultad para evaluarlos.
Principio importante: las funciones de comprensión son capaces de hacer
variar el nivel de profundidad de las representaciones que son producto de
ellas. Las inferencias elaborativas forman parte de componentes más
interactivos y sensibles a los procesos del pensamiento en función de un
conjunto variado de factores. Las inferencias puente por su parte, definen la
coherencia del texto e intervienen en procesos de comprensión más
automatizados.

EL CONTRATO DADO-NUEVO Y LA COMPRENSIÓN DEL


DISCURSO

La comprensión del discurso implica procesos de acceso a la memoria y


recuperación de información previa ya almacenada, asimilación de ideas
nuevas a las dadas, definición de puntos de anclaje, etc. Las inferencias puente
son un ejemplo de procedimiento que asegura ese principio. La estrategia del
discurso mínimo o tendencia a dar sólo la información relevante, se puede
entender como concreciones de la estrategia de lo dado y lo nuevo.
CLARK Y HAVILAND: los receptores esperan que los productores del
discurso empleen información marcada como dada para referirse a la que ya
poseen de antemano y marcada como nueva a la información que no conocen.
De lo anterior se derivan muchos procesos que se dan en la compresión:
 - Diferenciar entre lo dado y lo nuevo.
 - Encontrar antecedentes de la información dada.
 - Añadir información nueva a los núcleos de memoria.
O sea, que los procesos de comprensión se entienden como actividades
cooperativas dentro de los sistemas cognitivos que elaboran nuevos conjuntos
de información a partir de la que está previamente compartida, llegando por
tanto a la conclusión de que los componentes receptivos y productivos del
lenguaje son enormemente dependientes.

PRODUCCIÓN DEL DISCURSO Y CONVERSACIÓN

DISCURSO, CONVERSACIÓN Y TEXTO

La conducta comunicativa para un psicólogo (y más directamente, para un


psicolingüista de orientación cognitiva) o el uso comunicativo del lenguaje
puede verse como una forma de conducta que presenta, dos características:
 a) Implica la elaboración de enunciados lingüísticos gramaticales lo que
presupone, en el hablante, una competencia lingüística, y
 b) Tales enunciados suelen constituir contribuciones aceptables en
relación con los objetivos de la interacción o intercambio comunicativo
en que se producen, lo que presupone también una competencia
pragmática.
Desde una lógica cognitiva, por tanto, la comunicación a través del lenguaje
puede ser vista como una actividad compleja cuya planificación y realización
se desarrolla bajo restricciones tanto internas al sujeto (la organización
funcional del sistema de procesamiento lingüístico) como externas ( las
demandas del contexto comunicativo y las condiciones que éste impone a la
conducta lingüística).
El supuesto de que la conversación, constituye la forma más básica y
prototípica de discurso, o, si se prefiere, la idea dé que toda conducta
lingüística con propósitos comunicativos es, en cierto modo una forma de
conversación, no presupone, sin embargo, que las conversaciones constituyan
formas de actividad estructuralmente monolíticas. Normalmente, las
conversaciones tienen lugar «cara a cara» (boca a oreja) en el caso de las
conversaciones telefónicas.
En estos casos el lenguaje adopta la forma de un diálogo y presenta una
estructura secuencial que implica lo que se denomina una toma o intercambio
de turnos a través de la cual el discurso va adquiriendo continuidad semántica
y pragmática. En otras ocasiones, sin embargo, las conversaciones adoptan
formas aparentemente menos dialógicas.
Es lo que ocurre, por ejemplo, cuando alguien imparte una conferencia o
cuando redacta un mensaje que ha de enviar por correo. En estos casos, el
hablante dirige sus mensajes a un interlocutor que, por razones de distancia
física o de conveniencia social, no puede responder ni intervenir «sobre la
marcha» en el proceso conversacional; un interlocutor, por tanto, que no
contribuye con sus intervenciones (verbales o no verbales) a resolver el
problema de la continuidaddel discurso.
La situación en estos casos, desde un punto de vista comunicativo, continúa
siendo equivalente a la de un diálogo en la medida en que la producción
lingüística sigue estando dirigida a alguien, siquiera pasivo o físicamente
ausente.
Sin embargo, desde el punto de vista cognitivo, la situación ahora presenta
propiedades semejantes más bien a las de un monólogo: exige del hablante la
planificación de mensajes lingüísticamente complejos y completos sin la
colaboración activa de otro y, en ese sentido, hace necesaria la utilización por
el hablante de recursos lingüísticos y no lingüísticos no menos complejos que
garanticen la coherencia interna del discurso y su "interpretabilidad" tanto en
el plano microestructural como en el de la macroestructura
En cierto sentido, pues, cabe asumir que
 a) Todo discurso, por su carácter comunicativo, puede interpretarse
como una forma de conversación (o, si se prefiere, que desde un punto
de vista comunicativo, «discurso» y «conversación» pueden ser
considerados como nociones equivalentes);
 b) Toda conversación o discurso, en función del grado de coincidencia
espacio-temporal de las aportaciones o turnos de los distintos
participantes, puede ser considerado como un monólogo o como un
diálogo, y
 c) Los monólogos y los diálogos pueden desarrollarse en una
modalidad bien oral, bien escrita, aunque indudablemente, resulta más
usual la realización de diálogos en la modalidad oral que en la escrita.
Una primera definición del concepto de discurso, compatible con estas ideas,
sería aquélla que lo interprete como una forma de actividad que implica la
producción de lenguaje en situaciones de interacción o conversación, que
puede realizarse en condiciones tanto monológicas como dialógicas, y que
puede adoptar modalidades perceptivas igualmente diversas (ej. oral o
escrita) Ahora bien, ¿se agotan en esta definición todos los elementos
conceptualmente relevantes para una teoría psicológica del discurso? Desde
luego que no.
A veces, las nociones de «discurso» y «conversación» han sido identificadas
con objetos observables que permiten dar cuenta de la realización en tiempo
real de series coordinadas y observables de acciones lingüísticas (actos de
habla, en un sentido amplio) por parte de uno o varios interlocutores en un
contexto comunicativo dado.
En este primer sentido ambos términos han servido para designar:
 a) un objeto empírico, el conjunto de actos de habla concretos que
tienen lugar en un contexto espacio-temporal y comunicativo dado y
que pueden ser observados durante su realización en tal contexto).
 b) Otras veces, sin embargo, estos mismos términos han sido utilizados
para designar objetos teóricos. En este caso, la noción de «discurso»
puede coincidir con la abstracción de las propiedades generales de una
forma de actividad lingüística, concretamente, aquella que implica la
realización de series de actos de habla en un mismo contexto
comunicativo, por uno o varios hablantes y no la producción de
enunciados individuales aislados
 c) También, en un sentido más restrictivo, puede ser usado para
designar ciertos aspectos de la actividad cognitiva que realizan los
participantes en una conversación. En este último sentido, el término
«discurso» se identificaría con una forma
de representación concretamente, la que los sujetos tienen del
significado proposicional e intencional global de los mensajes que se
emiten en una conversación dada
Al igual que los conceptos de «conversación» y «discurso», la noción de texto,
que casi siempre sugiere el empleo de una modalidad escrita, ha sido utilizada
para expresar:
 a) un objeto empírico conjunto estructurado e interdependiente de
oraciones o enunciados lingüísticos que han sido emitidos durante un
discurso o conversación. Así, el término texto hace referencia, a un
producto lingüístico que puede ser descrito en cuanto a su estructura
formal y su contenido semántico yio su contenido pragmático actuales
 b) un objeto teórico: una abstracción, la que se refiere a las relaciones
de interdependencia conceptual, gramatical y/o funcional que existen
entre las oraciones o enunciados lingüísticos producidos durante un
discurso o conversación dados. En esta a acepción, expresa más bien el
constructo hipotético que permite dar cuenta del hecho de que tanto
los monólogos como los diálogos poseen propiedades globales que los
identifican como unidades en sí mismos. Entre estas propiedades,
suelen destacarse las siguientes:
o - son unidades completas (es decir, que tienen un sentido pleno,
independiente del de otras emisiones lingüísticas)
o - son unidades topicalizadas (es decir, que poseen una unidad en
sus contenidos semánticos).
o - Cumplen una función comunicativa realizan una intención.
o - Se emiten en una situación espacio temporal concreta
¿A que nos referiremos, por tanto, al hablar de producción del discurso?
Básicamente, al conjunto de representaciones (semánticas, pragmáticas y
gramaticales) y de procesos (cognitivos y lingüísticos), que subyacen a la
planificación y emisión de series coordinadas de enunciados lingüísticos o
textos, con propósitos comunicativos, en un contexto conversacional.
Del mismo modo, asumiremos con Edmondson (1981) la conveniencia de
reservar el calificativo de "texto" al conjunto global de enunciados emitidos por
los participantes durante el desarrollo de tal diálogo, mas que a los enunciados
generados en cada movimiento o turno de conversación individual.
Las tres propiedades de los discursos que resultan más pertinentes para una
teoría psicológica de producción verbal son:
 a) El hecho de que son conductas intencionales que se realizan en
situaciones cooperativas de interacción social (las conversaciones)
 b) El hecho de que constituyan unidades de lenguaje en uso, en
contextos específicos y cambiantes.
 c) El hecho de que suelan ser unidades supraoracionales que poseen
regularidades estructurales y funcionales cuya descripción debe de
realizarse en un plano distinto al que se aplica a ls propiedades
sintácticas y semánticas de los enunciados lingüísticos individuales.

EL CARÁCTER INTENCIONAL Y COOPERATIVO DEL DISCURSO

Intenciones y discurso
La primera idea a destacar en una caracterización psicológica del discurso, en
tanto que forma de actividad lingüística es, la de su carácter intencional. Que
las personas por lo general hablan "para algo" y que lo que dicen posee un
carácter instrumental respecto a ese «algo». A partir de la obra de Austin
(1962), a la intención comunicativa con la que se inicia que es realizada por,
una emisión lingüística suele llamársele «componente o fuerza ilocutiva de una
emisión.
A las emisiones que realizan intenciones comunicativas se las denomina,
siguiendo la tradición de los filósofos del lenguaje inspirados en Austin, «actos
de habla» (ej. Searte, 1969, 1975), siendo este uno de los conceptos muy
desarrollados por los filósofos del lenguaje.
Sin embargo, aunque, Levelt (1989) decía que los actos de habla (y su
componente de definición más característico: la "fuerza ilocutiva") parecen
expresar nociones "centradas en el hablante", estos conceptos no llegan a
proporcionar, por sí mismos, claves de explicación psicológica, es decir, claves
que informen de las representaciones y los procesos mentales que posibilitan
la realización, por parte de los hablantes, de actos de habla comunicativamente
eficaces. ¿Cuáles pueden ser estas claves?
Para encontrar estas claves, los teóricos de la Inteligencia Artificial, han
considerados los actos de habla, como casos prototípicos de «conducta
orientada a metas» o como casos de «solución de problemas guiados por
objetivos que implican la construcción de planes por parte de un sistema
inteligente. Los planes, por su parte, han sido concebidos como
representaciones simbólicas que pre-especifican la secuencia de acciones que
tal sistema debe realizar en orden a la consecución de las metas u objetivos
previamente definidos.
Las descripciones formales de los planes desarrollados por los teóricos de la
simulación para la explicación de los actos de habla y de otras conductas
intencionales han tendido a articularse en torno a tres núcleos
computacionales básicos, estos son:
a) Conocimiento factual del que dispone el sistema, es decir, una base de
conocimientos o conjunto de descripciones simbólicas referidas al estado
actual del mundo o de algunos de sus dominios. El conocimiento que los
sujetos tienen del mundo es un conocimiento complejo, de tipo declarativo,
que consta de tres elementos:
 a.1) conocimiento general o enciclopédico del mundo
 a.2) conocimiento de la situación comunicativa en que se realiza el
discurso
 a.3) conocimiento de los modelos de mundo que poseen los
interlocutores.
Desde un punto de vista computacional, estos modelos incluyen dos tipos de
componentes:
 - Uno esquemático y general: el que cada uno tiene sobre sus
interlocutores por el hecho de ser personas.
 - Otro con conocimientos o metarrepresentaciones, más episódicas y
cambiante acerca de los conocimientos, las creencias y los deseos
actuales de los interlocutores concretos, en cada momento, lo que
Premack y Woodruff ha venido llamando teoría de la mente.
b) Un conjunto de operadores o acciones, que son procedimientos
parametrizados que permiten al sistema influir sobre el estado del mundo y
modificarlo. Los parámetros son fundamentalmente tres:
 b).1- Sus condiciones de aplicabilidad, las llamadas pre-condiciones,
que deben darse para que las acciones puedan ejecutarse.
 b).2- Los efectos que pueden derivarse de su ejecución, que deberán
contrastarse con ls metas perseguidas.
 b).3- Los medios a través de los cuales puede el sistema ejecutar sus
acciones.
c) Un sistema o motor de inferencias que permite establecer
correspondencias entre los dos componentes anteriores. Este sistema de
inferencias suele identificarse con un conjunto de reglas definidas en forma
de pares "condición-acción" similares a los descritos por Anderson (1983) en
los llamados "sistemas de producción"
Dado un estado inicial del mundo (I), y un estado objetivo (O), un plan sería
la secuencia de acciones, que permite transformar (I) en (O) En ese, sentido,
la producción de un discurso, podría ser vista como la realización de una serie
de acciones lingüísticas planificadas por un sistema, como respuesta al intento
de consecución de un objetivo comunicativo.
Así los actos de habla individuales actúan como operadores parciales de que
se sirve el sistema para lograr objetivos, los discursos son interpretables como
conjuntos de actos de habla previamente planificados que se ejecutan uno a
uno en orden a la consecución de una meta.
Últimamente, numerosos investigadores han demostrado que actos de habla
básico tales como peticiones, por ejemplo, pueden ser modelados como
operadores de un sistema de planificación especializado en la consecución de
objetivos no lingüísticos a través de acciones lingüísticas. Podemos comentar
algunos de los supuestos que han sido más influyentes en la elaboración de
teorías psicológicas de la producción de los discursos naturales:
 a) Funcionalmente los actos de habla deben de ser vistos, en opinión
de los teóricos de Inteligencia Artificial como operadores que afectan
primariamente a los modelos que tienen los hablantes y los oyentes de
si mismos Para ello se apoyan en lo dicho anteriormente sobre la teoría
de la mente, el conocimiento factual,( punto a) de la página anterior etc.
uno de los tres núcleos computacionales básicos.)
 b) Para un sistema inteligente, la generación de un plan presupone la
elaboración de un objetivo, esto es de una representación relativa a un
estado no actual y deseable del mundo, que puede ser alcanzado
mediante la realización de ciertas acciones. La deseabilidad no puede
ser evaluada computacionalenmente en términos precisos y / o
discretos. Black et al (1983) ha dejado constancia, (a través de la
descripción estructural de las conversaciones naturales) de que en un
mismo discurso existen planes entrelazados, y que se suele intentar
realizar simultáneamente más de un objetivo comunicativo. Por lo que
la planificación de los discursos parece imponer al hablante la
realización de operaciones de cómputo (quizás no conscientes) relativas
a la priorización interna de sus objetivos, para alcanzar eficacia
comunicativa.
 c) Los planes subyacentes a los actos de habla definen secuencias de
acciones a realizar para la consecución de una meta. La definición de
los planes del discurso se sitúa en un plano computacional incompatible
con el plano fenomenológico, cabe suponer que el hablante puede
tener un cierto conocimiento fenomenológico de su intención
comunicativa, pero nunca de la representación simbólica del plan que
computacionalemte determina su realización efectiva.
 d) La definición de los mecanismos de inferencia que guían la ejecución
de los planes globales y la de sus correspondientes subplanes constituye
también objeto de una teoría computacional de los actos de habla
basados en la noción de plan
 e) El fracaso de alguna de las submetas o la decisión de realizar una
submeta incompatible con el objetivo global, se entiende obliga al
sistema a revisar su plan y a planificar una secuencia nueva de acciones.
En este sentido, algunos autores han interpretado que los fallos
proporcionan al sistema información de utilidad para predecir qué
alternativas de acción pueden ser las eficaces en el futuro. Ello equivale
a afirmar que la actividad de producción del discurso es una actividad
que implica una posibilidad de autorregulación en base al análisis de
los resultados obtenidos en actividades previas (retroinformación) La
especificación del modo en que opera este dispositivo funcional debe
de formar parte también de una teoría computacional del discurso.
 f) Las teorías de los actos de habla basadas en planes definen la
capacidad de los hablantes para elaborar planes alternativos que
pueden ser apropiados para la realización de una cierta intención
comunicativa. La explicación de los mecanismos que regulan la
selección de uno u otro plan formaría parte de una teoría de
la actuación. Aunque todavía no en ninguna teoría completa de este
tipo, sí existen intentos por identificar sus componentes básicos. Entre
ellos uno que se menciona con cierta frecuencia es que la selección final
entre planes alternativos se deriva de la evaluación que realiza el
hablante de la probabilidad de que su intención comunicativa pueda
ser reconocida e identificada adecuadamente por el interlocutor.
Diversos autores( Sperber Wilson (1986)) están de acuerdo al
manifestar que las conductas intencionales comunicativas no solo
realizan intenciones, además hacen manifiesta a otros la intención de
comunicar algo. Este carácter ostensivo que poseen las conductas
comunicativas es tan importante como su carácter intencional primario
de cara a una caracterización computacional (y por tanto psicológica)
de los discursos.

EL DISCURSO COMO ACTIVIDAD QUE SE DESARROLLA EN UN


CONTEXTO

Una idea que ha ido cobrando fuerza en las explicaciones psicológicas


recientes de la producción del- lenguaje, y que en su momento fue
desarrollada por el lingüista francés Benvániste, es la de que la realización del
discurso implica siempre, por parte del sujeto, un acto de enunciación, esto
es, un acto de presentación lingüística de si mismo en tanto que sujeto que
realiza su acción en unas coordenadas espacio temporales y con
una actitud concretas.
La información referida a tal presentación (que define las condiciones
externas físicas e internas, actitudinales, del discurso) se marca
lingüísticamente en los textos a través de los indicadores de persona, espacio
y tiempo los llamados términos deicticos, así como a través de
las modalidades de enunciación que definen y permiten identificar la actitud
de certidumbre, duda, posibilidad, etc., que el hablante adopta respecto a su
enunciado.
La idea de que los discursos y, secundariamente a ellos, los textos no alcanzan
su sentido o significado completo sino en el contexto de la situación en que
han sido realizados es también una idea conocida para los sociolingüistas y los
etnometodólogos, quienes durante décadas, han estado interesados en la
descripción y categorizacíón de las variables del contexto institucional, social
e interpersonal en que se desarrollan las acciones discursivas y en el análisis
de la influencia que ejercen tales tipos de contexto sobre el contenido y/o la
forma de los discursos.
Desde una perspectiva. psicolingüistica cognitiva, los aspectos contextuales del
discurso tienen también interés teórico, pero siempre y cuando
el conocimiento del contexto forma parte del conocimiento común en el que
se sustentan los discursos cooperativos y que, por tanto, constituye un
comportamiento representacional necesario de los actos de habla.
Para algunos autores, la noción de contexto debería englobar el conjunto de
elementos que influyen de forma sistemática sobre la actividad lingüística.
Ello, implicaría interpretar como contexto del discurso tres tipos de
elementos:
 a) el conocimiento social de la situación;
 b) el texto en sí mismo (con-texto, en un sentido literal)
 c) los elementos paralingüistícos y extralingúísticos que acompañan la
realización de los- textos (ej. ciertas propiedades del contexto físico en
que se desarrolla el discurso o los gestos que se realizan durante las
conversaciones "cara a cara", el llamado por algunos co-texto

CONOCIMIENTO SOCIAL, PERSPECTIVA Y PRODUCCIÓN DEL


DISCURSO

Aunque el conocimiento social de la situación constituye un tipo de


conocimiento extralingüistico, el reconocimiento progresivo de su
importancia para la explicación de ciertos aspectos de la producción de los
discursos ha ido determinando que los psicolingüistas y los teóricos de la
Inteligencia Artificial interesados en la simulación del lenguaje se hayan ido
interesando cada vez de forma más explícita por las descripciones y teorías de
corte psicosocial.
Según los psicólogos sociales, la representación social de las situaciones debe
entenderse como un conglomerado de conocimientos de distinta índole que
definen el rango de opciones de conducta que resultan posibles o aceptables
en un determinado contexto de acción.
Aunque los componentes del conocimiento social que hipotéticamente
intervienen en la actividad discursiva son bastante heterogéneos, podríamos
interpretar que estructural y funcionalmente estos tipos de información
pueden agruparse en dos grandes categorías:
 - Por un lado, cabría hablar de representaciones generales,
esquemáticas y estables relativas tanto a las situaciones en que
habitualmente se desarrollan las acciones sociales como a ciertos
aspectos de los roles sociales convencionales; estas representaciones
serían- similares a las que componen los «guiones», los «marcos» y las
personae, que se han venido denominado «conocimiento de las
situaciones sociales y de sus formas más prototípicas o comunes» (ej.
las condiciones de la interacción médico/paciente o de la participación
en una ceremonia religiosa).
 - En segundo lugar, cabría identificar, representaciones episódicas
sobre la situación física y social actual de los discursos (ej.
representaciones sobre el. estatus social de los participantes concretos
en una conversación, o sobre el tono emocional de esta)
Desde un punto de vista cognitivo, estos dos tipos de representaciones dan pie
a interpretar que la producción de discursos y conversaciones, al igual que su
comprensión, implica mecanismos- de activación de esquemas de
conocimiento social previamente adquiridos, pero también- mecanismos de
elaboración supervisión y actualización de las representaciones relativas al
contexto actual del discurso.
En términos funcionales, estos tipos de información y de mecanismos
resultarían similares a los postulados anteriormente para dar cuenta del
empleo, por el hablante, de información relativa a sus interlocutores, tanto en
lo que respecta a su modelo de mundo (componente esquemático) como a su
estado actual de conocimientos y creencias (contenido episódico) de la
llamada «teoría de la mente» (Premack y Woodruff, 1978, Leslie1987).
CONOCIMIENTO DEL CONTEXTO, FÍSICO Y DEIXIS

Ya se ha visto que la representación de la situación que fundamenta la


perspectiva que los hablantes adoptan durante la producción de los discursos
posee un importante componente socia. Sin embargo, este componente no es
él, único que configura el contexto cognitivo común del discurso.
Por ello, es necesario aludir también, al conocimiento que los participantes
poseen del contexto físico en que se generan los discursos y al anclaje
perceptivo que los discursos mismos poseen respecto a tales contextos. Este
anclaje que se hace patente en los intercambios conversacionales más simples,
se instrumentaliza lingüísticamente, a través de la presencia, en el texto, de un
tipo particular de marcas lingüísticas: los llamados «términos deícticos».
La noción de deixis (que en griego significa "mostrar") expresa,
fundamentalmente, una función: la que conecta el discurso con su contexto
físico y con la información que sobre este contexto comparten el- hablante y
el oyente. Gracias a la deixis el oyente puede localizar e identificar referentes
como personas objetos, acontecimientos y actividades que se mencionan en
el discurso aunque no se describan explícitamente en el.
El carácter esencialmente deíctico de los discursos fue ya destacado por
Bühler en 1934 y ha constituido uno de los principios rectores de la
investigación de buena parte de los psicolingüistás encuadrados en
el "funcionalismo centroeuropeo" en los últimos años. Por otro lado, que la
deixis es una función compleja que: implica la utilización de representación
de muy diversa índole constituye una apreciación inevitable tras el análisis de
cualquier secuencia discursiva natural.
En el coloquio de nuestro ejemplo los hablantes han producido
simultáneamente varias expresiones deícticas (las que aparecen en cursiva)
Algunas de ellas, que en castellano son elípticas, son deixis de persona (tu por
ejemplo, señala a aquella persona a la que se dirige el hablante en momento
dado del discurso pero no es una persona fija: varía en cada turno
conversacional).
Otras, son formas deícticas de lugar (ej «esto», «aquí», que indican una
proximidad física respecto al hablante o de tiempo ("antes", "ayer"). Por último,
nuestro ejemplo contiene también una forma deíctica de discurso ("lo"), que
remite anafóricamente a algo de lo que se ha hablado previamente y que
vuelve a ser foco de atención otra vez.
La elección de todas estas formas presupone, el conocimiento, por parte del
hablante, de una situación espacio-temporal dada a la que de algún modo tiene
acceso también el oyente, así como el conocimiento de un sistema lingüístico
específico (el sistema de marcadores deícticos de su lengua) cuyos elementos
poseen condiciones contextuales muy concretas de utilización.
Como ha sido ampliamente documentado por estudios evolutivos, el
desarrollo de las habilidades deícticas (la adquisición de los términos deícticos
y su empleo correcto en los discursos), al igual que el desarrollo de la mayoría
de las actividades cooperativas, está estrechamente vinculado a la capacidad
del sujeto para «des-centrarse» (en el sentido piagetiano del término) y para
adoptar la perspectiva del otro, es decir, para elaborar modelos mentales o
metarrepresentaciones de lo que el otro puede conocer y percibir (en este
caso, sobre un contexto espacio-temporal concreto) en cada momento del
discurso.
De forma paralela, la alteración patológica o la falta de desarrollo de esta
capacidad se traducirá en la realización de discursos que resultan
incomprensibles o no cooperativos precisamente porque fallan en la
capacidad para situar los referentes! deícticos en un marco de conocimiento
sobre el contexto físico o discursivo compartido también por todos los
interlocutores
Un ejemplo que ilustra con claridad la complejidad cognitiva de la deixis es el
uso de términos espaciales como "aquí", "allí", "arriba", "abajo", "delante",
"detrás", "izquierda", "derecha" y otros similares.
El carácter esencialmente egocéntrico de las deixis no parece ser, desde luego,
un fenómeno exclusivo del lenguaje. Como han observado Graumann y
Somrner (1989) citando, entre otros, a Husserl, la experiencia perceptiva, la
experiencia cognitiva y la experiencia social en general participan también de
este carácter egocéntrico. Sea como fuere, la «egocentricidad» es una
propiedad que, en tanto en cuanto se proyecta también en el discurso, lo hace
interpretable para el oyente y, por tanto, funcional.

EL DISCURSO COMO ESTRUCTURA LINGÜÍSTICA


SUPRAORACIONAL

Los discursos pueden interpretarse como conjuntos de secuencias de


emisiones lingüísticas. Sin embargo, un discurso no es, salvo excepciones
patológicas muy graves (ej. algunas manifestaciones del Ienguaje psicótico),
una secuencia arbitraria o inconexa de emisiones.
Como acertadamente han hecho notar algunos autores, la razón de mas, peso
que justifica el estudio diferenciado del discurso en el ámbito de las ciencias
del lenguaje es precisamente el hecho de que las emisiones lingüísticas
producidas en contextos naturales configuran unidades holísticas de acción
cuyas propiedades (ej su funcionalidad o eficacia comunicativa) no son
reductibles; a la suma de las propiedades de las unidades individuales que las
componen.
Los lingüistas y filósofos del lenguaje han acuñado términos como los de tema
o tópico general del discurso, acto de habla global, macro proposición, y otros
muchos con él fin de expresar la noción, por otro lado intuitiva, de que los
discursos y conversaciones constituyen unidades coherentes sintáctica y
pragmáticamente. Sin embargo, esta propiedad tan distintiva de los textos,
su textura, como la llama Halliday y Hasan (1976), o su textualidad, como la
denomina De Beaugrande (1979, 1980B), admite descripciones y
caracterizaciones teóricas muy diversas.
Veamos, siquiera esquemáticamente, algunas de las más conocidas:
 a) La cohesión de los discursos
 b) La coherencia de los discursos:
o - coherencia local o secuencial
o - coherencia global
o - la coherencia como relevancia
o - la naturaleza esquemática de los discursos, noción de
superestructura

COHESIÓN

El concepto de cohesión, "ha sido creado para explicar relaciones que se dan
en el discurso... La cohesión se refiere al conjunto de recursos. que permiten
vincular una oración con las que se han presentado antes en el texto" Halliday
y Hasan (1976).
Dichos recursos, incluyen marcas morfosinticas especificas (ej. mecanismos
de coordinación, subordinación gramatical concordancias, etc.), pero,
también, mecanismos tales como las elipsis, la referencia y las repeticiones
léxicas.
Según Halliday y Hasan (1976); la cohesión de los textos es un fenómeno o
propiedad del sistema lingüístico y sólo puede ser entendida desde el propio
sistema lingüístico como instrumento de expresión de ideas. Sin embargo, son
muchos los autores que han cuestionado la utilidad de una interpretación tan
«centrada en el propio texto» como la de los mencionados Halliday y Hasan.
La textualidad, observan. Lanín et al., 1981; Brown y Yule, 1983; Schneuwly,
1985; Chaíka, 1990)., no es una propiedad que pueda ser interpretada sólo
por referencia a la existencia de relaciones gramaticales o semánticas dentro
de un texto. Ni tan siquiera, bajo el supuesto de que ciertas unidades
individuales del discurso (ej. las anáforas) sólo pueden ser entendidas en el
marco de tales relaciones.
La textualidad requiere la referencia a las condiciones semánticas o
pragmáticas y también conceptuales que hacen a las distintas partes del
discurso mutuamente relevantes entre sí en el marco de un contexto
comunicativo intencional y cooperativo; requiere, en definitiva, el recurso a
un plano de descripción más abstracto y menos lingüístico que el de la
cohesión. A dicho 'plano, en términos generales, se le identifica técnicamente
con el llamado plano de la coherencia.
Ejemplos de vínculos de cohesión y sus principales categorías
Categoría Subcategoría Ejemplo
Nos encontramos con
Referencia 1 Pronominal
Antonio y cenamos con él
Fuimos a una fiesta y... bueno,
2 Demostrativa
aquello fue una locura.
Se me acercaron tres tipos
3 Comparativa extraños El más bajo me
preguntó si llevaba fuego
Tiene mucha energía.
Elipsis 1 Nominal Desde luego, tiene mucha
más que yo
Querría quedarme aquí toda la
2 Verbal vida, *dejar de trabajar, *dejar
de aguantar al jefe.
¿Conoces Boston? Yo no, pero
3 De cláusula
mi hermana si *
Leí un libro la semana
Conjunción 1 Aditiva
pasada y me gusto bastante
Querían ir a Barcelona pero el
2 Adversativa
avión no pudo aterrizar
3 Causal No vino porque prefirió ir al cine
Estuve un rato con María, luego
4 Temporal
me fui al Rastro
Mi hermano necesita
Léxica 1 Igual raíz independizarse. Depende
mucho de mi padre,
Siempre miente, además se cree
2 Sinónimo que no nos damos cuenta de que
nos engaña
Me encanta el pescado fresco. El
3
otro día me comí un salmón
Superordinario
extraordinario
Se fue la luz. La lampara de mi
4 Item general
habitación chisporroteó un
momento y después todo se
volvió oscuro

LA COHERENCIA DE LOS DISCURSOS

El concepto de coherencia puede identificarse en primer lugar con la


existencia de ciertas relaciones locales entre las proposiciones individuales
constituyentes de un discurso Sin embargo, la naturaleza de estas relaciones
tampoco cuenta con una definición unívoca.
Por ejemplo, la interpretación local de la coherencia en los diálogos se ha
vinculado al hecho de que las contribuciones de los hablantes a las
conversaciones están organizadas en pares adyacentes de actos dé habla que
revelan la existencia de relaciones pragmáticas entre las unidades del discurso
derivadas de su contenido elocutivo.
La noción de "par adyacente" fue originalmente propuesta por
etnometodólogos para dar cuenta de la observación empírica de que ciertas
intervenciones de los hablantes parecen ser contingentes respecto a las
intervenciones inmediatamente precedentes y pueden ser predichas en buena
medida a partir de ellas.
Sin embargo, algunos otros autores han sugerido la conveniencia de
reformular la propuesta de los etnometodólogos y de sustituir el concepto de
«par adyacente» por el concepto, algo más amplio, de intercambio
comunicativo».
 A: ¿Vas a ir a la fiesta de mañana? (PREG).
 B: ¿Dónde es? (PREG).
 A: En Cercedilla (RES).
 B: No sé si mi hermano me dejará e1 coche (RES).
Los intercambios comunicativos, a diferencia de los pares adyacentes, constan
prototipicamente de dos movimientos: uno de inicio y otro de respuesta.
Los inicios son siempre prospectivos y permiten establecer predicciones
acerca de los tipos de respuesta posibles; las "respuestas": son siempre
retrospectivas, en el sentido de que realizan las predicciones derivadas de un
movimiento de inicio anterior, aunque ocasionalmente pueden implicar
también un inicio.
 A: ¿Dónde está la máquina de escribir? (Inicio).
 B: ¿No está en el armario? Respuesta /Iniciofl.
 A: No (Respuesta).
Según Edmondson (1981), los movimientos de respuesta constituyen
mecanismos de coherencia en las conversaciones en tanto en
cuanto satisfacenlas condiciones perlocutivas de los inicios. En este sentido,
cabría interpretar que las contribuciones de los hablantes a las conversaciones
se rigen, en buena medida, por una especie dé "principio de búsqueda de
satisfacción perlocutiva.
Según Hobbs, la planificación y realización de un discurso coherente, por
tanto, comportaría, la toma de decisión por el hablante acerca del tipo de
relación concreta que va a utilizar para conectar unos enunciados con otros e
irá regida por lo que podríamos llamar un principio de búsqueda de
coherencia proposicional lineal.
2. De tipo funcional:
 a) Especificación.
1. De tipo condicional/temporal:  b) Generalización.
 a) De Causas/razones.  c) Explicación.
 b) Componentes de la acción.  d) Contraste.
 c) Permisión.  e) Ejemplo.
 d) Sucesión en el tiempo.  f) Paralelismo.
 e) Ocurrencia simultánea.  g) Corrección.
 h) Preparación.
 i) Evaluación.
Relaciones básicas de coherencia lineal entre proposiciones, según Hobbs
(1979, 1983).

COHERENCIA GLOBAL

Las tipologías de índices de cohesión de secuencias de actos de habla o de


relaciones proposicionales en el discurso pueden 'considerarse, como
ejemplos representativos de interpretaciones centradas en la coherencia local
de los discursos. Sin embargo, estas relaciones no garantizan completamente,
por si mismas, ni la textualidad ni la interpretabilidad de éstos.
De ahí que sea necesario apelar a principios y categorías todavía más
abstractos que permitan dar cuenta tanto de la coherencia global de los
discursos como de la capacidad de los hablantes para generarlos.
Una interpretación recurrente en los análisis de la coherencia global gira, en
torno a la noción de tópico o tema general del discurso.
Desde un enfoque referencial, los tópicos se interpretan como unidades
semánticas relativamente abstractas que se infieren del hecho de que distintos
enunciados del discurso comparten referentes similares, es decir, «dicen algo»
o determinan que se diga algo acerca de unos mismos objetos, entidades o
actividades.
Por contraposición, y desde una perspectiva proposicinal, los tópicos se
interpretan como proposiciones también generales y abstractas que contienen
el centro o centros de interés del hablante o el «común denominador que
permite describir una situación o una secuencia de hechos como un todo»
En el sentido en que los interpreta Van Dijk, los tópicos o
macroproposiciones de los discursos serían unidades equivalentes a los
resúmenes de la macroestructura semántica de los textos (equivalentes, en
cierto sentido, al «título»). Así, la producción de un discurso coherente se
interpretaría como un proceso que exige al hablante las siguientes
operaciones:
 a) la definición de un acto de habla global (la definición del contenido
pragmático del discurso);
 b) la elaboración de la macroproposición que define los contenidos
semánticos generales del acto de habla global, y que se establecen a
partir de lo que el hablante conoce, quiere, recuerda e interpreta como
relevante en un contexto.
 c) la construcción, a partir de esta macroproposicion de una jerarquía
de tópicos más específicos que eventualmente constituirán el input de
la planificación de unidades menores tales como los párrafos o las
oraciones individuales.
Rachel Reichman (1978) ha propuesto también una interpretación de la
coherencia global de los textos basada en la noción de tópico que es aplicable
al análisis de los discursos dialógicos. Interpretó que los tópicos pueden verse
como unidades semánticas abstractas que se desarrollan a través de una serie
de «espacios de contexto», cada uno de los cuales agrupa aquellas emisiones
o turnos de habla que tratan sobre un mismo objeto o evento.
La organización estructural de los discursos coherentes, así como su
realización por los hablantes, podría pues caracterizarse, para esta autora,
definiendo los tipos dé relaciones lógicas que vinculan a unos espacios de
contexto con los otros, en orden al desarrollo de un tópico general.
Reichman pone el acento en la distinción entre "tema" y "eventos" dos
conceptos que permiten clasificar los espacios de contexto en función de su
contenido: dicho contenido seria general, en el caso de los «temas», y más
específico, puesto que ilustra un evento relacionado con un tema, en el caso
de los «eventos». La coherencia de los discursos vendría dada, según esta
teoría, por el hecho de que las contribuciones de los hablantes giran en torno
a un mismo tópico, el cual se realiza a través de sucesivos espacios de contexto
relacionados entre sí.
Algunas de estas relaciones (ej. la de «generalización», que se da cuando un
espacio-contexto del tipo «evento» es seguido por uno del tipo «tema», o la
«relación ilustrativa», cuando la secuencia ocurre en sentido inverso) guardan
cierta semejanza con las definidas por Hobbs para la relación entre
proposiciones individuales.
Reichman (1978), a partir del análisis de conversaciones naturales, identificó
también un conjunto de indicadores lingüísticos a través de los cuales los
hablantes suelen «marcar» las transiciones de un espacio de contexto a otro
(ej. la expresión «por cierto», indica el inicio de una digresión; «en cualquier
caso», indica el fin de la digresión y la vuelta a un tema o evento previo;
«entonces» puede indicar el fin próximo de un tópico, etc
También, en un segundo momento de su investigación, Planalp y Tracy
(1980) elaboraron una tipología de estrategias de cambio de tópico a partir del
supuesto de que tales transiciones s rigen por principios similares a los
descritos por Grice (1975) en su "máxima de relevancia" y por Clark y
Haviland (1977) en su contrato de "lo nuevo y lo dado".
De esta se concluyó que los hablantes cambian el tópico del discurso (sin
romper por ello su coherencia global) cada vez que consideran que es
necesario para ajustarse a las necesidades informativas de sus interlocutores.
En concreto, se cambia el tópico del discurso en los cuatro siguientes casos:
 a) para introducir un tópico nuevo que se interpreta como relevante
para el tópico inmediatamente anterior de la conversación (lo que
llaman "cambio de tópico inmediato").
 b) para introducir un tópico que se interpreta como relevante para
alguno de los tópicos abordados en un momento de la conversación
anterior ("cambio de tópico previo");
 c) para introducir un tópico que se interpreta como relevante respecto
a la información que los interlocutores comparten y que puede ser
recuperada a partir del contexto físico o social de la situación
comunicativa («cambio de tópico ambiental»), o
 d) cuando interpretan que el nuevo tópico puede guardar relación y ser
integrado en los esquemas de conocimiento previos de sus
interlocutores ("cambio de tópico no especificado").

LA COHERENCIA COMO RELEVANCIA

Con el trabajo de Planalp y Tracy (1980), y el de Reichman (1978), puede


decirse, que los textos sono no son coherentes en la medida en que los
enunciados que los compon puedan integrarse en una estructura de
conocimiento o de acción previa y mas global: ya se defina esta como una
macroestructura (Van Dijk, 1977, 1980), como un «modelo mental del
discurso (Johnson-Laird,1986) o como un «acto de. habla global» (Van Dijk
1980).
Los discursos y conversaciones serán, por tanto, coherentes en la medida en
que sean «interpretables».
Un texto coherente implica, por parte del oyente, la posibilidad de relacionar
el contenido proposicional de los enunciados del discurso con un conjunto de
proposiciones (emitidas o implícitas) y de presuposiciones que:
 a) se conocen previa mente
 b) pueden ser recuperadas de la memoria en el punto exacto en el que
la conversación lo requiere, y
 c) resultan relevantes para la interpretación del significado de los
enunciados.
Simétricamente, por parte del hablante, la coherencia presupondrá la
capacidad de establecer un modelo mental con realidad psicológica también
para oyente (un conocimiento común mínimo e inicial) y la elaboración de
enunciados sucesivos relevantes (que produzcan efectos sobre la estructura de
conocimiento previa) para este modelo mental.
En ambos casos, el procesamiento de los discursos parecería regirse por
un principio de búsqueda de relevancia (Sperber y Wilson, 1986 1987) que
implica la realización eficaz de operaciones inferenciales sobre el estado de
conocimientos previos del interlocutor relativamente complejas. Estas
operaciones o mecanismos inferenciales, según Riviere (1.991), son
esencialmente de tipo deductivo, presumiblemente idénticas a los que
participan en otras formas de actividad inteligente.
La interpretación pragmática que identifica la coherencia de los textos con la
relevancia en un contexto cognitivo y comunicativo dado, ha sido desarrollada
explícitamente por Spelber y Wilson en 1986, en su principio de búsqueda
de relevancia, que toma su nombre una de las máximas de Grice, destaca que
la actividad comunicativa humana se rige esencialmente por criterios
de economía cognitiva, lo que determina que el hablante intente producir la
máxima relevancia con el mínimo esfuerzo cognitivo, y destaca también la
estrecha dependencia existente entre los procesos implicados en la
producción de los discursos y otros procesos cognitivos de carácter «central»,
como los mecanismos inferenciales que subyacen a toda forma de
razonamiento o el esfuerzo atencional.
Por otro lado, la teoría de Sperber y Wilson destaca la naturaleza
primariamente conversacional y metarrepresentacional de la actividad
discursiva y la dificultad de establecer una barrera tajante entre los procesos
responsables de su producción (por el hablante) y de su comprensión (tanto
por e oyente como por el propio hablante).
Harry Stack Sullivan, un autor de orientación dinámica propuso, en la década
de los años veinte, una hipótesis que denominó "hipótesis del auditor
fantástico"próxima en algunos puntos a la que da contenido al trabajo de
Sperber y Wilson.
Según la hipótesis de Sullivan, todo discurso implica, para el hablante la
realización de un proceso de "autocomposición" que lleva consigo la puesta a
prueba de la utilidad informativa potencial de sus mensajes a través del
contraste de los mensajes planificados y todavía no emitidos con un "oyente
supuesto" o "interlocutor imaginario" que representa las necesidades
informativas del interlocutor real.
En la medida en que el modelo de «interlocutor fantástico» simule
adecuadamente al «interlocutor real», el mensaje será comunicativamente
eficaz. En la medida en que existan discrepancias entre ambas
representaciones, se producirán fallos de coherencia y de interpretabilidad de
los mensajes.
La hipótesis del «auditor fantástico», aplicada al ámbito de la comunicación
humana y específicamente, al ámbito de la explicación de las habilidades de
comunicación referencial, permite establecer predicciones empíricas similares
a las derivadas del «principio de relevancia» de Sperber y Wilsónn (1986) y
dar cuenta de buena parte de las observaciones recogidas en el ámbito de la
investigación experimental sobre comunicación referencial tanto con sujetos
normales como con distintas patologías del lenguaje

LA NATURALEZA ESQUEMÁTICA DE LOS DISCURSOS

Como ha observado Van Dijk en numerosas ocasiones (ej. 1978, 1980)


nociones como las de tópico o macroestructura, con ser esenciales para dar
cuenta de la textualidad y coherencia de los discursos, resultan por sí mismas
insuficientes en una caracterización de su coherencia global (especialmente
cuando los textos son planificados y ejecutados por un solo hablante, caso de
los monólogos y de los textos escritos).
¿Por qué? Porque, con cierta frecuencia, los textos poseen un
carácter esquemático, convencional y fijo, que es independiente de su
contenido semántico, es decir, poseen regularidades estructurales que
permiten diferenciar distintos tipos de «formatos», así, las narraciones o
historias, los discursos procedimentales o las narraciones de cómo hacer algo,
los textos expositivos o ensayos, los textos exhortativos o sermones, y otros.
A las estructuras que identifican los tipos o formatos globales de discurso se
las llama superestructuras. Las superestructuras son, en este sentido,
representaciones abstractas de la organización del contenido de los discursos
que se fijan culturalmente y que, en cierta forma, organizan el significado
global (macróproposicional) de los textos (Van Dijk, 1980).
Desde el punto de vista del oyente, las superestructuras, que están
estrechamente vinculadas a otras unidades de representación esquemática de
las acciones e interacciones sociales como los marcos o los guiones,
proporcionan una base de conocimiento relativamente invariable en
condiciones normales que facilita la realización de inferencias causales tanto
«hacia delante» como «hacia atrás» y tanto durante la comprensión de textos
orales como escritos.
Desde el punto de vista del hablante las superestructuras determinan
jerárquicamente algunas de las decisiones iniciales de la planificación de sus
discursos: por ejemplo influyen sobre la selección de las unidades temáticas
centrales del discurso (los tópicos) y sobre la ordenación lineal y jerárquica de
los subtópicos en el texto.
El respeto al orden cronológico de los acontecimientos en las narraciones, la
presentación lógica de los argumentos en los discursos expositivos y
procedimentales, etc., constituyen, así, mecanismos de coherencia no ligados
al contenido semántico ni a la relevancia pragmática de los discursos, pero
también importantes en tanto en cuanto conectan a los discursos con formas
generales y esquemáticas de representación del conocimiento, que facilitan a
los oyentes la construcción de inferencias y expectativas y, consiguientemente,
la comprensión e interpretación de los discursos.
Al mismo tiempo, condicionan decisiones del hablante, durante la
producción, que posteriormente se reflejan en la propia organización
superficial de los textos y en algunas de sus marcas lingüísticas.
La estrecha conexión existente entre las superestructuras y otras formas o
unidades esquemáticas de representación del conocimiento en la memoria no
permite interpretar, sin embargo, que los procesos psicolingüísticos
responsables de la producción y la comprensión de los discursos son meros
reflejos de los procesos centrales y que, por tanto, su caracterización nada
aporta a la caracterización científica de estos últimos.
Dubitsky y Harris (1980), han demostrado que los formatos textuales,( las
superestructuras) transportan por sí mismos contenidos ilocutivos que pueden
influir y modificar la comprensión y los recuerdos de los textos (su
interpretabilidad, en un sentido amplio.
Para poner a prueba su hipótesis, estos autores presentaron una misma
información en textos que se ajustaban a cuatro formatos discursivos distintos:
una narración, una descripción, un anuncio publicitario y una conversación.
Tras pedir a sus sujetos que realizaran una tarea de recuerdo y otra de «juicios»
sobre la información presentada, observaron que el número de unidades
informativas recordadas y la «actitud» o valoración de los sujetos hacia ciertos
aspectos de la información presentada, o hacia la dificultad de los textos
mismos, variaba significativamente de unos textos a otros (ej. los contenidos
factuales se recordaban peor cuando se presentaban en forma de anuncio que
en formatos dé descripción o narración), sin embargo, la comprensión de
estos últimos se valoraba como más difícil que la de los anuncios o
conversaciones).
Los resultados obtenidos por Dubitsky y Harris, si bien no deben ser
considerados como concluyentes, pues no ha sido replicado el estudio,
ilustran la idea de que algunas de las representaciones de orden superior que
permiten dar cuenta de la organización formal de los textos constituyen, como
ha sugerido Van Dijk (1980), «ejemplos prototípicos del conocimiento
organizado en esquemas de los usuarios del lenguaje».
Por otro lado, abren la puerta a la intrigante posibilidad que la naturaleza
intrínsecamente conversacional de los discursos (operativizada mediante
variables pragmáticas como la de «fuerza ilocutiva global del discurso»)
imponga peculiaridades estructural y/o funcionales a estas representaciones y,
por extensión, tengan implicaciones para la caracterización de la propia
organización funcional del sistema cognitivo.
Sin duda, la posibilidad de identificar el dominio cognitivo pragmático
discursivo con propiedades computacionales diferenciadas tanto respecto al
dominio lingüístico como a otros dominios cognitivos más generales (ej. de
solución de problemas o de razonamiento) está en el trasfondo de la
propuesta de Van Dijk (1980) cuando define un tipo de unidades, a las que
también llama «macroestructuras» como unidades de representación
comunes a ciertos tipos de actividades cognitivas complejas (concretamente,
el discurso y otras formas de interacción) pero diferenciables de
representaciones o procesos más generales como los implicados en la
utilización de guiones y marcos.
Sin duda, la sugerencia es todavía demasiado especulativa.

REPRESENTACIÓN Y PROCESOS EN LA PRODUCCIÓN DE


DISCURSOS

Las propiedades básicas del discurso y las razones que inducen a interpretarlo
como forma de actividad intencional, su eficacia viene regulada por principios
como el de la "cooperación", que en intercambios comunicativos naturales, los
humanos elaboran y hacen uso de representaciones cambiantes según con
las personas con las que se comunica (especialmente de los "estados mentales"
de esas personas durante la comunicación, de sus intenciones comunicativas
y de los conocimientos que poseen y/o comparten con el hablante), de
los contextos o situaciones donde se llevan a cabo estas conversaciones y del
contexto lingüístico o discurso previo.
La caracterización formal de la "competencia pragmática o comunicativa", es
decir, los tipos de identificación de representación o conocimientos relativos
al contexto (intrapersonales, físicos o lingüísticos), constituyen piezas básicas
para la explicación cognitiva de la actividad lingüística como la construcción
de teorías sobre el conocimiento gramatical y su uso o sobre el conocimiento
general del mundo en la interpretación de los discursos y oraciones.
La dificultad que implica el intento de formalizar los aspectos más centrales y
contextual izados de la actividad lingüística, no existe ningunas propuesta que
constituya una "teoría explicativa" de la producción de discursos y
conversaciones.
Pese a esa inexistencia, de teorías psicológicas completas que expliquen
cognitivamente la `producción de discursos y conversaciones en contextos
comunicativos naturales,, existen propuestas y alternativas de procedencia
disciplinar heterogénea que abordan esta problemática.
Algunas de ellas relativas a los tipos de representaciones implicadas en la
realización de discursos y conversaciones eficaces; otras establecen hipótesis
sobre la naturaleza y/o funcionamiento de los procesos. En este apartado nos
haremos eco de unas y otras y comentaremos algunos datos evolutivos que
pueden aclarar la naturaleza de las representaciones que componen la
competencia pragmática y sus semejanzas y diferencias respecto a las que
componen la competencia lingüística y gramatical.

COMPONENTES REPRESENTACIONALES

Los tipos de conocimientos que se han visto involucrados más frecuentemente


como componentes representacionales de la realización eficaz de discursos y
conversaciones por diferentes autores, la realización eficaz en situaciones
interactivas (conversación) es una forma de actividad compleja que implica,
por parte del hablante la utilización de conocimientos tanto de
tipo declarativo como de tipo procedimental; además del conocimiento
gramatical y del conocimiento general del mundo, se han señalado los tipos
de conocimientos que se presentan en el cuadro.
 a) Conocimiento de los procedimientos de selección y jerarquización
de intenciones u objetivos comunicativos y procedimientos para
elaborar, implementar y revisar planes orientados a metas.
 b) Modelo del oyente (o teoría de la mente del interlocutor) y
conocimiento de procedimientos para predecir la actividad de los
interlocutores y regular el propio discurso atendiendo a dichas
predicciones.
 c) Conocimiento del "conocimiento mutuamente manifiesto" o
"conocimiento común" con los interlocutores que fundamentan el
cálculo eficaz de las condiciones de relevancia de las contribuciones al
discurso.
 d) Modelo de discurso previo y conocimiento de los procedimientos
que permiten regular el contenido informativo del discurso (equilibrio
entre la información nueva y la dada).
 e) Modelo de contexto pragmático o situación concreta en que se
desarrolla el discurso.
 f) Conocimiento de las propias conversaciones (vg. Las máximas de
Grice) que regulan los intercambios comunicativos.
 g) Conocimiento de las formas textuales básicas (narrativo, expositivo)
y de sus correspondientes macroestructuras canónicas.
 h) Conocimiento de los procedimientos que permiten mantener la
contextualidad (coherencia inicial y global) entre las unidades del texto.
 i) Procedimientos para recuperar y re-utilizar conocimientos adquiridos
previamente a partir de textos.
 j) Procedimientos para evaluar y manejar situaciones mediante el uso
de textos lingüísticos.
 k) Procedimientos para mantener el discurso a pesar de las
discrepancias, discontinuidades, ambigüedades y ocurrencias no
esperadas que puedan producirse.
Tipo de conocimientos declarativos y prodecimental (no gramaticales) que
intervienen en la producción de discursos y conversaciones, según De
Beaugrande (1980b).
Los teóricos de la I.A. han elaborado programas de simulación de la
producción de discursos y conversaciones que confirman la validez
psicológica de la mayoría de los tipos de conocimientos recogidos en el cuadro
1; así como el interés de su individualización y formalización para la
explicación científica de la producción de mensajes comunicativos coherentes
y/o adecuados.
Sistemas como el ELIZA que puede simular una entrevista de corte rogeriano;
el SHRDLU responder preguntas relativas a la ordenación de bloques en un
tablero; el TALE-SPIN que genera historias y cuentos coherentes; el
PAULINE genera versiones alternativas de un mismo texto en función de los
objetivos retóricos, las metas atribuidas al interlocutor y las cualidades
"afectivas" del contexto, han demostrado, en una explicación cognitiva, el
presuponer la existencia en el sistema cognitivo, de componentes de
procesamientos especializados en la utilización de información de la situación
y el tema de la conversación, ciertos estados mentales del hablante y de su
interlocutor (las metas y objetivos comunicativos de ambos), el sustrato
presuposivional del discurso previo, los principios reguladores básicos de la
participación y la organización interna de textos complejos coherentes.
"Competencia Lingüística" frente a los que componen "La Competencia
Pragmática":
 a) El carácter formal e independiente del contenido que poseen las
reglas gramaticales pero no las pragmáticas, que exige suponer
mecanismos de cómputo específico para el tratamiento de las
posibilidades y restricciones combinatorias de las primeras pero no de
las segundas.
 b) La menor dependencia respecto a la experiencia del sujeto en el
mundo (experiencias de interacción) del proceso de adquisición del
conocimiento gramatical frente al de la adquisición de la competencia
pragmática.
 c) El carácter constitutivo de las reglas y principios gramaticales frente
al carácter puramente regulativo de principios pragmáticos como los de
cooperación, equilibrio entre la información nueva y dada o la
búsqueda de coherencia.
Estas tres propiedades, unidas, a las condiciones en que adquieren los niños
la gramática de su lengua, han llevado a atribuir un carácter innato y
biológicamente determinado al conocimiento lingüístico y a interpretar su
existencia, en nuestra especie, de un dispositivo mental con propiedades
computacionales radicalmente específicas y distintas a las que subyacen en
cualquier otro tipo de capacidad y/o actividad.
De forma simétrica, los conocimientos que integran la competencia
pragmática, por la mayor dependencia del sujeto con su entorno, constituye
un derivado no innato, sino aprendido, de competencias simbólicas o
comunicativas más generales, por lo que, las habilidades pragmáticas son
manifestaciones de capacidades no específicas que pueden ser observadas
tanto en dominios no lingüísticos de humanos como de otras especies.
La distinción entre conocimientos de la gramática de la lengua (competencia
lingüística) y el conocimiento extragramatical (competencia pragmática) es una
distinción crucial en el estudio psicológico del lenguaje.
Algunas habilidades pragmáticas comienzan a adquirirse en etapa
prelingüistica (primeros meses de vida), parecen desarrollarse como las
gramaticales y parecen requerir dispositivos cognitivos similares a algunos de
los que subyacen a la adquisición de la gramática.
Sobre esta base postularemos la hipótesis de que la adquisición de habilidades
gramaticales y pragmáticas pueden seguir cursos evolutivos distintos, que por
separado, pueden vincularse genéticamente a competencias o capacidades
biológicamente determinadas y que existe un componente de procesamiento
específicamente pragmático, que opera como punto de enlace funcional entre
las competencias cognitivas generales ( u "horizontales", según la terminología
forodiana) y las competencias propiamente lingüísticas.

PROCESOS DE PLANIFICACIÓN Y EJECUCIÓN DE DISCURSOS

El análisis de los procesos es el aspecto globalmente menos desarrollado en


las teorías del discurso. Ello puede explicarse a partir de varias
consideraciones. Por un puede interpretarse que los investigadores (quizá
influidos por las tradiciones metodológicas de lingüistas y sociólogos;
auténticos pioneros del estudio científico del discurso y las conversaciones)
han tendido más a la descripción que a la explicación de esta forma de
conducta.
En segundo lugar, puede ser oportuno recordar que la naturaleza intencional
y contextualizada de los procesos y representaciones implicados en el discurso
ha tendido a ser excluida a priori de las explicaciones psicolingüísticas,
tradicionalmente formalistas y claramente interesadas en el estudio del sistema
de procesamiento del lenguaje per se.
En tercer lugar, cabe señalar la gran dificultad que supone para la investigación
observacional y experimental la necesidad de analizar simultáneamente un
grupo amplio de variables interdependientes (como parecen ser las que
influyen en la producción de los discursos) y el todavía poco extendido
recurso a las técnicas de simulación en el ámbito de la investigación
psicológica.
En última instancia, puede ser pertinente también hacer notar que utilización
de técnicas de simulación (que en teoría permitirían resolver las dificultades
metodológicas de la observación y la experimentación) posee limitaciones
importantes para la caracterización on-line de los procesos psicológicos que
se realizan en los discursos; en el caso de procesos de alto nivel como los que
resultan pertinentes para el análisis de los discursos (vg. procesos de «arriba a
abajo, que poseen un marcado carácter inferencial y de retroinformación), ello
acaba por imponer definiciones de la noción misma de «proceso», son
claramente más laxas que las que se aplican al estudio de otras áreas del
procesamiento lingüístico (vg. la percepción y producción del habla, el léxico
o los procesos de parsing).
Los intentos de explicación de los discursos en términos cognitivos son, pues,
todavía escasos y, por lo general, fuertemente especulativos. No obstante, cabe
ofrecer una pincelada general de lo que parecerían ser algunos de los procesos
más importantes de la producción de discursos y conversaciones naturales en
sus formas más comunes; la producción de monólogos orales, la producción
de monólogos o textos escritos y la participación en conversaciones cara a cara
y telefónicas.
a) La producción de monólogos orales.
Las características más importantes de los monólogos orales, de cara a una
identificación de los procesos implicados en su planificación y elaboración,
son, en nuestra opinión, fundamentalmente tres:
 1) el hablante debe asumir en su totalidad las decisiones de
planificación del contenido informativo y de la organización secuencial
del discurso (i. e. debe resolver por sí mismo el problema de la
continuidad, coherencia y relevancia del discurso desde que éste se
inicia hasta que finaliza);
 2) el hablante debe establecer sistemas de control de actuación
discursiva fundamentalmente internos (aunque pueda recibir
retroinformación no verbal de su interlocutor), y
 3) el hablante debe planificar y producir su discurso en una secuencia
temporal en continuo avance que implica una permanencia y acceso
limitados breves de los mensajes recién emitidos en la memoria.
Según Van Dijk (1980), el proceso de producción de los discursos se inicia
con la elaboración de una representación general que contiene información
tanto del acto de habla global (o intención comunicativa) como del tópico
principal a desarrollar a lo largo del discurso. A esta representación general
que recoge información sobre el estado actual y deseado de las cosas, Van
Dijk la denomina «macrohecho» o «macroproposición».
La construcción de las macroproposiciones implica la activación de
información de la memoria a largo plazo a partir de la información situacional
y, eventualmente, de otros discursos.
La macroproposición se almacena, durante la planificación del discurso, en la
memoria a corto plazo y operaría como una especie de representación-base
desde la que se generan representaciones temáticas mas específicas (los
«microhechos» o subtópicos.).
Estas representaciones más específicas constituirían el imput potencial de la
codificación lingüística de los párrafos y/o de las oraciones y serían ordenadas
jerárquicamente en función de su relación con el tópico central (la
representación de esta jerarquía también se mantendría activada en la
memoria a corto plazo).
La derivación de subtópicos a partir de la macroproposición general se
entiende, en el modelo de Van Dijk, como resultado de la aplicación de una
macrorregla (la llamada macrorregla de «construcción»), pero la realización
efectiva de este proceso se vería restringida por condiciones pragmáticas (que
determinarían la selección de subtópicos relevantes), por condiciones
semánticas (que determinarían cuál es la información mínima requerida para
que el contenido de los mensajes pueda ser considerado como «nuevo») y por
condiciones derivadas de la influencia «desde arriba» de la macroproposición
y de la superestructura (que determinarían la linealización general de los
subtópicos).
La macroproposición y la jerarquía de subtópicos generada a partir de ella,
como hemos dicho, se almacenarían en la memoria a corto plazo.
Desde ahí, suministrarían la información necesaria y controlarían la ejecución
efectiva del plan discursivo. El sistema de control, imprescindible para
asegurar la relevancia y la coherencia de cada nueva oración respecto al plan
de discurso global, implica el mantenimiento en el retén de la memoria a corto
plazo de representaciones correspondientes a las oraciones que
sucesivamente van verbalizándose, así como una contrastación de cada una de
ellas respecto a su intención y tópico iniciales.
Aunque, como se ve, la eficacia del discurso depende básicamente, según este
autor, de la posibilidad de realizar adecuadamente las operaciones de control,
a lo largo de todo el proceso no se descarta la activación continua de
conocimiento almacenado en la memoria a largo plazo que se utilizaría para
la revisión y, en su caso, reformulación del plan macroproposicional.
En una línea igualmente especulativa, De Beaugrande (1980b) ha publicado
también algunas sugerencias en torno a la producción de discursos orales, si
bien su interés se ha centrado sobre todo en el proceso de composición
escrita. De sus comentarios destacaremos solamente dos ideas.
En primer lugar, la idea (recogida de Petöfi, una de las figuras claves de la
lingüística textual de los años setenta) de que toda producción de discurso
presupone la elaboración, por parte del hablante, de una representación
inicial global (llamada aquí "modelo de texto») que sintetiza el conocimiento
transportado y activado, por el discurso (cfr. Albadalejo, 1987).
El modelo de texto se interpreta como insertado en un «modelo de la
situación» que recoge, entre otras, la representación de los planes y objetivos
de los participantes en la situación comunicativa (sin que se especifiquen las
funcionales entre uno y otro o sus respectivos mecanismos de generación).
Como única pista al respecto, De Beaugrande señala que interpreta la
elaboración del modelo de texto como un proceso desarrollado por un
sistema cognitivo al que se identifica, como los teóricos I.A., con un
«solucionador de problemas que genera planes».
Una segunda idea a destacar de las propuestas de De Beaugrande es la de que,
según este autor, toda producción textual hace necesaria la definición, por el
propio sistema, de un «umbral de terminación»: la función atribuida a dicho
umbral, como se desprende fácilmente de su propia denominación, es la de
permitir establecer cuándo están realizadas las intenciones comunicativas y
cuándo, por tanto, debe concluirse el proceso.
Ni las propuestas de Van Dijk ni las De Beaugrande han dado pie al desarrollo
de programas de investigación empírica sistemáticos.
No obstante, la observación de algunas patologías del lenguaje
(fundamentalmente las de sujetos como los esquizofrénicos, con problemas
de control cognitivo y con problemas también en la producción de discursos
coherentes y relevantes Rochester y Martin, 1979, Belinchón, 1988a y b;
Chaika, 1990 parecen avalar, siquiera indirectamente, algunas de sus
intuiciones al respecto.
d) La producción de textos escritos.
En comparación con el discurso oral, la producción de textos escritos ha
recibido una gran atención por parte de los psicólogos del lenguaje, pudiendo
decirse que, hoy por hoy, el estudio de los procesos implicados en la escritura
constituye un dominio de investigacion psicolingüística importante (por la
cantidad y calidad de los estudios realizados) y bastante diferenciado respecto
al de otras formas de discurso.
Desde el punto de vista cognitivo, la composición escrita presenta importantes
diferencias respecto a la producción oral, siendo quizá su rasgo más
importante el de que es un proceso sujeto a un mayor grado de control por el
hablante ya que éste dispone de mucho más tiempo para organizar y corregir
su mensaje.
Como ha señalado, por ejemplo, Akinasso (1982), durante la escritura, el
hablante suele realizar la tarea en soledad, no en un contexto de actividad
social compartida, de forma que la retroinformación social es inexistente o
está sujeta a una demora relativamente grande.
En esta modalidad de discurso, por otra parte, el texto construido está
físicamente presente y es totalmente accesible al sujeto (lo que le permite a
este introducir cuantas correcciones estime conveniente).
En la medida en que el hablante y su interlocutor están en situaciones físicas
distintas, aquel se ve obligado a construir cuidadosamente las referencias: ello
es así porque, al carecer de un contexto físico compartido, el hablante debe
proveer a su interlocutor no sólo de la información que le permita a éste
identificar los referentes del discurso sino también del contexto, que necesita
el interlocutor para poder proceder a tal información.
Por último, el hablante, en esta modalidad, dispone de un único canal para su
discurso (la escritura), lo que hace que no disponga de apoyos prosódicos ni
gestuales durante la producción (como los que tienen lugar en las
conversaciones cara a cara y telefónicas) y, por ello deba apoyarse en la
utilización de formas lingüísticas mismo, que más convencionales y/o más
elaboradas (i.e. mejor «gramaticalizadas») que las que pueden usarse en un
discurso oral.
Las fases generales en las que, según la mayoría de los investigadores, se
desarrolla el proceso de composición escrita suelen ser cuatro.
Son las denominadas a) planificación del objetivo y el formato general del
texto; b) ideación, o selección de un tema presumiblemente informativo y
relevante; c) desarrollo o definición detallada de los contenidos específicos
que desarrollarán el tema general y de su orden en el texto, y d) expresión,
que implica el desarrollo secuencial de las oraciones del texto en un modo
coherente tanto local como globalmente (cfr. De Beaugrande, 1980b).
Estas etapas, frente a lo que pudiera pensarse, no proceden de forma lineal;
por el contrario, como demuestra la más simple introspección y algunos datos
experimentales (vg. Matsuhashi, 1982), el sujeto, mientras escribe, está a la vez
planificando e ideando la continuidad del texto, a la vez que también revisa y
modifica la expresión de los segmentos previos.
Además de la identificación de las grandes etapas del proceso de composición,
los investigadores de la escritura han desarrollado una enorme variedad de
modelos que identifican los procesos cognitivos que subyacen a las distintas
etapas y/o al proceso en su conjunto (cfr. Gil, 1984, 1985, y Gil y Santana,
1985, para una revisión en castellano, o Nystrand, 1982, y Fredericksen y
Dominic, 1982, en inglés.
Como se ve, este modelo identifica tres grandes grupos de procesos: los de
planificación, traducción y revisión (o relectura), que pueden darse en
cualquier etapa o fase de la escritura.
En la medida en que la escritura se interpreta globalmente también como una
actividad dirigida a una meta, los procesos de escritura se consideran
jerarquizados e interrelacionados, de forma que cada uno de ellos genera la
necesidad de usar de otro.
En este sentido, como ha observado muy adecuadamente Gil (1984), el
proceso de la escritura debe considerarse como un proceso de carácter
básicamente recursivo que descansa en un activo sistema de control.
Los procesos de planificación se ocupan de establecer las metas y planificar el
contenido de la actividad de la escritura en sus distintos momentos e implican
tres subprocesos que, respectivamente, se identifican con la generación de
ideas (o recuperación de información relevante desde la memoria), la
organización, que implica la selección de material y de posibles formas de
viene controlado por las decisiones retóricas y los planes respecto a la
audiencia, y, por último, el establecimiento de objetivos a partir de lo
generado, desarrollado y revisado anteriormente (cfr. también Drop,1987).
Los procesos de traducción, que están controlados por los planes, implican la
elaboración de representaciones proposicionales, estructuradas en torno a
palabras-clave, y la conversión a secuencias de oraciones gramaticalmente
aceptables mediante los procesos.
Finalmente, la relectura constituye un proceso consciente que evalúa el
producto resultante o en progreso respecto a los planes iniciales y que puede
tener lugar en cualquier momento de la actividad de composición textual.
Como han observado Ellis y Beattie (1986), aunque los procesos descritos por
Flower y Hayes son procesos de carácter general que permiten establecer el
sustrato cognitivo de la actividad de composición textual en todos los sujetos,
existen numerosas diferencias individuales en el modo efectivo de realizar esta
actividad.
Así, por ejemplo, algunas personas establecen planes detallados del contenido
y forma de sus textos antes de iniciar la redacción propiamente dicha; otros,
por el contrario, comienzan a redactar sin un plan global muy bien
desarrollado y establecen saltos continuos hacia atrás para revisar y corregir lo
ya escrito en función de los nuevos planes que van surgiendo durante el
proceso.
EMOCIÓN Y MOTIVACIÓN
INTRODUCCIÓN A LA PSICOLOGÍA DE LA EMOCIÓN

NATURALEZA DE LA EMOCIÓN

Las emociones constituyen fuerzas poderosas que ejercen una gran influencia
sobre la conducta del hombre y de los animales.
El término emoción como concepto psicológico lo encontramos en áreas de
estudio tan diversas como la psicología general, la psicología clínica, la
psicobiología, la etología o la medicina psicosomática.
No existe todavía una unidad conceptual. Falta una teoría integradora.
La emoción resulta difícil de estudiar en el laboratorio en toda su amplitud
por varias razones. Por un lado existen consideraciones éticas. Por otra parte,
las técnicas de investigación pueden interferir con la emoción objeto de
estudio. Por otro lado, las emociones parece que están más ligadas a aspectos
clínicos y aplicados de la psicología que al estudio científico en el laboratorio.
La psicología científica, sobre todo de enfoque conductista, tiene serias
dificultades para admitir los informes introspectivos y mentalistas sobre los
sentimientos y las emociones.
La palabra emoción proviene de la palabra latina movere (mover hacia fuera).
Se utilizó para referirse a una agitación o perturbación física. Después pasó a
indicar una perturbación social o política. Finalmente, este término, como
indica Young (1961), se utilizó para referirse a cualquier estado mental agitado
y vehemente de las personas.
La emoción no es algo exclusivo del ser humano. Darwin estudió la conducta
expresiva de los animales relacionada con las posturas de sus cuerpos. Utilizó
una metodología observacional. Según Darwin, la expresión de las emociones
a través de cambios corporales y de movimientos específicos tiene una función
adaptativa en la vida del animal, pues sirve de preparación para la acción y
para la conservación de la vida del animal.
Trató también, el tema de lo innato y lo adquirido en la emoción. Muchas
emociones tiene carácter innato. También admitió que ciertas emociones o
gestos son aprendidos.

TÉRMINOS UTILIZADOS PARA REFERIRSE A LA EMOCIÓN

Existen gran variedad de términos que están relacionados de algún modo.


El término "afecto" se utiliza con frecuencia como sinónimo de emoción, lo
mismo que el término "sentimiento".
El "humor" se considera como determinado internamente de forma
predominante, es de corta duración.
El término "sentimiento" es el más general aunque se utiliza preferentemente
en la literatura.
El término emoción es mucho más amplio que sentimiento, ya que en la
emoción existen además del componente personal o subjetivo otros
componentes, como los fisiológicos, los conductuales o los derivados del
propio estímulo que elicita a la emoción.
La emoción es un proceso complejo que tiene manifestaciones a diferentes
niveles, sin que se justifique la reducción de un nivel a otro.
Algunos teóricos hacen coincidir en mayor o menor medida el concepto de
emoción con otros conceptos, como impulso, motivación y "arousal".
Algunos investigadores prefieren referirse con el término "arousal" a la
activación fisiológica.

CLASIFICACIÓN DE LAS EMOCIONES

Tomkins ha distinguido nueve emociones innatas:


Positivas Negativas
 - Angustia
 - Miedo
 - Interés
 - Vergüenza
 - Alegría
 - Desprecio
 - Sorpresa
 - Enfado
 - Rabia
Plutchik ha propuesto una clasificación tridimensional de las emociones en la
que aparecen las ocho dimensiones emocionales básicas representadas como
gajos de naranja en un corte transversal.
La dimensión vertical representa la intensidad de las emociones, que va desde
la máxima intensidad (parte superior) hasta el estado de sueño en la parte
inferior.

PRINCIPALES FUNCIONES DE LA EMOCIÓN

Las principales funciones son las de adaptación corporal para lo que pueda
venir, de comunicación con nuestros semejantes y de experiencia subjetiva.
Adaptación corporal.
Los cambios producidos a nivel corporal constituyen la función más básica de
la emoción. La expresión corporal cumple funciones adaptativas.
Existen tres sistemas que influyen en la adaptación corporal. Los tres
interactúan entre sí.
 1. El sistema nervioso autónomo con dos subsistemas antagónicos, el
sistema nervioso simpático (más activo durante el estado emocional) y
el sistema nervioso parasimpático (que predomina durante el sueño).
 2. El sistema endocrino, compuesto de glándulas que segregan
hormonas.
 3. El sistema inmunológico, compuesto por células formadas en el
tuétano de los huesos y otras que destruyen las sustancias nocivas para
el cuerpo.
Según Cannon, el sistema nervioso simpático prepara al organismo para
soportar el estrés. Seyle señaló la coordinación existente entre los tres
sistemas. Habló de lo que se llama el síndrome general de adaptación. Pueden
distinguirse tres estadios en la respuesta al estrés. Durante el primer estadio se
produce la sensación de alarma.
La resistencia del organismo disminuye en un primer momento para después
empezar a movilizarse. La glándula suprarrenal segrega adrenalina y
noradrenalina. La respuesta endocrina consiste en hacer que la hipófisis
segregue la hormona ACTH que llega al torrente sanguíneo.
El segundo estadio es el estadio de resistencia. Ya no es necesaria la activación
de los sistemas autónomo y endocrino. Si la situación estresante se prolonga
demasiado se produce el tercer estadio llamado estadio de agotamiento.
Se activan de nuevo los sistemas autónomo y endocrino con el fin de
prolongar la vida por algún tiempo.
Este mecanismo no solo es responsable de la adaptación del individuo para
enfrentarse a las situaciones de estrés, sino que es también capaz de regular el
número de individuos de una población.
Comunicación social.
La conducta de un individuo influye en la conducta de otros de su misma
especie o de otras especies.
La expresión emocional es espontánea en el sentido de opuesta a la
comunicación voluntaria e intencional de carácter generalmente verbal.
Experiencia subjetiva.
Un hecho de conciencia por el cual el sistema cognitivo reconoce el estado
emocional del individuo. El propio individuo está informado de sus
sensaciones y emociones para que pueda actuar en consecuencia.

LA MEDIDA DE LAS EMOCIONES

Las variables dependientes que se utilizan para medir las emociones son
fundamentalmente de tres tipos.
Los cuestionarios y autoinformes.
Las personas contestan a preguntas relacionadas con sus sentimientos y
emociones. Suponen una forma de recogida de información sobre la
experiencia subjetiva del propio individuo que intenta traer a su conciencia
estados internos. Deben ser fiables y válidos.
La fiabilidad hace referencia a la consistencia en el tiempo. La validez se
refiere a que estos instrumentos midan lo que dicen medir.
El uso de medidas conductuales.
Han sido las preferidas desde los enfoques conductistas de acercamiento al
estudio de la emoción. Medidas de conductas motoras que pueden observarse
externamente.
La primera se refiere a la medida de la emocionalidad, generalmente en el
campo abierto. Se suele poner al animal en un espacio nuevo para él. Esta
situación suele causar miedo en el animal.
Otras medidas que se han utilizado están relacionadas con el estudio
experimental de la frustración, tanto en animales como en niños. La respuesta
de frustración se produce cuando un obstáculo impide conseguir un objetivo
que puede satisfacer una necesidad.
La frustración aumenta la agresión, así como la existencia de agresión indica
que ha existido frustración.
Variables fisiológicas.
Registrar los cambios corporales a través de una serie de medidas fisiológicas
periféricas como la respiración, la tasa cardiaca, la conductancia de la piel. Las
medidas conductuales pueden consistir en la típica descripción de la conducta
por parte del experimentador.
Otras técnicas más sofisticadas son las técnicas de evitación activa y pasiva
utilizadas en el estudio del paradigma de la emoción condicionada.
Las medidas psicofisiológicas más utilizadas son:
 La respuesta galvánica de la piel. La resistencia de la piel al flujo de la
corriente eléctrica. Esta medida fluctúa constantemente. Cuando se
produce una estimulación nueva se dan cambios en la respuesta
galvánica.
 Circulación sanguínea. Las medidas más utilizadas son la presión
arterial y la tasa de pulso sanguíneo.
 Tasa de respiración. Se trata de una de las medidas fisiológicas
utilizadas con más frecuencia en el estudio de las emociones.
Hasta ahora se ha sido capaz de diferenciar la intensidad de un cierto estado
de arousal, pero no se ha podido todavía mostrar la existencia de diferentes
patrones de actividad relacionada con las distintas emociones.
Otras medidas implican la estimulación de distintas partes del cerebro. Las
variables que se registran son medidas fisiológicas centrales.
La estimulación puede ser eléctrica o química. Hay diversas estructuras
implicadas en la conducta emocional, tales como el tálamo, el hipotálamo, la
formación reticular, el sistema límbico.
La expresión facial.
Para unos estas expresiones son universales, mientras que para otros
dependen de la cultura.
En los experimentos de Ekman y Friesen se mostraba a los sujetos fotografías
de distintas expresiones faciales a observadores de distintas culturas y les
pedían que indicara cual de las emociones que se presentaban en una lista
correspondía a la expresión mostrada en cada fotografía.
Cinco culturas diferentes coincidieron al asignar una emoción a cada una de
las cinco caras mostradas en las fotografías. Se concluyó que las expresiones
faciales eran universales.

LA EMOCIÓN Y SU RELACIÓN CON OTROS PROCESOS


PSICOLÓGICOS

La emoción es mucho más compleja que la motivación.


Emoción y arousal.
El arousal hace referencia a la excitación o activación fisiológica. Algunos
autores han señalado que la emoción puede estudiarse sin necesidad de
recurrir a su expresión conductual. Cuando sentimos una fuerte emoción
nuestro pulso se altera. Este tipo de activación es lo que se conoce
como arousal.
La medida de la actividad eléctrica del cerebro es una medida claramente no
periférica, aunque se mide periféricamente. Se colocan electrodos en el cuero
cabelludo. Da por resultado un electroencefalograma. Se trata de una serie de
ondas irregulares que varían en frecuencia y amplitud.
No sirven para diferenciar las distintas emociones.
Emoción y aprendizaje.
Para los conductistas la emoción es un tipo de respuesta muy importante para
la supervivencia del individuo.
El paradigma de la respuesta emocional condicionada. Era posible producir,
en un niño pequeño, miedo a una rata blanca a la que anteriormente había
mostrado respuestas de acercamiento. Watson y Rayner asociaron la
presencia de la rata con un fuerte ruido que producía normalmente una
respuesta de sobresalto en cualquier niño pequeño. Los efectos de este
condicionamiento eran muy duraderos y además se generalizaban a otros
animales parecidos a la rata.
Skinner utilizó básicamente el mismo procedimiento anterior. En lugar de
medir la conducta emocional condicionada directamente, la midió de modo
indirecto a través del efecto, positivo o negativo.
Este modo de acercamiento al estudio de la conducta emocional no va lo
suficientemente lejos porque no tiene en cuenta los aspectos subjetivos y
cognitivos de la emoción.
Emoción y memoria.
Parece que se puede suponer que el afecto o el estado emocional influye en
los procesos cognitivos, en general, y especialmente, en la memoria.
Según Bower, cada emoción posee un nodo o unidad específica en la
memoria. Esta unidad está unida con proposiciones que describen eventos de
la vida. Cada nodo se encuentra unido con otros nodos en una red semántica.
Cuando las expectativas no se cumplen se producen reacciones emocionales
que dirigen nuestra atención hacia los eventos que le acompañan o preceden
como elementos importantes que deben ser aprendidos o tenidos en cuenta.
Las emociones movilizan la atención hacia las características de la situación
que se juzga como significativas o predictivas, haciendo que dicha situación se
aprenda.
Lo que se aprende en un determinado estado de humor se recuerda mejor
cuando se está en ese mismo estado de humor. Tiende a haber una asociación
entre el estado emocional en el que se está y el tipo de material que se
recuerda.
Emoción y memoria de trabajo. Los eventos emocionales se procesan más y
permanecen durante más tiempo en la memoria de trabajo, por lo cual se
procesan mejor.
La capacidad de la memoria se reduce como consecuencia del procesamiento
del estímulo emocional.

PRINCIPALES TEORÍAS DE LA EMOCIÓN

Primeras teorías de la emoción.


Se considerarán la teoría mentalista de James y la fisiológica de Cannon.
La emoción como sensación corporal: La teoría de James-Lange.
Es la teoría psicológica más antigua. Fue propuesta de manera independiente
por James y Lange.
William James señaló que el sentido común parece indicar que la percepción
de una situación hace surgir el sentimiento de la emoción y que se producen
toda una serie de cambios corporales. Según James esta apreciación es
incorrecta. Su teoría de la emoción propone justamente lo contrario: son los
cambios corporales los que siguen inmediatamente a la percepción de un
acontecimiento.
La emoción es la sensación de estos cambios corporales. La base fue la
introspección. No es posible pensar en la emoción sin que existan sensaciones
concomitantes. Se da respuesta a dos preguntas:
 1. ¿Cuáles son los cambios corporales asociados a cada emoción?
 2. ¿Por qué se dan estas conexiones entre las sensaciones corporales y
las emociones?
Para contestar a la primera pregunta se remitió a las observaciones realizadas
por Darwin unos años antes. A la segunda respondía indicando que muchos
de estos cambios no se sabe a que son debidos.
La teoría deja sin explicar más cosas que explica. Su interés se debe a haber:
 1. Señalado que la emoción es un estado subjetivo y personal.
 2. Dado pie a investigaciones sobre la influencia de los cambios del
sistema nervioso autónomo sobre la emoción, y en general, a la
investigación psicofisiológica de la emoción.
La teoría talámica de Cannon.
Criticó duramente la teoría de James. Las sensaciones corporales son
demasiado lentas y difusas para poder explicar los cambios rápidos y
profundos producidos por la experiencia emocional.
Según la teoría talámica, los estímulos llegan a la corteza cerebral a través de
los sistemas subcorticales. El tálamo informa a la corteza cerebral y tienen
lugar tanto la experiencia emocional como los cambios corporales periféricos.
Es una teoría neurofisiológica subcortical, especialmente talámica.
Cuando una situación estimular excita a los receptores, éstos envían sus
mensajes a la corteza cerebral que estimula al tálamo. Éste reacciona
produciendo las diferentes emociones.
Los cambios producidos en las vísceras no pueden ser los responsables de las
emociones. La función de éstos es simplemente actuar como factores
homeostáticos.
Existe poca evidencia a favor de la idea de James de que los efectos
producidos por el feedback visceral son los responsables de los sentimientos
emocionales.
Teoría de James-Lange
Percepción ---------->Reacción Motora---------->Reacción Visceral------------
>Emoción
Teoría de Cannon-Bart
Percepción------->Reacción talámica--------->Sensación emocional,Cambios
corporales
James había señalado que para cada emoción existía un patrón específico de
respuesta visceral.
Ax (1953) realizó un experimento. Expuso a los sujetos a una situación
destinada a provocar o miedo o enfado. Midió una serie de patrones de
respuesta fisiológica a estas dos situaciones.
Las dos situaciones produjeron actividad en el sistema nervioso simpático,
apareciendo diferencias significativas en varios indicadores viscerales.
Las diferencias de los patrones viscerales se calcularon promediando los
resultados de los sujetos de cada grupo, en lugar de comparar cada sujeto
consigo mismo.

MODELOS TEÓRICOS CONDUCTISTAS

Durante la primera mitad del siglo XX, época de predominio conductista,


intentaron entender los presupuestos del conductismo al estudio de todos los
temas psicológicos, incluido el estudio de la emoción.
Watson, el padre del conductismo definió la emoción como:
"Un patrón-reacción hereditario que implica cambios importantes en los
mecanismos corporales como un todo, pero especialmente en los sistemas
glandular y visceral".
Entendía la emoción como patrones de conducta relativamente fijos y no
aprendidos. Las manifestaciones externas de estos patrones de conducta
hereditarios podían romperse. Sus manifestaciones internas permanecían. Las
emociones tienen un efecto disruptivo produciendo un cierto caos en la
conducta.
Millenson entendía las emociones como reforzadores positivos o negativos.
La presentación o remoción de comida, agua o compañía, junto con el hecho
de que la conducta animal no tenga ningún efecto en el ambiente, puede
producir reacciones emocionales intensas.
Watson habla de tres factores:
 1. X: El miedo.
 2. Y: La rabia.
 3. Z: El amor.
Millenson toma estos tres factores además del paradigma de la respuesta
emocional condicionada.
Realiza una representación esquemática. Los tres tipos de emociones están
representados uno en cada eje, dando lugar a un modelo tridimensional de
las emociones. Cada dimensión está representada como un vector en el que
se sitúan las diferentes emociones. La situación de cada una de las emociones
depende de la intensidad de los reforzadores que la elicitan.
Las emociones van aumentando en intensidad según se alejan del punto en
que los tres vectores convergen. Las emociones que se sitúan próximas a este
punto están poco diferenciadas y resultan difíciles de distinguir unas de otras.
Para Millenson, existen tres emociones básicas:
 1. El enfado: Producido por la retirada de reforzadores positivos.
 2. La ansiedad: Producida por la presentación de un reforzador
negativo.
 3. La alegría: Producida por la presentación de reforzadores positivos
o por la retirada de reforzadores negativos.

TEORÍAS DE LA ACTIVACIÓN

Llamar la atención hacia factores de activación fisiológica.


Coinciden en quitar importancia a los aspectos subjetivos de los sentimientos
emocionales como elementos fundamentales de la emoción.
Leeper identificó emoción con motivación. La emoción sirve para activar,
mantener y dirigir la actividad.
El único cometido de la actividad muscular y visceral es ayudar a mantener la
actividad iniciada.
Las emociones sirven para la supervivencia de los seres vivos.
Lindsley proporcionó una teoría de la emoción basada en el concepto de
activación. La activación es un continuo, con diferentes grados de actividad,
que puede medirse a nivel de las respuestas viscerales-somáticas o mediante
el registro electroencefalográfico.
Una activación un poco mayor corresponde a las reacciones de la orientación
de la atención. La excitación emocional fuerte, se situaría al otro extremo del
continuo.
La teoría de la activación deja sin explicar las diferencias cualitativas existentes
entre las emociones individuales.

TEORÍAS COGNITIVAS DE LA EMOCIÓN

Las teorías cognitivas coinciden todas ellas en la importancia que atribuyen a


la interpretación que las personas hacen de la situación emocional.
Para Stanley Schacter la emoción es activación fisiológica. Para George
Mandler, la experiencia emocional es una experiencia consciente.
La teoría de la autoatribución de Schachter.
La emoción se produce por la conjunción de la activación corporal y de la
interpretación cognitiva que la persona hace de esa activación corporal. La
falta de uno de estos dos factores hace que la emoción sea incompleta.
Distingue entre dos tipos de experiencia emocional.
Una proviene de las cogniciones del sujeto sobre la forma como comprende
o interpreta la situación que ha producido la emoción. Esta experiencia se
produce de forma rápida y está bien diferenciada.
El otro tipo de experiencia emocional proviene de las sensaciones corporales
que produce la emoción. Se trata de una experiencia lenta y bastante difusa.
Cuando el sistema nervioso simpático está activado aumenta la segregación de
una sustancia llamada adrenalina (epinefrina) que pasa al torrente sanguíneo.
Cuando se inyecta epinefrina se producen cambios corporales semejantes a
los producidos por la emoción.
Cuando una persona experimenta estos cambios corporales pero no los puede
explicar, lo que hace es buscar en el ambiente las causas de las sensaciones
que experimenta. La interpretación posterior que haga de la situación dará
lugar al tipo de emoción que va a sentir.
La teoría de Schachter sugiere la existencia de una secuencia de
acontecimientos en la experiencia emocional:
 1. Se produce una activación corporal. Debe existir un estado
de arousal o activación fisiológica para que se produzca una emoción.
 2. La persona percibe esta activación.
 3. La persona busca la manera de explicar la activación.
 4. Cuando se identifica la causa en el ambiente, se le pone nombre a la
emoción, y esto determina la emoción que experimenta la persona.
La emoción como interacción cognición-activación de Mandler.
Ha dedicado gran atención al papel que desempeña la conciencia en la
experiencia emocional.
A partir de la existencia de alguna discrepancia perceptiva o cognitiva, o
cuando se bloquea alguna acción que se está ejecutando, se produce activación
corporal. La interacción entre la activación fisiológica y la evaluación cognitiva
es lo que da lugar a la experiencia subjetiva de la emoción.
Es necesario el procesamiento consciente. Las emociones pueden inhibir la
utilización de todo el aparato cognitivo. Los efectos de los estados
emocionales no son siempre negativos.
La activación del sistema nervioso autónomo actúa de modo de señal para la
organización mental de la atención y la exploración del ambiente. Esta
activación puede producirse de forma preprogramada automática, o mediante
un análisis de la situación.
Los tres aspectos básicos de la atención, para Mandler, son el arousal o
activación, la interpretación cognitiva y la conciencia.

TEORÍAS DE LA EVOLUCIÓN

Defensa de la generalidad de la conducta emocional en todas las especies


animales, desde los animales inferiores al ser humano. Defensa del valor
adaptativo de las mismas.
Emoción como respuesta facial de Izard.
Cree que los afectos son, sobre todo, respuestas faciales. Están dirigidas a nivel
subcortical y se encuentran determinadas genéricamente. Se aprende que
aspectos del ambiente le producen miedo, o le ponen alegre.
Existen emociones primarias a partir de las cuales derivan las demás. Las
emociones primarias son: alegría, sorpresa, angustia, enfado, disgusto,
desprecio, vergüenza y miedo.
Presenta una postura crítica al enfoque cognitivo porque desde el punto de
vista evolutivo no cree que el animal tenga que pensar antes de sentir la
emoción.
Emoción como adaptación de Plutchick.
Plutchick considera la emoción como un constructo hipotético. Las
propiedades de estos constructos deben ser inferidas a partir de distintas clases
de evidencias. Es necesario describir las emociones según diferentes lenguajes.
Conceptos básicos de su teoría:
 Las emociones varían en intensidad.
 Varían en el grado de semejanza.
 Las emociones son polares.
 Pueden ser primarias o secundarias.
 Las emociones hay que considerarlas en el marco de la evolución
porque pueden aplicarse desde los animales inferiores hasta el hombre.
 Las cogniciones (la evaluación del ambiente) están al servicio de las
emociones, ya que la cognición se produce para predecir el futuro.

LA TEORÍA DE LA PRIMACÍA AFECTIVA DE ZAJONC

Dos de las cuestiones más debatidas en la psicología actual de la emoción son


si puede existir emoción sin conciencia y cómo interacciona la emoción con
el resto de los procesos cognitivos.
El psicólogo Robert Zajonc contribuyó a cambiar la situación al mostrar a
través de interesantes experimentos que es posible crear preferencias (simples
reacciones emocionales) sin que exista un registro consciente del estímulo.
Zajonc afirmaba que la emoción precede a la cognición, puede existir antes
que ella y sin ella.
La hipótesis de Zajonc de que la reacción afectiva antecede a la cognición y se
produce de forma independiente ha sido muy debatida. Lo que no está tan
claro es que la emoción y la cognición sean independientes entre sí.
Para Zajonc, el efecto de la mera exposición es el resultado de un fenómeno
afectivo que se produce en un momento temprano del procesamiento de la
información, sin necesidad de que intervengan los procesos cognitivos.
MECANISMOS CEREBRALES DE LA EMOCIÓN

LeDoux ha mostrado que las emociones se originan en el cerebro a un nivel


más profundo que los sentimientos conscientes.
Su propuesta se fundamenta en ideas como éstas:
 - Ciertas lesiones cerebrales producen incapacidad para valorar la
importancia emocional de los estímulos, aunque hombre y animales
son capaces de percibir esos estímulos. El cerebro procesa por un lado
la percepción del objeto y por otro la evaluación de su significado.
 - El cerebro puede comenzar a evaluar el significado emocional de un
estímulo antes de determinar dicho estímulo.
 - Los mecanismos cerebrales que registran, almacenan y recuperan los
recuerdos de la significación emocional de los estímulos son diferentes
de los encargados de procesar los recuerdos cognitivos de esos
estímulos.
 - Los mecanismos de las evaluaciones emocionales están conectados
directamente con los que controlan las respuestas emocionales.
Cuando aquellos mecanismos realizan una evaluación, las respuestas
emocionales se producen de forma automática.
 - Finalmente, la estrecha relación existente entre los mecanismos de
evaluación y los que controlan la respuesta hace que cuando los
primeros detectan un suceso significativo, se programen y ejecuten una
serie de respuestas apropiadas.
La red principal y la red secundaria de la emoción.
Las dos redes neurales implicadas en la activación de las emociones son: la
red subcortical y la red corticolímbica. El elemento central de estas dos redes
neurales es la amígdala, una pequeña estructura nerviosa del tamaño
aproximado de una almendra, situada debajo del cada lóbulo temporal.
Ciertos desórdenes mentales como las fobias o la ansiedad parecen deberse
al mal funcionamiento de la amígdala.
La red subcortical puede activar emociones sin que intervenga la corteza
cerebral. Esta vía parece que permite, al menos, que alguna parte de la
información de los estímulos pueda ser procesada rápidamente y ponga al
individuo en disposición de responder con eficacia a los peligros del medio.
Pero la amígdala influye también en el procesamiento cortical cognitivo a
través de la red corticolímbica con un mayor número de sinapsis. Esta forma
de activación es más lenta pero proporciona una información mucho más
completa sobre el estímulo.
CLASIFICACIÓN Y CARACTERÍSTICAS DE LAS EMOCIONES

CLASIFICACIÓN DE LAS EMOCIONES Y CARACTERÍSTICAS

Las emociones pueden ser clasificadas siguiendo un espacio bidimensional a


lo largo del cual se situarían todas ellas. Desde el estudio de la emoción del
humor y desde los modelos basados en la activación biológica se sugiere la
existencia de dos sistemas diferentes y parcialmente independientes que
corresponden con las denominadas emociones positivas y negativas.
Gilboa y Revelle llevaron a cabo una investigación para comprobar, entre
otras, la hipótesis de que la independencia de las emociones positivas y
negativas podría ser demostrada no sólo en la estructura, sino también en el
patrón temporal de las respuestas emocionales. La duración de las emociones
asociadas con sucesos negativas fue mayor que la asociada con sucesos
positivos.
Estos resultados son coherentes con lo propuesto por Frujda en la ley de la
asimetría hedónica, que nos plantea que el placer es siempre contingente con
el cambio y que desaparece con la satisfacción continua, mientras que el dolor
puede persistir en el tiempo, si persisten las condiciones adversas.
De este modo, tendríamos por una parte, una dimensión formada por
las emociones negativas que son emociones desagradables, que se
experimentan cuando se bloquea una meta, se produce una amenaza o sucede
una pérdida; requieren la movilización de importantes recursos cognitivos y
comportamentales, para la creación y elaboración de planes que resuelvan o
alivien la situación.
En cambio, las emociones positivas son emociones agradables, que se
experimentan cuando se alcanza una meta; de tal manera que en ellas es
menos probable que se necesite la revisión de planes y otras operaciones
cognitivas, por esta razón se podría esperar que las emociones negativas sean
más prolongadas en el tiempo que las positivas.
Las emociones negativas tienen un claro valor en la supervivencia y adaptación
al entorno, mientras que en el caso de las positivas este no es al menos tan
evidente.
Una tercera categoría serían las emociones neutras que no son agradables ni
desagradables, es decir, ni positivas ni negativas; pero que comparten
características de ambas, así se asemejan a las positivas en su brevedad
temporal y a las negativas en la gran movilización de recursos que producen.
LAS EMOCIONES BÁSICAS

En las emociones básicas, se produce una constancia entre el afrontamiento


(movilización para la acción) y la propia forma emocional. Mientras que en
las emociones consideradas no básicas, no se presenta una forma constante
de afrontamiento.
Otra de las características es que las básicas posean una forma de expresión
facial concreta y un carácter universal. Por último, hemos utilizado también
como criterio de clasificación de las emociones como básicas, el que presentan
un procesamiento cognitivo propio y distintivo de las restantes emociones.
Así, las emociones básicas se asemejan a los colores primarios (azul, rojo y
amarillo), a partir de cuya mezcla se obtendrían el resto de los colores o
matices: Muchas reacciones emocionales son mezcla de varias de ellas (celos:
mezcla de ira, tristeza y miedo).
Los criterios utilizados aquí para clasificar las emociones como básicas o no
básicas, que se basa en la conjunción de afrontamiento, expresión facial y
procesamiento, no son los únicos que se han empleado. Así, se han utilizado
criterios que:
 - Relacionan las emociones con instintos.
 - Que las emociones sean estados emocionales innatos.
 - Que no requieran contenidos proposicionales.
 - Que se relacionen con procesos biológicos adaptativos.
 - Que produzcan una alta densidad de descarga nerviosa.
 - Que posean independencia de procesos atribucionales.
Las principales emociones básicas son: el miedo, ansiedad, ira, hostilidad,
tristeza, asco, felicidad, amor/cariño, humor y sorpresa.

You might also like