LA MEMORIA A LARGO PLAZO

 Introducción


La memoria a largo plazo es lo que se entiende por memoria, la idea de que la experiencia e va acumulando en alguna forma de almacén permanente, estructura que se localiza en alguna región cortical o subcortical y que, por una lesión, enfermedad o trauma psicológico, se vacía de contenido. La MLP tiene una capacidad ilimitada y sus contenidos no se pierden jamás. Dentro de ella, hay contenidos como el modelo espacial que nos rodea, el conocimiento de leyes naturales, físicas y de las propiedades de los objetos, las creencias culturales y antropológicas, los prejuicios adquiridos, os valores y las metas sociales, las habilidades motoras y de solución de problemas y las habilidades perceptivas. Es decir, que la MLP es una base de datos donde se acumula la información proveniente de la MCP, y que es recuperable gracias a las demandas que se ejercen sobe el ser vivo para facilitar su adaptación y supervivencia en el ambiente cambiante. La permanencia de lo almacenado es una propiedad exclusiva de la MLP, no pudiéndose hablar de olvido en ella, sino de déficit de recuperación. Los procesos responsables del funcionamiento de la MLP son la codificación, almacenamiento, recuperación y organización.

 La codificación

El objetivo de este mecanismo psicológico es el de almacenar información para su uso posterior, aunque la primera vez que un sujeto integra un conocimiento no tiene por qué ser consciente de las dimensiones estimulares procesadas. El sistema e memoria está capacitado para codificar una amplia gama de características de cualquier suceso que nos ayude a recuperar un recuerdo (color, sonido, olor, forma, etc.). La hipótesis de los niveles de procesamiento de Craik y Lockhart (1972) dice que la memoria puede ser considerada como un subproducto de las actividades de procesamiento que son aplicadas a la información entrante; los niveles altos de rendimiento mnésico serían atribuibles a un “procesamiento profundo o semántico”, mientras que los niveles bajos serían atribuibles a un “procesamiento superficial o no semántico”. Esta hipótesis se basa en los siguientes supuestos:

- Los trazos de memoria son el resultado del análisis perceptivo, que implica una jerarquía de niveles de procesamiento. Así, el procesamiento más superficial incluye el análisis de las características físicas o sensoriales de un estímulo, mientras que el nivel de procesamiento más profundo implica el análisis semántico o cognitivo.

- A mayor procesamiento, mayor duración de los trazos e memoria y mayor retención. El procesamiento más profundo corresponde a la elaboración semántica que se produce entre diferentes elementos de la memoria.

- Un mejor rendimiento de la memoria solo se relaciona con un nivel más profundo de análisis y no con la repetición de análisis ya realizados. Así se distinguen dos tipos de procesamiento:

1. Procesamiento tipo 1: Corresponde al mantenimiento de la información mediante procesos superficiales y repetitivos de reciclaje de la información.

2. Procesamiento tipo 2: Supone un procesamiento más complejo de la repetición, que toma como base el significado de la información para procesarla más profundamente (se produce un proceso elaborativo). Esto sería el método de loci o de la construcción de frases con palabras de una lista que queremos aprender.

- La memoria debería ser investigada mediante un paradigma incidental, donde el experimentador tiene control sobre el procesamiento que sigue el sujeto con el material y el sujeto desconoce que tras aplicarle la prueba se le administrará una prueba de retención.

Un problema que se les planteó a Craik y Lockhart fue qué se entiende por procesamiento profundo frente a procesamiento superficial, sobre lo que se ha concluido que:

- El recuerdo es mejor cuando la tarea requiere considerar el significado de la palabra en vez e la estructura de esta. Es decir, que el recuerdo es mejor con un procesamiento semántico que con uno no semántico.

- Los ítems que se procesan más profundamente reciben una codificación más distintiva, ya que un procesamiento profundo requiere un procesamiento más elaborado. Efecto de distintividad es aquella huella que comparte con otras un número relativamente pequeño de características. Este efecto esta en la base del efecto de Von Restorff, que dice que los elementos no similares o incongruentes de un conjunto se recuerdan mejor que los elementos similares.

- La proporción de palabras recordadas que encajan en oraciones complejas suele ser el doble que la obtenida con palabras insertas en oraciones simples. Esto encaja con la idea de que la información más elaborada se recuerda mejor. Por tanto, cuanto mayor es el grado de los marcos oracionales y cuanto más distintiva o novedosa sea la información en esos contenidos, mayor probabilidad habrá de que se recuerde mejor. Si la elaboración significa riqueza de la huella y la distintividad contraste, la 1ª no tiene porque conducir a la 2ª, ni viceversa.

- La cantidad de esfuerzo empleado en una tarea es importante para el posterior recuerdo.

- La cantidad de tiempo que se dedica a procesar la información no es sinónimo de profundidad.

- Ninguna forma de codificación es mejor que otra. El mejor código es el que es más compatible con el test utilizado para medir la memoria.

 La recuperación de la información: Reconocimiento y recuerdo

La posibilidad de disponer de información almacenada parece depender de los procesos de recuperación. Las pruebas de recuperación suelen ser de nivel de reconocimiento y de recuerdo. Para evaluar tales magnitudes, existen dos métodos de análisis:

1. Los test de reconocimiento: Se le presenta al sujeto la información que queremos que recupere. Dentro del test, el material aprendido va acompañado de una serie de distractores. Dentro de estos test, hay tres tipos de métodos:

- Presentación de ítems de uno en uno: Decir sí o no.

- Elección forzosa: Se exponen dos o más ítems (algunos distractores).

- Presentación en conjunto de todos los ítems: Hay uno correcto, el resto distractores (caras).

2. Los test de recuerdo: Dentro de estos tenemos varias modalidades:

- Test de recuerdo libre no serial: Se debe recordar libremente lo aprendido, sin orden.

- Test de recuerdo libre serial: Se debe recordar el material en el mismo orden.

- Recuerdo con claves: Se incluye alguna pista o clave para ayudar a recordar lo aprendido.

La probabilidad de recuperar la misma información es mayor con la prueba de reconocimiento que con recuerdo libre, siendo el nivel de ejecución medio si la prueba es recuerdo con claves.

 Reconocimiento: Para estudiar el reconocimiento, se le presenta al sujeto el material estudiado y otro nuevo como distractor. Un factor importante en la probabilidad de que el sujeto identifique bien la información, según la Tª de detección de señales (TDS), es el estilo de respuesta de éste, que parece estar relacionado con ciertos rasgos de personalidad (arriesgados o conservadores). Otro factor importante para la TDS es el fenómeno de la fuerza o familiaridad: aquel estímulo presentado más recientemente o al que se ha dedicado más tiempo para su codificación y estudio tendrá mayor valor en el continuo de familiaridad. Algunos modelos teóricos postulan la existencia de dos tipos e procesos en el reconocimiento: 1) un proceso rápido que se basa en juicios de familiaridad; 2) un proceso más lento que implica recuperación o búsqueda de la información en la MLP. La Tª dual de reconocimiento fue corroborada por el estudio de Atkinson en 1974, que consiste en presentar a cada uno de tres grupos una lista de 16, 24 y 32 palabras, respectivamente; los sujetos aprenden la lista hasta alcanzar un criterio de recuerdo perfecto; tras esto, realizan un test de reconocimiento en el que la mitad de los ítems son de estudio y la otra mitad distractores; la variable dependiente de interés son los tiempos de respuesta. Los resultados de este trabajo indican que el tiempo de respuesta aumenta a medida que aumenta el tamaño de la lista y que la segunda presentación de un ítem produce un tiempo de respuesta más rápido. Estos resultados demuestran la influencia de los procesos de búsqueda y familiaridad en el reconocimiento, ya que la dependencia del tiempo de respuesta del tamaño de la lista indica la presencia de un proceso de búsqueda cuyo resultado es más lento cuantos más ítems haya entre los que buscar, y el efecto de presentación repetida de los ítems muestra que cuando aumenta la familiaridad de los ítems la respuesta de los sujetos se hace más rápida. En la primera presentación de un ítem el tiempo de respuesta es menor para los ítems distractores y su dependencia del tamaño de la lista (proceso de búsqueda) también es menor, mientras que durante la segunda presentación se invierten las funciones y los ítems de estudio producen tiempos de respuesta y de búsqueda menores. Según la Tª dual, la 1ª presentación de un ítem distractor producirá un valor de familiaridad muy bajo, por lo que la necesidad de la búsqueda exhaustiva no ocurre y la respuesta negativa se producirá rápidamente. Sin embargo, los ítems de estudio tienen un determinado valor de familiaridad por lo que la respuesta positiva estará determinada por ese grado de familiaridad sin necesidad de búsqueda, pero en otras ocasiones requerirá el proceso de búsqueda que producirá tiempos de respuesta más lentos.

 Recuerdo: Para esto el sujeto no tiene la información presente y tiene que generar sus propias claves presentes en el contexto para ayudarse a recordar. Hay quienes creen que tanto el reconocimiento como el recuerdo implican los mismos procesos de recuperación (reconocimiento, recuerdo libre y recuerdo con claves), pero otros no. En lo que sí hay acuerdo es en los factores que se han demostrado que afectan al reconocimiento y al recuerdo:

- Frecuencia de las palabras: Las frecuencias de alta frecuencia normativa producen mejor recuerdo en tareas de recuerdo libre y recuerdo con claves, mientras que en reconocimiento estas palabras tienen una menor probabilidad de ser reconocidas y son las palabras de baja frecuencia las que producen mayores tasas de aciertos.

- Organización categórica: Cuando la lista de ítems pertenece a categorías bien definidas dentro de la lista o grupo de palabras asociadas entre sí, hay un aumento en la probabilidad de recuerdo y los sujetos tienden a recordar los ítems agrupados por categorías o asociación.

- Contexto: Cambios contextuales de la fase de estudio a la fase de test producen un empeoramiento del recuerdo y en menor medida del reconocimiento.

- Tamaño de conjunto de pares asociados: Cuanto mayor es el número de asociados peor es el recuerdo, aunque esto no ocurre en el reconocimiento.

Las diferencias de los procesos psicológicos que intervienen en las tareas de reconocimiento y de recuerdo han sido explicadas mediante dos paradigmas:

o Hipótesis de la generación-conocimiento: Existen 2 procesos de recuperación en recuerdo:

• El proceso de generación: Alude al hecho de que dado que la información no está presente, el sujeto genera una búsqueda de posibles candidatos para el recuerdo, empleando para ello

principios organizativos y asociativos.

• El proceso de reconocimiento: Es el responsable de decidir si los ítems generados son los apropiados, mecanismo similar al que rige en las tareas de reconocimiento de la familiaridad de los ítems.

Mientras que en las tareas de reconocimiento tan sol se requiere del funcionamiento de uno de los dos procesos, en las de recuerdo libre y recuerdo con claves se necesitan los dos. Esta hipótesis explica factores como el efecto de frecuencia de palabras: aquellas palabras de alta frecuencia suelen tener asociaciones fuertes con otras palabras, estar asociadas a una gran diversidad de contextos y, por tanto, que ocurran con mayor frecuencia junto con otras palabras; esto mismo afecta negativamente al proceso de reconocimiento ya que las palabras de alta frecuencia, al ocurrir en mayor número de contextos y junto a mayor número de palabras, serán menos distintivas y discriminables (igual que en organización, contexto o tamaño de conjunto).

o Hipótesis de la especificada de la codificación: Postula que tanto en el recuerdo como en el reconocimiento funcionan los mismos procesos y, que la única diferencia entre ambos, está en la especificidad de las claves que se ofrecen para la recuperación de la información de estudio. Según Tulving y Osler, los procesos de recuperación son fijos e iguales para distintas tareas e implican el acceso a información almacenada en la memoria por alguna clave de recuperación. La única diferencia entre distintas tareas reside en el tipo de clave de recuperación al sujeto:

1. En el recuerdo libre, la única clave que se le ofrece es el contexto (inespecífica).

2. En el recuerdo con claves, la clave es más específica.

3. En reconocimiento, la clave es la información que a de recordar (especificidad al máximo).

La efectividad de las claves reside tanto en su especificidad como en la congruencia entre las operaciones realizadas durante la codificación y la recuperación. Es decir, que ninguna clave de recuperación, aún estando muy fuertemente asociada al ítem a recordar, puede ser efectiva a menos que sea codificada con el ítem a recordar en el momento de su estudio (ej: reconocer la cara de alguien en una reunión pero no saber quien es; si la sacamos de ese contexto, no sabremos nada de ella).

 El olvido

Cuando hablamos de olvido, o más bien de pérdida de recuperación, hay que distinguir entre disponibilidad y accesibilidad, que son los dos motivos por los que puede darse el olvido. Uno de los fenómenos relacionados con la accesibilidad es lo que se denomina “tenerlo en la punta de la lengua”, que suele ir acompañado por el recuerdo espontáneo de la información en un momento posterior, cuando abandonamos la esperanza de recordar. Este se da porque la recuperación de una palabra parecida bloquea el acceso a la recuperación de la información que buscamos. El problema del olvido tiene que ver con el desuso de información o con efecto de interferencia.

- El fenómeno del olvido: Fue descrito por 1ª vez por Ebbinghaus, que experimentó con una lista de sílabas sin sentido (trigramas) que recitaba a una tasa constante de 150 sílabas por minuto. Después medía la retención a través del “método de ahorro” (con lo que hizo la “curva del olvido”) que consistía en restar el tiempo que había necesitado para reaprenderse una lista del tiempo que había requerido en el aprendizaje original. Ebbinghaus entendía que el criterio perfecto de aprendizaje tenía lugar cuando ocurrían dos repeticiones consecutivas e una lista sin cometer ningún error. Para este, el olvido se debía tan solo al aso del tiempo, es decir, al desuso de la información que no se practica y decae. Cincuenta años más tarde, McGeoth dijo que el olvido, más que al paso del tiempo, se debía a la interferencia producida por actividades que tienen lugar entre el aprendizaje y el momento de recuerdo, es decir, cuando se da el aprendizaje de material nuevo. Esto lo confirmaron estudios posteriores de Jenkins y Dallenbach, con gente dormida que recordaba más que la gente despierta haciendo cosas.

- Tipos de interferencia: Hay tres interferencias que se han descrito como causas del olvido:

• Interferencia retroactiva: Ocurre cuando una nueva información bloquea el acceso a una antigua información con la que comparte algún tipo de relación lógica o semántica (ej: los estudiantes de medicina se acuerdan más de estudios psicológicos que los de psicología).

• Interferencia proactiva: Es el efecto perjudicial de aprendizajes previos sobre nuevos aprendizajes (ej: los que hablan castellano son más torpes para hablar italiano que un inglés).

• Efecto abanico: Hace mención a los efectos de interferencia relacionados con los tiempos de respuesta. En estos experimentos se estudian frases en las que se manipula las relaciones sujeto-verbo-lugar. Una vez aprendidas las frases, se mezclan estas con otras distractoras y se pide a los sujetos que indiquen los más rápidamente posible si cada una de estas frases se estudió en la fase de estudio. Los resultados demuestran que el tiempo de respuesta es mayor cuantos más hechos se han aprendido sobre un concepto determinado. La interferencia no solo produce un menor recuerdo, sino que también hace más lento el proceso de recuperación.

El fenómeno de la interferencia ha sido abordado por diversos marcos teóricos:

o Teoría de la competición de respuestas: Define que las respuestas aprendidas dentro de una misma situación compiten unas con otras a la hora del recuerdo y esto produce fenómenos de interferencia. La competición es menor cuando algunos ítems a recordar han sido recordados con mayor frecuencia que otros; uno de los contenidos a recordar bloquea al más débil, pero este último nunca se olvida, sino que está poco accesible.

o Teoría del desaprendizaje o extinción: Ocurre cuando se e pide a un sujeto que recuerde dos cualidades estimulares asociadas a una situación y que presumimos que compiten en el recuerdo. Aquí se ha visto que todavía se produce interferencia y se interpreta como evidencia de que el aprendizaje de respuestas nuevas produce la extinción de las respuestas originales.

o Hipótesis constructiva: Define que la información original no se pierde cuando se nos presenta nueva información, pero tampoco permanece inalterada. Lo que se produce es que uno de los efectos de la información entrante es cambiar o modificar la memoria original para acomodar la nueva información.