sábado, 19 de diciembre de 2009

¿Eres paranoico?

foto:thewiredblog.com



por: María Cheng
Fuente: AP

Una vez considerada propia de los esquizofrénicos, la paranoia parece ser más común que lo que pensaban los expertos

De acuerdo con el psicólogo británico Daniel Freeman, casi uno de cada cuatro londinenses tiene regularmente pensamientos paranoicos. Freeman es un experto en paranoia en el Instituto de Psiquiatría en el King's College y es el autor de un libro sobre el tema.

Del temor a la paranoia

Expertos dicen que existe un amplio espectro de paranoia, desde los peligrosos delirios que llevan a esquizofrénicos a la violencia a los temores irracionales que muchas personas tienen a diario.

"Nosotros ahora estamos comenzando a darnos cuenta de que la locura es humana y que tenemos que estudiar a las personas normales para entenderla", dijo el doctor Jim van Os, profesor de psiquiatría en la Universidad de Maastricht, en Holanda. Van Os no está relacionado con los estudios de Freeman.

La paranoia es definida como el temor exagerado o infundado de que otros están tratando de hacernos daño. Eso incluye pensamientos de que otras personas están tratando de molestar, por ejemplo, mirándolo a uno fijamente, riéndose o haciendo gestos desagradables.

Sondeos de varios miles de personas en Gran Bretaña, Estados Unidos y otros países mostraron que las tasas de paranoia están aumentando gradualmente, aunque los estimados de diversos expertos sobre cuántos tienen pensamientos paranoicos varían ampliamente, de 5% a 50%.

Un sondeo británico de más de 8 mil 500 adultos encontró que 21% de las personas pensaban que había ocasiones en que otros estaban actuando contra ellas. Otro sondeo de mil adultos en Nueva York encontró que casi 11% pensaban que otras personas les espiaban o seguían.

¿Es natural?

Dennis Combs, profesor de sicología en la Universidad de Texas en Tyler, estudia la paranoia desde hace una década. Cuando inició sus estudios sobre el tema, mayormente entre estudiantes universitarios, encontró que 5% de ellos había tenido pensamientos paranoicos. En años recientes, la cifra ha aumentado a 15%, dijo.

En un experimento en Londres, Freeman concluyó que una cuarta parte de las personas que usan el metro en la capital probablemente tienen pensamientos regulares que pueden ser considerados paranoicos. En el estudio, 200 personas escogidas al azar (excluyendo personas con problemas mentales conocidos) tuvieron un viaje en tren en realidad virtual. Las personas registraron sus reacciones a pasajeros programados para ser neutrales.

Más de 40% de los participantes en el estudio tuvieron al menos un pensamiento paranoico. Algunos se sintieron intimidados por los pasajeros computarizados, diciendo que eran agresivos, habían hecho gestos obscenos o tratado de iniciar una pelea.

Freeman dijo que en ciudades grandes, muchos eventos ambiguos pueden llevar a pensamientos paranoicos. Al formar juicios inmediatos basados en información limitada (por ejemplo, qué calle tomar o si un extraño es peligroso o no) el proceso de toma de decisiones es propenso a errores.

Expertos dicen que no todo el mundo con pensamientos paranoicos necesita ayuda profesional. Todo depende de cuán perturbadores son esos pensamientos y si afectan su vida.

lunes, 26 de octubre de 2009

Otro mal horrible: Alzheimer




tugrace.blogia.com
por:Graciela Guerrero Garay
Podemos jugarle una trastada al cerebro

El desgaste cerebral, por decirlo de algún modo, es algo inevitable con el decursar de la vida y esa llegada, bienvenida, del almanaque con canas, como digo yo. Pero no es menos cierto que la memoria, la concentración y la lucidez total se “opacan” con la llegada de la vejez, y más si algún factor hereditario o un cromosoma juguetón, como también yo digo, anda suelto haciendo de las suyas

La ciencia avanza con más velocidad de lo que pensamos. Desgraciadamente, no siempre es para bien ni está al servicio de todos los humanos. Mas, aún así, hay que agradecerle a un gran número de investigadores, médicos, paramédicos, científicos y especialistas de la salud en general los aportes que encuentran tras larguisimos años de estudio y dedicación.

Sin embargo, resulta curioso – genial pienso yo- que la farmacopea tenga un rival cada vez más importante y creible: la medicina natural, la fuerza de los elementales, el ejercicio físico, las antiguas técnicas de sanación que salvaron a nuestros ascentros y permitieron que estuviéramos hoy ocupando lo que se llama esta generación terrícola.

En fin, que el Alzheimer encuentra también una opción salvadora al accceso de todos y, como siempre les cuento, me ha llegado esta interesante propuesta de esos grandes amigos que tengo de los grupos de discusión de yahoo, en temas extrasensoriales. Gracias a estos hermanos de luz que difunden sus conocimientos, sus hallazgos, sus compilaciones y sus propias experiencias hoy les puedo poner en el blog este artículo.

Como también les cuento, NUNCA olviden que la mente sana es cuerpo sano, que un pensamiento positivo puede cambiarnos el día y que lo bueno llama a lo bueno. Es la ley de los iguales. Asi que adelante, lectores queridos. Hágamos con fe todo cuanto pueda ayudarnos a enfrentar una vejez saludable, pura y decorosa desde adentro. No solo la disfrutaremos nosotros, sino todos cuanto nos rodean, sobre todo esos niños que hoy necesitan tanto de abuelos, tíos, padres y familiares que les insunflen valor, alegría, optimismo y sobre todo amor en cada una de las etapas de la vida.

El Alzheimer puede ser un monstruo que descoloremos poco a poco, siempre con esa esperanza: desterrarlo de un día posible. HE aquí el artículo.


Es un gran monstruo, pero nada cuesta hacer los ejercicios propuestos..

El hemisferio derecho del cerebro, le va a agradecer...
"Gimnasia para el cerebro"

El simple hecho de cambiar de mano para cepillar los dientes, contrariando su rutina y obligando la estimulación del cerebro, es una nueva técnica para mejorar la concentración, entrenando la creatividad y la inteligencia y así realiza un ejercicio de Neuróbica.

Un descubrimiento dentro de la "Neurociencia" , revela que el cerebro mantiene capacidad extraordinaria de crecer y mudar el padrón de sus conexiones. Los autores de este descubrimiento, Lawrence Katz y Manning Rubin (2000), revelan que Neuróbica, o la "aeróbica de las neuronas" es una nueva forma de ejercicio cerebral, proyectada para mantener al cerebro ágil y saludable, creando nuevos y diferentes padrones de actividades de las neuronas de su cerebro.

Cerca de 80% de nuestro día a día, está ocupada por rutinas, que a pesar de tener la ventaja de reducir el esfuerzo intelectual, esconden un efecto perverso: limitan al cerebro.

Para contrariar esta tendencia, es necesario practicar ejercicios "cerebrales" , que hacen a las personas pensar solamente en lo que están haciendo, concentrándose en esa tarea. El desafío de Neuróbica, es hacer todo aquello contrario a la rutina, obligando al cerebro a un trabajo adicional.

Alguno de los ejercicios:

- Use el reloj en el pulso contrario al que normalmente lo usa;
- Cepíllese los dientes con la mano contraria al de costumbre:
- Camine por la casa, de espalda (en la China, esta rutina lo practican en los parques);

- Vístase con los ojos cerrados;

- Estimule el paladar con cosas diferentes;

- Vea las fotos, de cabeza para abajo (o las fotos, o usted);

- Mire la hora, en el espejo;

- Cambie de camino para ir y volver del trabajo;

- Muchos otros, dependiendo de su inventiva.

La idea es cambiar el comportamiento de rutina. Tiente hacer algunas cosas diferentes, con su otro lado del cerebro, estimulándolo de esa manera. ¡Vale la pena probar!
¿Que tal si comienza practicando ahora, cambiando de mano el manejo del Mouse y enviando ahora a sus amigos, este mensaje… usando el Mouse, con la otra mano?

jueves, 22 de octubre de 2009

La ansiedad enferma a los caleños



foto tomada de:
deltomate1.blogspot.com

"Los problemas económicos, las crisis en las relaciones familiares y de parejas enferman la mente de los caleños".

Cada año, en las entidades públicas de salud de Cali se atienden más de 20.000 consultas por trastornos de ansiedad.
.
Cada año se reciben en las entidades de salud pública de la ciudad más de 20.000 consultas por esta causa.

Este panorama fue revelado ayer por la Secretaría de Salud Municipal, durante el lanzamiento de la Semana de la Salud Mental en Cali.

Los especialistas aseguran que la ansiedad es el problema mental más común en la capital del Valle del Cauca y el resto del país.

“Las personas que sufren de estas alteraciones suelen preocuparse demasiado y tienen muchos momentos de ira y estrés”, explicó Maritza Isaza, coordinadora de la línea de Salud Mental de la Secretaría.

Los problemas económicos y las crisis familiares o con la pareja son los principales factores que afectan la estabilidad mental de los pacientes.

Según la última encuesta de Salud Mental en Colombia, cuatro de cada diez colombianos ha sufrido alguna vez un problema mental. Estas mismas cifras se registran en Cali.

Lo más preocupante para las entidades de salud es que estos trastornos terminan, en el peor de los casos, en intentos de suicidio.

Cada vez son más los caleños que recurren a este acto. Mientras que en el 2008, 265 mujeres y 107 hombres intentaron suicidarse, este año las cifras ya alcanzan los 170 y 96, respectivamente.

El psiquiatra Alejandro Castrillón, de la unidad de Salud Mental, aseguró que “las mujeres siguen siendo las que más intentan acabar con su vida, aunque los hombres son los que más se suicidan. No es fácil determinar por qué lo hacen, simplemente cuando los trastornos son tan graves, la mayoría de las personas llega a pensar que es mejor estar muerto”.

Hasta el momento, los estudiantes son los que más recurren al intento de suicidio. Entre enero y septiembre del presente año 85 alumnos de colegios y universidades han intentado acabar con su vida. La mayoría ha utilizado sustancias para intoxicarse o se han herido con armas cortopunzantes.

Pero además del suicidio, las enfermedades mentales conllevan a otros conflictos como violencia intrafamiliar o sexual y consumo de sustancias sicoactivas.


De hecho, de acuerdo con los últimos reportes del Observatorio de Violencia Intrafamiliar de Cali, entre enero y agosto del 2009 se han registrado 3.871 casos de violencia familiar y otros 338 de violencia sexual.

Aunque la mayoría de los casos de trastornos mentales se presenta en el oriente de la ciudad, los especialistas de la dependencia informaron que en todos los barrios hay decenas de caleños que sufren por estas enfermedades.

El secretario de Salud de Cali, Alejandro Varela, informó que la buena noticia es que en la ciudad sí se está hablando del tema y se están adelantando acciones para mejorar la atención a este tipo de pacientes.

“A raíz de los procesos que hemos llevado a cabo, el Gobierno Nacional acogió a Cali como la ciudad piloto en el diseño de estrategias para atender la salud mental de los ciudadanos”, dijo.

El funcionario reconoció que la atención de los problemas mentales es difícil, pues no están incluidos en el Plan Obligatorio de Salud (POS), aunque recordó que en las Eses de la ciudad hay personal designado para brindar un tratamiento médico a este tipo de pacientes.

“No quiero vivir más”

“Tengo 16 años y sufro de un trastorno afectivo bipolar. Esta enfermedad la describen como un comportamiento que a veces me pone muy eufórica y feliz y en otras ocasiones me lleva a las depresiones más desesperantes del mundo.

Me han recetado cientos de antidepresivos, pero en algunos momentos nada es suficiente. He intentado suicidarme más de tres veces con venenos y armas blancas y he estado en el Hospital Psiquiátrico unas cuatro veces.

A veces me desespero porque siento muchas ganas de no vivir más, pero sigo luchando”.

Datos claves:

Las personas que sufren de trastornos mentales pueden acudir a su ESE más cercana o comunicarse a la línea amiga de la Secretaría de Salud: 514 19 04.

Las mujeres son las que más sufren por problemas mentales, al tiempo que aportan la mayoría de casos de violencia intrafamiliar y sexual. Aunque los hombres son los que mas consumen drogas.

La ansiedad y la depresión son los principales trastornos mentales que sufren los caleños. Los problemas económicos y afectivos son las causas más comunes.

Las cifras:

450 millones de personas tienen problemas mentales en el mundo.

50% de los pacientes con trastorno en el planeta no tienen acceso a un tratamiento médico.

1 millón de personas se suicidan cada año en el mundo. Muchos, por transtornos mentales.

Redacción de elpaís.com.co

domingo, 11 de octubre de 2009

ASPECTOS PSICOSOCIALES EN PACIENTES VIH




La mayoria de los pacientes diagnosticados con VIH enfrentan diferentes retos psicologicos, incluyendo cambios en su calidad de vida, el miedo a la decadencia fisica y a la muerte. La infeccion de VIH y/o SIDA trae desafios adicionales debido a los cambios corporales y psicologicos generados por el tratamiento, sin mencionar el estigma asociado a la enfermedad debido al riesgo de transmicion y al desconocimiento sobre VIH que tiene nuestra sociedad, lo cual ocasiona modificaciones importantes en el comportamiento cotidiano a nivel social, familiar, laboral y sexual.
Los medicos y profesionales de la salud, asi como la red de apoyo de cada paciente, desempeñan un papel importante en los aspectos psicosociales del mismo desde el momento de su diagnostico, ya que los pacientes necesitan integrar esta informacion en su forma de vida actual. Esto implica que el medico o profesional de la salud debe explicar al paciente sobre la enfermedad y las implicaciones de la misma, pero tambien mostrar todas las alternativas actuales que tiene un paciente VIH para que sea el mismo el que pueda pensar sobre muchos aspectos de su vida, replantear prioridades y metas, y adquirir nuevas habilidades que pueden ser necesarias para lograr metas reformuladas.
Es util anticipar y esperar que un paciente responda al diagnostico de la infeccion VIH con innumerables sensaciones. para lo cual es necesario establecer empatia con el mismo y hacer que entienda que el o ella no es el primero(a) y que mucha gente ha pasado por esto y estan actualmente bien.
Es importante que el paciente resista el deseo de retirarse o aislarse de sus actividades cotidianas, debido a que muchos pacientes tienden a abandonar su vida por el diagnostico, o lo contrario, existe otro gran numero de pacientes que informan a todo su entorno sobre su situacion, lo cual puede generar inconvenientes familiares y sociales por el desconocimiento sobre el VIH que aun tiene nuestra sociedad, factores que hacen que ninguna de las dos opciones sea completamente acertada y que hacen necesario que el medico, y sobre todo la red de apoyo de cada paciente, brinden una seguridad en el mismo que permita afrontar su diagnostico sin ocasionar cambios drasticos en su vida cotidiana.
Tambien es de tener encuenta que una gran parte de pacientes, desde el momento de su diagnostico de VIH o de SIDA, presenta un decremento significativo sobre el interes y actividad sexual, debido a la ansiedad sobre como realizar el acto sexual y el miedo al rechazo, pero sobre todo el temor a infectar a otras personas, razones que hacen indispensable la implementacion de consejerias o talleres con varios pacientes o de forma individual sobre el manejo de la ansiedad y tecnicas de sexo seguro para que la vida cotidiana no se vea alterada.
Otro factor sobre el cual hay que profundizar es que todos los pacientes no requieren medicacion y que para iniciar la misma hay unos criteriso establecidos por las guias para el manejo de VIH, debido a que el temor por los medicamentos (innumerables pastillas todos los dias) y los efectos secundarios es muy alto en la mayoria de los pacientes. Ademas, es necesario educar a los pacientes y a las personas que integran su nucleo familiar sobre los medicamentos actuales, los efectos secundarios, las posibilidades de tratamiento, los derechos y deberes como paciente. Esta informacion es necesaria para romper los mitos que ocasionan ansiedad por la informacion erronea sobre una cantidad exagerada de pastillas al dia o que los pacientes tienen que comprar los medicamentos porque el servicio de salud de nuestros pais no cubre ningun medicamento.

Ademas, es importante tener en cuenta que los sintomas de depresion, falta de apetito y fatiga se pueden incrementar en el momento de recibir el diagnostico de VIH por lo cual es necesario que el paciente cuente con todas las herramientas necesarias para ampliar su vision sobre su diagnostico e inicie con adherencia su tratamiento, ya que el paciente debe manejar el concepto de calidad de vida adecuada y de forma de vida sana, necesaria para mantener un bienestar psicologico.

La forma de vida sana incluye nutricion adecuada, ejercicio y cambios en comportamiento sexual de riesgo. Y manejarla de esta forma facilita la presencia continua de sensaciones de bienestar y manejo de sus vidas, lo cual hace que el diagnostico de VIH sea de manejo y que dependa de si mismo la evolucion o involucion de su enfermedad.

Hector Vasquez
Psicologo
Asociacion colombiana saludable D.C.
tomado de: revista credirebaja, a tu salud

sábado, 26 de septiembre de 2009

Origen del Lenguaje





Con el origen del lenguaje ocurre lo mismo que con el de los genes Hox, se trata de un acontecimiento único ocurrido una sola vez en la historia de este mundo y sin evidencias de que se haya producido por evolución como se creía hasta ahora.

El debate en torno a este tema oscilaba hasta el presente entre dos posturas principales. De una parte, las ideas de la escuela psicológica conductista, representadas por Burrhus Skinner, que aceptaban la evolución y transformación lenta de los gruñidos en palabras, y por la otra las hipótesis del lingüista norteamericano, Avram Noam Chomsky. Éste afirmaba que los seres humanos nacemos ya con un dispositivo cerebral innato y especializado que nos permite aprender el idioma materno en la más tierna infancia casi de forma automática con sólo oír frases sueltas en el seno familiar. Por su parte, Skinner, rechazaba tales creencias señalando que las personas al nacer poseen un cerebro que es como una tabula rasa y que poco a poco se va desarrollando mediante la imitación, los hábitos y el aprendizaje.

El darwinismo ha venido siendo el aliado natural de las ideas de Skinner, mientras que ha rechazado enérgicamente la hipótesis chomskyana por no someterse al gradualismo. Sin embargo, la genética y la neurología modernas le han dado la razón a este último. Según Chomsky, no es posible explicar el origen del lenguaje como la evolución gradual desde una jerga de gruñidos, gestos y gritos dados por los monos hasta las primeras palabras humanas sino que, por el contrario, el hombre debió hablar bien desde el principio. La distancia que hay entre un gruñido de primate y el órgano del lenguaje innato del hombre, es un abismo profundo e insalvable para la evolución. Se trata de un órgano complejo hecho de redes nerviosas, con una estructura especial, que ya existe en el recién nacido y que es perfectamente diseñado por los genes durante el desarrollo del cerebro.

La hipótesis de Chomsky acerca de que todos los lenguajes humanos, a pesar de su extraordinaria variedad, están ya predeterminados por una gramática universal que comparten todo los hombres, acaba de ser confirmada mediante pruebas neurológicas. La doctora María Cristina Musso y su equipo de colaboradores de la Universidad de Hamburgo han identificado por primera vez la región del cerebro humano, localizada en el área de Broca, donde reside la gramática común que subyace a todos los lenguajes humanos. (Nature Neurosciencie, 23.06.2003)

“¿Qué tiene que ver que el Australopithecus pueda aprender unos cuantos gruñidos con la posterior evolución de los genes que saben hacer una arquitectura neuronal innata del lenguaje? Los Homo sapiens llevamos miles de años enseñando a nuestros hijos a atarse los cordones de los zapatos, y no por ello hemos conseguido que el cerebro humano desarrolle un órgano innato que aprenda a atarse los cordones sin casi ningún esfuerzo por parte del niño.” (Sampedro, Deconstruyendo a Darwin, 2002) La selección natural de Darwin es incapaz de explicar el origen de la facultad para hablar que tiene el hombre. El lenguaje no es algo que se pueda conectar al cerebro de un mono y obligarle a hablar de inmediato, sino que se apoya firmemente, desde su origen, en el córtex cerebral, o sea, en algo tan complejo como el mapa de los estados de conciencia del ser humano. Por tanto, las numerosas diferencias que existen entre el cerebro humano y el de los primates no pueden ser el producto de un salto evolutivo al azar.

Desde la fe, los creyentes aceptamos que en la Creación Dios dotó al ser humano con la facultad de hablar. Haciendo analogía con los versículos de Juan, podemos decir que: “en el principio era el Verbo, [...] y el Verbo era Dios”. El Verbo era Jesús quien, junto al Padre, fueron el origen de las palabras y del ser que se comunica mediante ellas.

http://www.creacionismo.net

jueves, 17 de septiembre de 2009

OPINIÓN DE RECONOCIDO PSIQUIATRA, Medios de información exacerban conductas del pueblo venezolano




En su intervención, Rivero destacó que en los últimos años los especialistas en el área de la salud mental que integran este Centro, han venido observando una serie de alteraciones en la conducta de algunos sectores de la oposición asociados al fenómeno político

“En la Venezuela de hoy hay un estado permanente de crispación de ánimos, un estado permanente de exacerbación de los ánimos, muchas veces echando manos (los medios de información)a elementos provenientes de la mentira, basados en la exageración”.

Así lo informó Francisco Rivero, médico psiquiatra e investigador del Centro de Estudios Libremente, durante el foro “La Guerra Mediática desde la perspectiva, política, jurídica y psicológica”, organizado por la vicepresidencia de la República este viernes en el Palacio Blanco de Miraflores.

En su intervención, Rivero destacó que en los últimos años los especialistas en el área de la salud mental que integran este Centro, han venido observando una serie de alteraciones en la conducta de algunos sectores de la oposición asociados al fenómeno político.

“Uno observan en la calle, no solamente en el consultorio donde tenemos casos reportados de gente alterada mental, psicológicamente, donde el elemento esencial de su angustia, depresión e incluso de su locura está asociado a los contenidos que tienen los medios informativos”, acotó.

El especialista demostró a través de fotografías y muestras de las propagandas de la llamada Coodinadora Democrática, transmitida reiteradas ocasiones por las principales televisoras privadas del país durante los 62 días del paro petrolero, cómo se manejaron los elementos psíquicos para manipular las conductas y pensamientos de los venezolanos y venezolanas durante estos días.

“Hay elementos allí llamativos, la expresividad de los rostros, el automatismo de ciertas conductas que las hace diferentes que las posiciones políticas conocidas (...) Durante más de año y medio Venezuela estuvo sometida a este bombardeo mediático”.

Según el especialista, existen elementos neuropsiquiátricos en el ser humano que son activados por estas propagandas. Los contenidos que allí se transmitieron activaron por el sistema nervioso central una serie de elementos, que son los que hacen que las personas que se someten a ver estos materiales informativos permanentemente terminen repitiendo conductas agresivas.

Explicó que el cerebro humano se divide en dos hemisferios, izquierdo y derecho, que controlan diferentes funciones mentales del ser humano. El izquierdo, que es aquel que domina las operaciones de comprensión y racionales, y puede verse anulado cuando se activan estímulos sensoriales y emocionales del hemisferio derecho, generando en el individuo respuestas más primitivas.

A través de técnicas que controlen los contenidos informativos que llegan a nuestro cerebro, como por ejemplo la propaganda que incitaba a la persona a recordar lo que había hecho el Presidente en 10 segundos, obliga al receptor a tener un conteo aritmético que le bloquea la capacidad de racionar.

“Es decir, yo bloqueo tu cerebro izquierdo, que es el que raciona y te lo anulo, pero si paralelamente a eso te muestro imágenes agresivas, donde te van a quitar tus hijos, donde te van a quitar tu casa, te activo el hemisferio derecho y este se conecta con el cerebro reptiliano que es donde se activan todos los sentimientos primitivos (llanto, furia, ansiedad, desconcierto...) que todos poseemos”.

Apuntó que estas acciones realizadas por los medios de información, a través de las cuñas, noticias, programas, películas, etc, históricamente han tenido múltiples intenciones entre las que está lanzar a un pueblo a la guerra, justificar masacres, sostener dictaduras, tumbar, cambiar gobiernos, manipular la mente de las personas.

domingo, 13 de septiembre de 2009

HISTORIA DE LA NEUROPSICOLOGIA




Los orígenes
Pierre Paul Broca Las relaciones entre el cerebro y las actividades mentales han sido una cuestión que ha interesado desde los tiempos más remotos. El problema tiene, de hecho, una raíces profundas y previas a la aparición de los términos neurología, neuropsicología o neurología del comportamiento (Lecours y Joanette, 1991). En los libros de historia de la Medicina se pueden encontrar datos sobre las medicinas arcaicas y su evolución hasta la actualidad.

De hecho el objetivo planteado a lo largo de la historia ha sido siempre el mismo:
"Observar sistemáticamente las anomalías del comportamiento propio de la specie y localizar en términos de neuroanatomía macroscópica las lesiones que causan las enfermedades del telencéfalo humano e intentar comprender tanto el funcionamiento y las disfunciones de éste, como substrato de las diversas aptitudes cognitivas"

En esta línea de pensamiento el gran maestro Henri Hécaen reconocía claramente
el nacimiento de la neuropsicología mucho antes de la creación de este término: "Aunque la neuropsicología nació mucho antes que se creara este término, sus inicios tras la comunicación de Broca a la Société d'Anthropologie de Paris, en 1861, han estado señalados por el triunfo del método anatomo-clínico.

Los grandes maestros y fundadores de la neurología aportaron conocimientos capitales que constituirían, directa o indirectamente, los cimientos de la moderna aproximación a las relaciones entre el cerebro y las actividades mentales. Este proceso conduciría a la cristalización progresiva del conocimiento sobre las formas clásicas de afasia, alexia, apraxia, acalculia, etc., tal como se describen en los tratados de neurología contemporáneos. No nos detendremos en este aspecto.
Lección 2: Las primeras terminologías médicas sobre el mismo problema


Por motivos científicos o corporativistas el estudio de las relaciones cerebro-comportamiento ha recibido distintos nombres. Desde la Psychologie physiologique de Jean-Martin Charcot y Théodule Ribot; la Neuropsychopathologie de Julián de Ajuriaguerra y Henri Hécaen que luego se convertiría en Neuropsychologie a secas, como en Luria y Benton; o la Behavioral Neurology de los discípulos de Norman Geschwind. En la actualidad, en el ámbito de la neurología, se ha establecido el término de "Neurología Cognitiva y Conductual"

Cabe destacar que la segunda edición del libro "Principles of Behavioral Neurology" de M.-Marsel Mesulam lleva ahora el título "Principles of Behavioral and Cognitive Neurology" (New York: Oxford University Press, 2000). También es significativo que el la reunión administrativa de la Sección de "Behavioral Neurology" de la American Academy of Neurology, en San Diego (2000), se planteara una discusión terminológica.

En Barcelona la influencia de la obra de Ajuriaguerra y Hécaen (4) fue capital y se concatenó con las aportaciones de otros autores para constituir una primera aproximación sistematizada de los conocimientos sobre las bases cerebrales de las actividades mentales.

El papel de Julián de Ajuriaguerra (1911-1993) y Henri Hécaen (1912-1983). Le cortex cérébral de Julián de Ajuriaguerra y Henri Hécaen (primera edición 1949, segunda edición 1960) representó un verdadero hito en el desarrollo clínico del conocimiento de las actividades corticales superiores. Su capítulo de introducción es realmente remarcable para la época. Se ha de destacar el subtítulo "Étude Neuro-psycho-pathologique" como precedente terminológico. La obra se centraba básicamente en una bipolaridad, por un lado una aproximación topográfica, "síndromes anatomo-clínicos" (frontal, rolándico, calloso, parietal temporal y occipital), y por otro una aproximación funcional, calificada de "problemas fisiopsicopatológicos" (afasias; praxias y gnosias; apraxia; astereognosias; agnosia
auditiva; agnosias visuales; trastornos de la somatognosia; y alucinaciones y lesiones corticales focales).

Le cortex cérébral se continuó, en cierto modo, con otra obra titulada Introduction à la Neuropsychologie, aparecida en 1972. Esta vez con la firma aislada de Hécaen. Este autor actualizó y amplió los contenidos de la primera obra y se centró en los aspectos funcionales: afasias, apraxias, trastornos de la percepción y
anotaciones finales sobre las localizaciones, la dominancia y la restauración funcional. En la introducción Hécaen presentó la siguiente definición, desde la medicina, de neuropsicología:

"La neuropsicología es la disciplina que trata de las funciones mentales superiores en sus relaciones con las estructuras cerebrales" [La neuropsychologie est la discipline qui traite des fonctions mentales supérieures dans leurs rapports avec les structures cérébrales].

Una versión ampliada de este continum de libros se publicó en inglés con el título Human Neuropsychology (Hécaen y Albert, 1978). En esta edición se introdujeron capítulos sobre trastornos de memoria, trastornos debidos a patología del lóbulo frontal, plasticidad cerebral y recuperación de la función. El prefacio fue escrito por Norman Geschwind quien destacó la importancia de la obra de Hécaen:

"...Henri Hécaen fue uno de los nuevos pioneros que reanimaron este campo. Sus contribuciones han llegado a ser tanta parte de nuestro pensamiento básico diario que paradójicamente es fácil olvidar su papel" [...Henri Hécaen was one of the new pioneers who revivified the field. His contributions have become so much a part of our basic everyday thinking that is paradoxically easy to forget his role]”.

Se puede ver, en consecuencia, la evolución de una obra --con cambios de autores y títulos--y se puede considerar esta evolución como el reflejo del cambio de ideas y aproximaciones acontecidas entre 1949 y 1978 (¡tres décadas!).

Entre finales de los cuarenta (1949), cuando aparece la primera edición de "Le cortex cérebral", y mediados de los sesenta (1966) --quince años--descollan una serie de autores importantes, que van a contribuir decididamente al desarrollo y la consolidación, directa o indirectamente, de la neurología de la conducta: Bucy, Fulton, Critchley, Eccles, Magoun y Denny Brown, entre otros.

Durante estos tres lustros destaca, también, un conjunto de libros que recogen las aportaciones a reuniones internacionales de alto nivel y que se suman al proceso de configuración de la neuropsicología. Entre estos libros cabe destacar los editados por Adrian, Bremer y Jasper; Wolstenholme y O’Connor: Halpern De Reuck y O’Connor; y Eccles. Sus aportaciones ciertamente no eran en absoluto de conocimiento generalizado en nuestro medio.
Lección 3: La neuropsicología funcional de los años 70'

Principales citas. El inicio de los años setenta está marcado por tres "neuropsicologías". La "Introducción a la Neuropsicología" de Benton (1971), la de Hécaen (1972), y la de Luria (1973, 1974) y por la "Behavioral neurology" de Pincus y Tucker (1974). Otras "neuropsicologías" son posteriores: la "breve" (un abrégé) de Barbizet y Duizabo (1977); la "Human Neuropsychology" de Hécaen y Albert (1978) que se ha de ver como la continuación de "Le cortex cérébral" de Ajuriaguerra y Hécaen, la más clínica y sintética de Walsh (1978); la americana "de editores" de Heilman y Valenstein (1979). El libro de Heilman y Valenstein se ha consolidado como un libro de texto y se han sucedido cuatro ediciones, la última de 2004. New York: Oxford University Press.

Con independencia del listado de libros que reflejan el desarrollo progresivo de un corpus de conocimientos se debe hacer referencia al desarrollo de la neuropsicología experimental entre los años sesenta y setenta. Si bien el desarrollo inicial de la neuropsicología se basó en el estudio de casos individuales o series de pacientes con trastornos similares, la exploración se fundamentaba en la descripción de los síntomas sin que existieran métodos estandarizados. Los diseños propios de la psicología experimental con grupos de sujetos sometidos a distintos tratamientos experimentales (en el caso de la neuropsicología lesiones), protocolos estandarizados y seguimientos sistemáticos, se inician en los años sesenta-setenta. Los trabajos de distintos autores se dirigieron al estudio de la percepción espacial, memoria, lenguaje, atención, emociones, praxis, etc.

El estudio sistemático de pacientes sometidos a intervenciones quirúrgicas para el tratamiento de la epilepsia, en el que destaca el papel de Brenda Milner en el Montreal Neurological Institute, representó un nuevo avance metodológico y científico. También se han de destacar las aportaciones de Roger Sperry en el ámbito de las callosotomías. Estas técnicas quirúrgicas implicaron el desarrollo de metodologías cognitivas para conocer el estado funcional de los pacientes.
Lección 4: La neuropsicología en los años 80' y 90'
En los años ochenta aparecen diversas obras entre las que destacan la aproximación "de autor" erudita y completa, de Dimond (1980)(26); o la más académica o "libro de texto" de Kolb y Wishaw (1980). La "Neuropsicología" editada por J. Peña-Casanova y Ll. Barraquer-Bordas (1983)(28) fue la primera obra de estas características generales en España. Cabe destacar la "Localization in Neuropsychology" editada por Andrew Kertesz (1984) que aportó una clara novedad ya que el enfoque se realiza principalmente alrededor de los problemas de la localización cerebral de la función. La segunda edición del libro editado por Kertesz se titula "Localization and Neuroimaging in Neuropsychology" (San Diego: Academic Press, 1994).

La obra "Principles of Behavioral Neurology" editada por Marcel Mesulam (1984) constituyó otro clásico. La "Neuropsychologie Clinique et Neurologie du Comportement" editada por Mihai Ioan Botez (1987, segunda edición de 1997) contiene una especie de vuelta a los orígenes ya que el libro se organiza en bases generales, en funciones y en síndromes focales (temporal, parietal, frontal, etc.) al igual que el libro de Ajuriaguerra y Hécaen.

En los años ochenta aparece una obra que iba a tener una gran influencia en el ulterior desarrollo de la neuropsicología, la "Human Cognitive Neuropsychology" de Andrew W. Ellis y Andrew W.Young (1988)(32). Esta obra establece claramente los principios de la "neuropsicología cognitiva", destacando los conceptos de modularidad y exponiendo las arquitecturas funcionales (modelos) de las funciones estudiadas. La semiología clínica (las capacidades afectadas y preservadas) se analizan en relación con un modelo sobre el procesamiento normal. En 1996 los autores publican una edición ampliada en la que incluyen una serie de lecturas sobre los temas de la primera edición. Por este motivo el libro lleva el subtítulo de "A textbook with readings"

Los años noventa presentan la novedad del "Handbook of Neuropsychology" editado por François Boller y Jordan Grafman (apareciendo volúmenes hasta el año 1997). Posteriormente aparecieron la "Neuropsychologie humaine" de Xavier Seron y Marc Jannerod (1994), la "Behavioral Neurology and Neuropsychology" de Todd E. Feinberg y Martha J. Farah (1997), o la reciente obra "Handbook of Clinical and Experimental Neuropsychology" de Gianfranco Denes y Luigi Pizzamiglio (1999). En 1994 aparece en Colombia la "Neuropsicología clínica" de Alfredo Ardila y Mónica Rosselli, "como texto básico de entrenamiento universitario en neuropsicología" (cita en la contraportada), dos años mas tarde, en 1994, le sigue en España otra obra de neuropsicología dirigida a estudiantes de las facultades de Psicología, es la "Neuropsicología" de Junqué y Barroso.

En 1995 llega desde Brasil el libro "Neuropsicologia, das bases anatomicas à rehabilitaçao", editado por Ricardo Nitrini, Paulo Caramelli y Letícia L. Mansur. En 1998 Victor Feld y Mario T. Rodríguez editan en Buenos Aires la primera "Neuropsicología infantil" en español. En resumen: la aparición de las "neuropsicologías fundacionales" a principios de los 70 y todas en un contexto netamente neurológico, representa una abierta y clara cristalización del saber neuropsicológico, y una inflexión en el desarrollo de la especialización. La gran diversificación de temáticas neuropsicológicas se produce alrededor de 1975, cuando aparecen libros especializados. Los años ochenta y noventa aportan nuevas obras que van acumulando conocimientos destacando un "Handbook of Neuropsychology" y la irrupción de la "neuropsicología cognitiva". En 1974 aparece en España la primera aproximación sistematizada de Barraquer-Bordas en neuropsicología, su Afasias, Apraxias, Agnosias. Esta obra cabe situarla en la línea de las obras de revisión y actualización pero centrándose en el ámbito del lenguaje, la gestualidad y el reconocimiento.

La llegada de las obras de Aleksandr Romanovich Luria significó un nuevo impulso, ciertamente muy importante, en el desarrollo subsiguiente de la neuropsicología en nuestro medio. Se ha de destacar su obra "The working brain. An introduction to Neuropsychology" (del año 1973), versión inglesa discretamente modificada de la versión rusa "Osnovi neiropsijologii" (Fundamentos de neuropsicología), que llegó a su edición castellana (a partir de la inglesa) con el nombre de "El cerebro en acción" (1974).

La obra de Luria significó una concepción integral de la neuropsicología. Todo parecía estar claramente concatenado: la concepción teórica, los métodos clínicos, los síndromes y la terapia. Al hacer referencia a las afasias, por ejemplo, muchos colegas siguieron la clasificación de Luria y aceptaron, casi como dogma, los mecanismos fisiopatológicos propuestos por este autor en cada forma clínica de afasia. Muchos descubrieron la neuropsicología a través de Luria y la confundieron e igualaron a la obra de este autor.

En los aspectos prácticos los psicólogos, fundamentalmente en el área de la psicometría y relacionados con la clínica psiquiátrica, realizaban exploraciones mediante tests "de organicidad" (¡!). La obra de Luria iba a representar un revulsivo importante y un cambio de objetivos para los seguidores de la psicometría pura y dura. Pero no todos captaron claramente el mensaje de Luria.
Lección 5: Disciplinas relaciondas

De la neuropsicología como encuentro a las fragmentaciones profesionales Progresivamente, y partiendo de los mismos objetivos generales, han cristalizado en la actualidad tres disciplinas relacionadas que tienen objetivos compartidos, pero distintas bases científicas e históricas y claras diferencias en relación con los profesionales que las cultivan y sus organizaciones profesionales así como en los métodos de trabajo y de intervención terapéutica. Estas tres disciplinas son la neuropsiquiatría, la neuropsicología y la neurología de la conducta. En los párrafos siguientes se exponen brevemente y se complementan los rasgos y las diferencias, a veces de matiz, entre estas disciplinas siguiendo el modelo de Mendez, Van Gorp y Cummings (1995).

El término "Neuropsicología" se atribuye a veces a Karl Lashley (1890-1958). Este autor experimentalista usó el térmico en el contexto de las lesiones cerebrales y la conducta en una presentación que realizó en el año 1936 ante la Boston Society of Psychiatry and Neurology. Su conferencia apareció publicada en 1937 (Lashley, KA. Functionals determinants of cerebral localization. Archives of Neurology and Psychology, 1937; 38:371-387).

A pesar de esta atribución Lashley no fue el primero en usar este término. Dado que Lashley cita el libro ded Goldstein de 1934, y no usara la palabra antes de 1936 hace pensar que la tomara de Goldstein.

La palabra "neuropsicología" había sido usada en 1913 por William Osler (1849-1919) en una conferencia sobre la formación en la Phipps Psychiatric Clinic. Osler utilizó el término "neuro-psychology" en el contexto de la idea de que los estudiantes deberían tomar cursos sobre los trastornos mentales (Osler W. Specialism in the general hospital. Johns Hopkins Hospital Bulletin, 1913:24:167-233. Kurt Golsdtein (1878-1965), también usó el termino neuropsicología en su clásico Der Aufbau des Organismus (La construcción del organismo), publicado en 1934. Esta obra se publicó en inglés en el año 1939 con el siguiente título y subtítulo: The Organism. A Holistic Approach to Biology Derived from Pathological Data in Man. La palabra "neuro-psychological" aparece en la introducción del tema de los procesos aberrantes del pensamiento que aparecen en pacientes con lesiones cerebrales.

La neuropsiquiatría, desarrollada por psiquiatras, se centra más en la neurofisiología y la neuropatología relacionadas con enfermedades mentales (depresión, psicosis, cambios de personalidad), observadas en pacientes eminentemente neurológicos que padecen secuelas de accidentes vasculares, epilepsia, alteraciones neurodegenerativas, etc. Su método principal es la historia psiquiátrica y la descripción psicopatológica.

A esta disciplina se podría aproximar la psicogeriatría. Esta disciplina, también eminentemente desarrollada por psiquiatras, se centra en el estudio de las alteraciones psiquiátricas relacionadas con la ancianidad, en este ámbito unos profesionales se centran más en la vertiente neurológica (demencias, fundamentalmente), mientras que otros se centran en la vertiente más psiquiátrica (depresiones, delirios, etc.).

La neuropsicología, desarrollada por psicólogos, se centra en los mecanismoscognitivos de la memoria, el lenguaje, las capacidades viso-espaciales, ejecutivas, etc., en relación con mecanismos mediados por estructuras cerebrales. La neuropsicología se sitúa en los confines de la neurología clínica, de la psicología general y experimental. Su principal método de evaluación son los tests estandarizados, mientras que su principal foco terapéutico es la rehabilitación cognitiva y la psicoterapia.

La neurología de la conducta es desarrollada por neurólogos tras una especialización que ha sido definida recientemente por la Academia Americana de Neurología (neurología cognitiva y conductual). La neurología, tras dar lugar al nacimiento de la neuropsicología, ha redefinido su tarea en el ámbito, con los siguientes rasgos:

Profesional implicado: la neurología de la conducta la realiza un médico neurólogo que se ha especializado en este ámbito. Las guías para la formación han sido establecidas por la Academia Americana de Neurología.

Bases teóricas: Los síndromes clínico topográficos clásicos (afasias, apraxias,agnosias, amnesias, etc.) constituyen los cimientos de la especialidad, pero a estos conocimientos se incorporan las aportaciones más moleculares de la llamada "neuropsicología cognitiva". Aunque en un sentido original e histórico los síndromes focales hayan constituido las bases, la neurología no es en absoluto ajena a todas las aportaciones de otras ramas del saber como la psicología, la lingüística o la sociología.

Ciencias de base: La Medicina y las neurociencias en general son las bases de laneurología de la conducta. Esto quiere decir que el profesional se aproxima al problema con conocimientos de fisiopatología general, y específicos de fisiopatología neurológica. Conoce, además, las entidades clínicas no neurológicas que pueden ser concomitantes o condicionantes en un caso determinado.

Las neurociencias en general (neuropatología, neurobiología, neurogenética, neurofisiología, neuroquímica, neurofarmacología, neuroimagen, etc.) aportan mucha información que se usará en el estudio y la comprensión de la enfermedad.

Foco de trabajo: La correlación neuropatológica constituye en foco principal. El diagnóstico y la evaluación de las lesiones del sistema nervioso es la actividad general del neurólogo, que en el caso de la neurología de la conducta se centra en el cerebro. Si bien la correlación neuropatológica ha sido tradicionalmente el foco principal, la neurología no ha sido en absoluto ajena a las aproximaciones funcionales y ha sido precursora de los modelos cognitivos.

La aproximación actual debe ir encaminada al estudio de las alteraciones cognitivas y del comportamiento en el ámbito de entidades nosológicas definidas: enfermedad de Parkison, esclerosis múltiple, epilepsia, demencias, traumatismos craneoencefálicos, etc. En este enfoque --superándose la visión clásica de los síndromes focales que podíamos llamar de "afasias, apraxias, agnosias"—permite que el neurólogo pueda realizar el manejo de los pacientes con mayor base y formación.

Método: En neurólogo del comportamiento realiza básicamente una evaluación dirigida a la cognición en el contexto neurológico general del paciente. Las alteraciones cognitivas se estudian en el contexto de la historia del paciente y de las exploraciones complementarias neurológicas. En este apartado en donde la actividad se concatena con la del neuropsicólogo quién aportará – entre otros—los datos obtenidos mediante test estandarizados.

El neurólogo especializado en neurología de la conducta ha de conocer los principios de la "neuropsicometría" y las características, indicaciones y el valor específico de cada test neuropsicológico.

Es importante destacar el impacto de las corrientes de la Medicina Basada en la evidencia (pruebas) en todo el ámbito metodológico de la neurología y de la neurología de la conducta.

La neurología debe desarrollar instrumentos de evaluación neuropsicológica que permita una actividad clínica objetiva, sin sesgos y con alto valor de predicción, en los ámbitos del pronóstico, el diagnóstico y el tratamiento.
TOMADO DEL MODULO DE PSICOLOGIA DE LA UNIVERSIDAD NACIONAL A DISTANCIA, "UNAD"
AUTOR:PSICOLOGO JHON ALEXANDER MORENO MORENO
REVISADO POR: PSICOLOGA LUZ AMPARO PESCADOR

jueves, 27 de agosto de 2009

TERREMOTO EN HAITI: PSICOLOGOSPREPARADOS ANTE EL DESASTRE

introduccion: Javier Lopez B

hemos querido volver a publicar el presente articulo, que cobra especial vigencia, con el terremoto de 7 grados ocurrido en haiti, la nacion mas pobre del continente, que ademas se a visto azotada por huracanes que han destruido sus cultivos, a estos desastres naturales se suman las acciones cometidas por los hombres, deforestaciones y las incidencias politicas,el pueblo haitiano a sido gobernado por una pequeña elite depredadora que condena al 80% de la poblacion a la miseria.
recientemente se informaba atraves de un medio de comunicacion internacional, el incremento de personas con desordenes mentales que deambulan por las calles de puerto principe, luego de perder a seres queridos, y pertenencias, aunque hay que reconocer y asi lo han dicho los medios de comunicacion, que este martirizado pueblo, luego de experiencias tan duras a sabido afrontar con mucha entereza esta nueva catastrofe, lo que no es obise para entender que muchas personas no tengan la capacidad y entereza de otros y se vena afectados ademas de su salud fisica en su salud mental, por ello ademas de refugio, comida, atencion medica para curar sus heridas, los haitianos requieren de atencion profesional en salud mental, para evitar asi, un aumento en la incidencia de desordenes mentales que puedan traer mas problemas a la nacion antillana.
retomenos este articulo publicado en la prensa boliviana que nos ayuda a entender por las situaciones que pasan los seres humanos que han vivido una catastrofe natural.

Por:Mirna Echave Malle

En un desastre la gente sufre pérdidas, es desplazada a campos de refugiados o albergues y se siente culpable, impotente, pesimista, y si con el tiempo supera la situación, su condición es muy frágil como para afrontar otro golpe duro. Por ello, tras una gran emergencia, suele haber suicidos, agresividad, irritabilidad, entre otras situaciones
A María Luz Valencia le dijeron que vieron a un hombre cerca de su casa poco antes de que un incendio devorara sus muebles, ropa, utensilios y todo lo que el fuego halló a su paso. “No falta la envidia”, explicaron ella y su única hija a los psicólogos con los que, hablando, descargaban su rabia, su depresión y todo lo que sentían, no sólo por aquella pérdida, sino también porque un mes después de quedar en la calle, en diciembre de 2007, las inundaciones que azotaron Beni volverían a despojarlas de lo poco que habían recuperado o reconstruido.
La psicóloga Rosario Rodríguez recuerda con pena aquel caso: “Cuando llegaron las lluvias, creían iba a pasar pronto, pero después de ocho, diez horas, cuando el agua les llegó a la cintura, sacaron lo que pudieron, que era poco, y perdieron casi todas sus cosechas de yuca y plátano. Se refugiaron en un asentamiento sobre la carretera, con sus gallinitas y chanchitos, pero como estaban casi en la misma ruta no recibían alimentos, entonces se vieron obligadas a ir sacrificando a sus mismos animalitos”.
Ahora que La Niña es un recuerdo. La gente de las tierras bajas se apresta a recibir los desastres de su hermano, El Niño

Lo que dejó la niña eN 2007

Las inundaciones que se intensificaron a mediados de diciembre de 2007 afectaron a más de 100.000 familias en el país y cada una vivió un drama diferente. Como María, una abuela de 70 años quien llegó a convertirse en un referente para su familia y para sus vecinos damnificados. La anciana era entusiasta, alegre y no dejó de apoyar a nadie en la crisis. Se la veía en la cocina, daba recomendaciones para no descuidar a los niños y en especial decía qué hacer para sobrellevar la situación.
Sin embargo, pocos días después tuvo que ser arrancada de uno de los campamentos de Trinidad y llevada a un hospital de Santa Cruz: su diabetes se había complicado por la mala alimentación que tuvo. Rodríguez dice que vio cómo este tipo de casos también influyó en la gente.
En la crisis del año pasado, la Prefectura de Beni estimó que unas 22.000 personas fueron afectadas, 5.000 eran de Trinidad. En total, 57 municipios fueron declarados, por decreto, zonas de desastre, y otros 33 municipios recibieron la misma calificación a través de resoluciones ministeriales. Hasta abril de 2008, más de 6.000 familias afectadas vivían en campamentos, principalmente en Beni, Santa Cruz y Cochabamba.
El Gobierno informó que, como consecuencia de aquel desastre natural, 45.200 hectáreas de cultivos de soya se perdieron en el país, más 32.000 hectáreas de maíz y 31.955 de arroz. Murieron alrededor de 1,3 millones de reses, es decir, más del 20 por ciento de los vacunos del país.
Se estima que el fenómeno climático de La Niña quitó la vida a 55 personas y arrasó con al menos 318 viviendas. En Santa Cruz, 156 inmuebles se colapsaron y 147 sufrieron daños parciales. En Cochabamba, las riadas e inundaciones destruyeron 136 casas en diez municipios y además fueron afectadas parcialmente las estructuras de 237 inmuebles.
En las ciudades de La Paz y El Alto y la población de Mecapaca se derrumbaron 22 viviendas, mientras que en Sucre cayeron cuatro.
El Gobierno, con ayuda de agencias internacionales, presta una permanente cooperación a las víctimas, aunque con limitaciones y algunas fallas, como la falta de una distribución igualitaria en todos los refugios. El Ministerio de Hacienda construye viviendas para algunos de los afectados, mientras que las prefecturas trabajan en sistemas de prevención antes de la próxima época de lluvias.
El Tratamiento psicológico
Incentivar a que la gente hable de sus problemas y sus sentimientos es una forma de ayudarla a superar la situación. Eso hicieron los cuatro miembros de Psicólogos Sin Fronteras, entre ellos Rodríguez, y otros profesionales de esa rama que se sumaron en Trinidad con 1.627 personas tras las inundaciones provocadas por La Niña en 2007.
Por primera vez en Bolivia, dicho equipo de psicólogos, apoyados por enfermeras, profesores y otras personas formadas para el trabajo, se encargó de atender las secuelas traumáticas de un desastre. Estos conflictos empeoran cuando no hay soluciones, cuando la ayuda llega lentamente o se repite el desastre, como se prevé que suceda este año. Existen estudios meteorológicos que anuncian la posible llegada de un fenómeno de El Niño, con más inundaciones y sequías.
También, por primera vez en el país, se aplicó una Evaluación de Daños y Análisis de Necesidades (EDAN) en Salud Mental y comunitaria, una evaluación global que permite —entre otros aspectos— una mejor administración de los recursos estatales y de cooperación para los afectados.
En estas situaciones la gente sufre pérdidas, es desplazada a campos de refugiados o albergues y se siente culpable, impotente, pesimista. Si con el tiempo se supera la situación, su condición es muy frágil como para afrontar otro golpe. Por ello, tras una gran emergencia suele haber suicidios, agresividad, automarginación e irritabilidad, entre otras manifestaciones.
La psicóloga recuerda, el caso de una joven de 22 años de la que no retuvo el nombre pero sí su historia. Ella vivía con sus padres y en la crecida de las aguas trabajó sin cansancio para ayudar a su familia. “Después de que lograron instalarse en una carpa le dio parálisis y los médicos sólo le detectaron tuberculosis. Hablaba, pero no podía caminar, entonces atribuimos su problema a la tensión. Lo que pasa es que tenía un hijito que no estaba con ella. Además, tenía el problema de la casa, la responsabilidad con sus papás y tías, eso la desesperó”.
Durante la época de crisis, en los campamentos, entre dos y tres familias debían compartir la misma carpa, turnarse para la preparación de comida y tratar de restablecer su cotidianidad en esas condiciones. Según Rodríguez, los psicólogos vieron que algunos afectados se vieron obligados a “tomar agua estancada, sacrificar a sus animales, tenían que prestarse o alquilar botes para ir a hacer sus necesidades tierras adentro, aunque en ocasiones no podían y ensuciaban los alrededores”.
Según el representante de la Organización Panamericana (OPS) y la Organización Mundial de la Salud (OMS) Cristian Darrás, en el libro Salud Mental y Desastres, Actuación en Crisis, “cuando ocurren emergencias y desastres naturales, los problemas de salud mental y del comportamiento aumentan y requieren de atención en las personas sobrevivientes durante un periodo más o menos prolongado. Esto especialmente cuando los afectados tienen la tarea de reconstruir sus vidas”.
Los primeros problemas son la falta de agua y alimento, a lo que se suman la carencia de techo y atención en salud. Defensa Civil emitió una alerta porque las aguas de la inundación se contaminaban con animales muertos, las cosas o alimentos que quedaron bajo el agua. A este cuadro se sumaron los síndromes de diarrea y las infecciones respiratorias que aparecían por la constante exposición a la humedad, además de otras enfermedades transportadas por la creciente aparición de mosquitos, como malaria o dengue, entre otras.
Además, según el documento de las organizaciones de salud, la situación provoca impactos psicosociales, como tristeza sentimiento de pérdida o duelo, ansiedad, enojo, confusión y violencia intrafamiliar, que “no sólo repercuten en las propias personas víctimas de los desastres, sino también en la vida de relación a su alrededor y podrán constituirse en una barrera que entorpecerá las labores de organización y de respuesta de los Centros de Operaciones de Emergencia (COE)”.
Rodríguez comenta que, tras la llegada de las aguas, Naciones Unidas pidió a su organización, Psicólogos Sin Fronteras Bolivia, iniciar el apoyo psicológico en Trinidad.
Uno de los representantes internacionales, José María Toribio Sauquillo, dijo que para esta labor se estructuraron equipos de emergencia. Ésta es una estrategia que permite atender mejor los impactos, ya que es necesario que la gente se sienta reconocida. Es necesario, por ejemplo, hablar con un profesor del barrio o un psicólogo que entienda su dialecto, es decir, con alguien de su propia cultura.
“Cuando pasa algo como el caso de Trinidad, tiene que haber alguien de la zona, porque no puede ser que nosotros, aunque manejamos el lenguaje (castellano), a nivel cultural, a nivel social no entendemos lo que está pasando con la persona”, subraya Toribio.
El trabajo tuvo que realizarse en las mismas carpas de los damnificados, donde las familias agrupadas contaban sus problemas, lo que vivieron, cómo se sintieron y cómo les afectó. El equipo de apoyo, que fue entrenado una semana, debía identificar a quienes tuvieran problemas más profundos, como conflictos al comunicarse u otros. Así, la terapia iniciaba con esas personas en forma más particular.
Según Rodríguez hubo varios problemas el año pasado. Por ejemplo, un dirigente comunitario alzó la voz y les dijo a sus vecinos que vivían “un castigo” y que era “inevitable”.
El debriefing —como se conoce el método de descarga emocional a través del diálogo— fue aplicado en los habitantes provenientes de ocho comunidades afectadas, éstos fueron instalados en cinco albergues: José Chávez, con 400 personas; Puerto Ballivián, 226; Joaquín Hurtado, 346; 4 de Febrero, 505, y Juan Lorenzo Campero, con 120.
PRESTOS PARA ESTE AÑO
El experto meteorólogo de Naciones Unidas Félix Trujillo Ruiz hizo un análisis de los patrones atmosféricos que afectarán a Bolivia en el verano 2008-2009.
Por ejemplo, el invierno adelantado que vivimos de marzo a julio es analizado como una manifestación o cambio climático que anuncia la llegada de desastres, con una nueva temporada de lluvias intensas en el norte y noroeste de país, como sequías intensas al sur.
Esto se debe a que el calentamiento del altiplano en Sudamérica y la emisión de nubes por la liberación de calor en el Amazonas no fueron normales esta gestión. Dicho fenómeno ocasiona una especie de muro que ha impedido el ingreso de frentes fríos y trae un fuerte calentamiento a partir de este mes. Se prevé que este año se rompan varios récords históricos en las temperaturas regionales.
El informe publicado en la página web del Servicio Nacional de Meteorología e Hidrología (Senamhi) señala que existen “probabilidades (de) que nuevamente volverá a presentarse, durante el verano 2008-2009 en el Hemisferio Sur, anomalía positiva en El Niño (…) También se estaría esperando excesos de precipitaciones en las regiones de Pando, Beni, centro y norte de Llanos Orientales y norte de La Paz durante septiembre y octubre; durante los meses de noviembre, diciembre de 2008 y enero de 2009, los excesos tenderán a desplazarse a las regiones comprendidas entre el Beni central y los Llanos Orientales”.
A fines de agosto, según Rodríguez, un equipo de de Psicólogos Sin Fronteras partió a Trinidad con la misión de trabajar un año en el lugar. Allí evaluarán la evolución de la gente, ante el anuncio de un eventual desastre. Se quiere preparar a las personas antes de la llegada de una próxima crisis.
Antes, durante y después de una contingencia
Según la OPS, cuando un desastre es anunciado, por ejemplo un huracán, la gente tiene miedo y existe una tensión emocional colectiva que prepara a las personas al enfrentamiento de la amenaza. Durante el desastre, las emociones son intensas, hay sufrimiento emocional en los sobrevivientes y deterioro en la vida de las personas. Luego la gente suele experimentar ansiedad y temor al recordar el trauma y pueden aparecer conductas inapropiadas, sueño irregular, falta de apetito e irritabilidad.
Existen cuatro tipos de reacciones frente a un desastre
El síndrome general de adaptación ante un desastre se manifiesta, primero, cuando la gente suda profusamente y tiene temblores, debilidad, náuseas y problemas para pensar claro. Segundo, se la puede hallar paralizada, parada o sentada en medio del caos, sin hablar o sólo pronunciando una o dos palabras. Tercero, hay personas hiperactivas, harán una y otra cosa, hablan rápidamente y se enojan si no se aceptan sus ideas. Cuarto, hay manifestaciones físicas temporales, como llanto o debilidad.
Todos podemos ayudar a una víctima de desastre
Tras un desastre, toda persona puede ofrecer apoyo psicológico a quienes hayan pasado por esa experiencia. La OPS recomienda, por ejemplo, crear un clima de confianza y seguridad mostrando interés en cada víctima; establecer una buena comunicación, así como fomentar el respeto y la tolerancia, en especial en campos de refugiados; brindar apoyo emocional especialmente a quienes han quedado solos, y entender y aliviar los síntomas y reforzar la autoestima de los sobrevivientes.
Avisar a especialistas sobre situaciones delicadas
Frente a una situación de emergencia, debe avisar a profesionales especializados si advierte a personas con manifestaciones especiales para una ayuda más profesional. Por ejemplo, el problema o síntoma de agresividad, inclinación a vicios o drogas e irritabilidad pueden afectar sus actividades cotidianas, también si se da cuenta de que tiene ideas suicidas, cuando abusa del consumo de alcohol, si maltrata a las personas de su entorno o cuando después de haber recibido un apoyo emocional persiste en sus síntomas por más de 30 días.
Por un proceso de pacificación
José María Toribio representa a Psicólogos Sin Fronteras en España, estuvo de visita en Bolivia para analizar los resultados de la evaluación de las víctimas de las inundaciones en Trinidad y habló con Domingo de su trabajo en emergencias.
—¿Cómo realizan la atención a personas que sufrieron un desastre?
—Los equipos de Psicólogos Sin Fronteras, en el área de intervención en emergencias, trabajan en tres fases: el impacto; la emergencia, con personal local, y luego obviamente trabajamos en el post, el seguimiento a la catástrofe. Luego en situaciones más grandes, como terremotos, como el tsunami de Sri Lanka, trabajamos en la reconstrucción.
—¿Las emergencias han aumentado con el tiempo?
—Hay gente que piensa que hay más emergencias, pero creo que eso responde al efecto de la globalización de la información. Sin embargo, como psicólogos, sobre efectos climáticos no conocemos mucho. Sí he constatado desde el año 1998, cuando empecé a trabajar, hasta ahora que las catástrofes que se dan son más grandes, o sea, se da el mismo número de terremotos, tsunamis, ciclones, pero el tsunami de Sri Lanka es algo que no se había dado en tamaño, y también Katrina, un huracán nunca había subido tan al norte. Eso sí que se está dando; por el calor, los huracanes llegan a lugares impensados.
—¿Ustedes tienen preparación especial?
—Ahora en España se trata como especialidad y los psicólogos que son de emergencias están especializados. Un curso de capacitación en especialización suele llevar un mes y después se obliga a salir tres meses a campo, en situaciones que impliquen desplazados.
—¿Qué es lo más devastador de un desastre en la mente de una persona?
—Habría dos cosas. En un primer momento del impacto lo más devastador es la pérdida de control, ver que no puedes hacer nada, luego, cuando pasó la catástrofe, lo que a la gente le impacta más es la pérdida de la familia. Se produce un síndrome que se llama el síndrome del superviviente, cuando de un núcleo familiar de seis o siete personas sólo queda uno, esa persona no puede soportar haber vivido.
Del impacto, la persona normalmente se sobrepone en un plazo de tres a seis meses, pero si no sucede algo, otro desastre de por medio, la gente no lo puede superar y es ahí donde se producen intentos de suicidio. La persona se siente culpable de haber sobrevivido, aunque no entiende por qué.
—¿En qué situaciones ha participado?
—En Honduras, por ejemplo, el huracán salió de la costa y llegó a la capital, arrasó con todo lo que había. Los equipos de emergencia se habían quedado en la costa, y en Tegucigalpa quedaron los chicos de 16 y 17 (años) voluntarios de la Cruz Roja. Entonces nos pidieron que diéramos el apoyo psicológico a los intervinientes, a los rescatadores, para que no se fueran, porque el impacto psicológico de sacar un día y otro día cadáveres era duro, fue algo muy crítico.
En Sri Lanka, en cambio, trabajó mucha gente y trabajamos con una entidad de familias de la etnia de allí. Les dimos la cobertura en orientación y los recursos.


tomado de prensa boliviana

domingo, 2 de agosto de 2009

MUSICA, MAS QUE UN SONIDO, UNA TERAPIA


"NO SOLO ES UN CONJUNTO DE TONADAS, LA MÚSICA ES UNA EXCELENTE MANERA DE EXPRESAR SENTIMIENTOS, DE DESARROLLAR ÁREAS CLAVE Y, LO MEJOR DE TODO, SER FELIZ. BENEFICIOS PARA NIÑOS"

Ya no es noticia decir que la música es un elemento fundamental en el transcurso de la primera etapa de crecimiento del ser humano. es mas, la recomendación de los expertos es iniciar la estimación musical desde las primeras semanas de gestacion, pues varios estudios han demostrado que la música y sus componentes logran patrones de actividad cerebral.
pero lo que muchos no saben , es que la música no solo es capaz de activar la función cerebral, también esta demostrado que es un elemento importante en el desarrollo auditivo, intelectual, del habla, motriz y sensorial. la música sera siempre positiva !

así que cuanto antes exponga al niño a esta "terapia", mas beneficios le aportara

Desde hace mucho tiempo, la música se implemento en todo tipo de terapias: para combatir la hiper actividad, ayudar en el aprendizaje precoz y hasta para mejorar el estado de animo de los pacientes terminales.
sus beneficios son múltiples, así que no dude en brindarse los a sus hijos, carlos prieto, pedagogo musical los enumera:
1- mejora la atención: juegue con el pequeño a dramatizar un cuento con instrumentos, desplazarse al ritmo de la música o simplemente bailar. estos estímulos auditivos le ayudaran a mejorar su concentración.
2- ayuda a perfeccionar los movimientos: a través de ella, el niño puede mejorar su coordinación, oír las tonadas e imitarlas con el movimiento, potenciara el control rítmico de su cuerpo
3- enriquece el lenguaje: durante la primera infancia, la comunicacion verbal esta en pleno desarrollo, por ello, la música entra a jugar un papel fundamental . solo debe incentivarlo a cantar todos los días: ensenéle nuevas letras y propongale componer sus propias canciones. no solo enriquecerá el lenguaje, sino que le permitirá entrenar sus expresiones.

4- facilita la integracion: los sonidos musicales le ayudaran a convivir con los demas, estableciendo una comunicacion mucho mas afectiva. gracias a las tonadas infantiles, los niños comienzan a compartir vivencias y conocimientos con los otros pequeños de su edad.

5- aumenta la autoestima: la musica incrementa la seguridad del pequeño. se sentira aceptado por los demas, en especial por aquellos con quienes comparta las canciones.

6-influencia los estados de animo: la musica le permite calmar la ansiedad y alcanzar un estado de tranquilidad. recuerde que cuando era bebe, una cancion bastaba para que se volviera a dormir.

INCENTIVE LOS GUSTOS POR LA MÚSICA

No es necesario recurrir a cursos o gastar mucho dinero en el incentivo de esta practica, bastan unas horas de juego, algunas canciones diarias y, sobre todo, mucha creatividad:

-LEALE UN CUENTO MUSICAL: la lectura y la musica son una combinacion ideal. en el mercado encontrara libros que tienen banda sonoras o que ambientan la narracion. si no es posible acceder a ellos, busque alguna tonada que concuerde con las emociones que va a expresar durante la lectura de la historia. la mejor opcion es la musica clasica.

-LA HORA DE LA COMIDA, ¡ MUY MUSICAL !:busque alguna pieza clasica o alguna tonada suave y pongala durante el almuerzo o la comida. no solo incentivara de una manera inconsciente el amor por la musica, sino que le ayudara a vivir un momento mucho mas placentero.

- ¡ BAILEN ! : elija una tonada infantil que le permita estimular el baile o algunos movimientos corporales. enseñele a su pequeño y animelo a imitar sus expresiones.

-ACERQUELO AL SONIDO : comprele objetos que produzcan sonido y algunos instrumentos musicales. las flautas, las maracas y los pianos son una excelente opcion para que el niño comience a interactuar con ellos.

tomado de la revista nueva, edicion # 113, 18 de abril de 2009

domingo, 26 de julio de 2009

MIEDOS, A FLOR DE PIEL


EL 90% DE LOS HUMANOS EXPERIMENTA ALGUN TIPO DE FOBIA EN SU VIDA, SEGUN LOS ESPECIALISTAS ESTAS SOLO TIENEN TRATAMIENTO , PERO NO CURA

tomado de:q'hubo- diario caleño

Nueve de cada diez personas, durante su vida, desarrolla o vive con una fobia o temor hacia determinado objeto o situacion.
este trastorno de tipo emocional, ademas de generar tension, ansiedad y, por supuesto, mucho miedo puede afectar su salud.
de acuerdo con los psicologos, profesionales encargados de tratar las fobias, estas pueden desencadenar afecciones musculares, migraña, descontrol en la tension arterial, insomnio y hasta problemas estomacales.

¿ QUE SON ?

son trastornos de ansiedad, o una aversion obsesiva a alguien o a algo, un temor irracional y compulsivo.

¿ A QUE EDAD PUEDE PADECERSE?

desde que somos niños las desarrollamos, bien sea por una situacion desafortunada ante un objeto o por una experiencia traumatica que hayamos vivido. incluso, a la edad adulta podemos descubrir que sentimos miedo por ejemplo a las alturas ( acrofobia) o incluso a cruzar un puente
¿ SE CURAN?

no existe una cura definitiva, pero si hay tratamiento sicologico, el cual solo se da en ciertos casos, sobre todo cuando ya hay afecciones de tipo fisico y emocional

EL TRATAMIENTO

este es de tipo psicologico pero solo se debe acudir a el, cuando la persona presenta episodios criticos tales como alucinaciones, paranoia, o entre en "shock". Tambien cuando ya no se tenga ni un minimo de tolerancia ante el objeto o la situacion que provoca la fobia, y la salud se vea afectada. En casos criticos, si lo que se genera miedo provoca reacciones como vomito, diarrea, migraña o insomnio permanente, consulte a su medico

ORIGEN

La palabra fobia deriva del termino griego "fobos", que significa panico, en la mitologia de este pais fobos era el hijo de ares y afrodita, y la personificacion del miedo. Tambien fobos, es la mas grande de las dos lunas del planeta marte y la mas cercana a este.

EL CEREBRO

la glandula Pituitaria es la encargada de enviar señales de alerta al sistema nervioso, cuando nos enfrentamos ante algo que nos genera miedo o mucha tension.

LISTADO DE ALGUASN FOBIAS

Amaxofobia: miedo a conducir un vehiculo

Brontofobia: miedo a los truenos y a las tormentas

Coulrofobia: miedo a los payasos

Gefirofobia: miedo a cruzar un puente

Latrofobia: miedo a los medicos

Demofobia: miedo a las muchedumbres

LAS MAS COMUNES

entre las fobias mas comunes se encuentran:
la aracnofobia( miedo a las arañas)

-claustrofobia: miedo a los espacios cerrados

La acrofobia: miedo a las alturas

La cinofobia: miedo a los perros

LOS ESTADOS UNIDOS, es el ,pais con mas registros de claustrofobia en el mundo, segun la OMS ( organizacion mundial se la salud)

20 % son los casos de desarrollo de fobia social, en un individuo, segun los psicologos

martes, 7 de julio de 2009

¡Qué Pesadilla!


¡Qué Pesadilla!
tomado de:psicologiaparatodos.com

Las pesadillas se presentan en épocas de conflictos y señalan que se está pasando por un período de temor y conflictos


Las pesadillas son consideradas un trastorno del sueño caracterizado por una carga de ansiedad o miedo. Los que las sufren tienen recuerdos precisos de su contenido. Esta experiencia es muy intensa y contiene temas que implican una amenaza para la supervivencia, la seguridad o la autoestima.

Cuando tenemos una pesadilla, nos levantamos agradeciendo que sólo fuera un sueño, porque en el estado en que nos encontrábamos enfrentábamos situaciones de angustia. Puede ser referida a la muerte, como uno de los temas principales, o que nos persiguen para hacernos daño o matarnos, nos caemos y moriremos, tenemos accidentes, o que las personas que queremos están en peligro. Los temores que sentimos durante el día, conscientes o no, pueden provocar terror en la noche.

En los adultos, cuando son frecuentes, las pesadillas pueden indicar trastornos psicológicos, por lo general trastornos de personalidad. También pueden estar vinculados al consumo de drogas, sustancias psicotrópicas, antidepresivos y otros fármacos. Es interesante hacer notar la diferencia entre las pesadillas y los terrores nocturnos. Generalmente son los niños quienes presentan terrores nocturnos, gritan durante el sueño, y cuando los padres acuden a verlo, el niño se encuentra en la cama sentado diciendo cosas incomprensibles. Poco a poco se va tranquilizando y vuelve a quedarse dormido. Al día siguiente, no recuerda nada de lo sucedido.

En general, las pesadillas frecuentes se tienen en épocas en que se está lleno de conflictos o problemas. Delatan que la persona está pasando por un período de temor, confusión, miedo y conflictos. Se debe tomar conciencia y asumir el control de las riendas de la vida, para que de esta forma la ansiedad interna disminuya.

Si resulta que usted está bien en su vida diaria diurna y tiene pesadillas, puede que tengan un significado y le sugieren que debe estar alerta porque algunos autores piensan que estas pesadillas son presagios, sueños de advertencia.

Es necesario tener un pensamiento positivo antes de dormir. Es importante dejar las preocupaciones de lado y tomar un baño relajante cuando se esté estresado. El sueño presupone un estado de relajación. Un organismo exitado es incapaz de relajarse. Cuando una persona sufre un trauma, en los sueños se le repite muchas veces en forma de pesadillas recurrentes y cuando una pesadilla se repite, quiere decir que no se ha encontrado solución a los conflictos relacionados con el sueño en la vida real. Desde el punto de vista mental, esas pesadillas constituyen un alivio, aunque sea difícil poderlo ver así.

domingo, 12 de abril de 2009

COMO CREAR LOS ITEMS PARA UN TEST DE ACTITUD



COMO CREAR LOS ITEMS PARA UN TEST DE ACTITUD
Estos son algunos temas relacionados con la creación de ítems para un test de actitud.

Teorías y modelos sobre la construcción de los tests en educación desde una perspectiva diacrónica.

En este apartado presentamos las teorías de los tests desde una perspectiva diacrónica así como las características básicas de las mismas. Esta visión diacrónica nos guía en la comprensión del papel que juega cada teoría en el desarrollo histórico-cultural de la medición en educación. Diversas autoras (Martínez Arias, 1996; Colás, 2000b) plantean este desarrollo como un proceso explicable por la influencia de tres aspectos fundamentales:
1) el desarrollo inicial de la psicometría como elemento impulsor de este campo científico;
2) la progresiva aparición y desarrollo temático de las teorías de los test (TCT, TGT y TRI);
y, finalmente, el impacto de ciertos cambios auspiciados especialmente por el desarrollo de las tecnologías informáticas.

Desde el origen de la medición educativa se reconoce la influencia decisiva de la psicometría. Esta surge, como se ha señalado en los inicios del capítulo, a partir del desarrollo progresivo de un conjunto de métodos y técnicas implicadas en la medición de las variables psicofísicas y psicológicas. A partir de la propuesta de Muñiz (2001), podemos reconocer cuatro grandes áreas temáticas en la psicometría: 1) teoría de la medida, ya expuesta en los apartados anteriores y que abarca todo lo relativo a la fundamentación teórica de la medida; 2) la teoría de los tests, que aborda la lógica y los modelos matemáticos subyacentes en la construcción y uso de los tests; 3) el escalamiento psicológico, que abordamos en un apartado subsiguiente; y, 4) técnicas multivariadas, que junto con la tecnología estadística resultan imprescindibles para la construcción y análisis de los instrumentos de medida. De estos aspectos resaltamos a continuación los relativos a las teorías de la medida y su impacto en el desarrollo de modalidades de tests y técnicas de prueba progresivamente mejor adaptadas a sus funciones diagnósticas como instrumentos de medida educativa. El punto de partida no puede ser otro que reconocer la dificultad de este tipo de medida, como paso previo a su abordaje desde los diversos modos de aproximación teórico-conceptual a los tests. Concretamente, según Martínez Arias (1996: 29) el diseño de instrumentos para la medida de constructos educativos y psicológicos presenta algunos problemas:

• “No existe una única aproximación a la medida de un constructo que sea universalmente aceptada. Existe siempre la posibilidad de que dos teóricos seleccionen diferentes tipos de conducta para la definición operativa de un mismo constructo.
• Las medidas educativas y psicológicas están basadas en muestras limitadas de conductas. Delimitar el número de elementos y la variedad de expresiones en que se manifiesta un constructo, es uno de los principales problemas en el desarrollo de un instrumento de medida.
• La medida obtenida siempre tiene error. Al estar basada en muestras limitadas en contenidos y recogidas en un momento en el tiempo, está afectada por todos los errores del muestreo.
• Falta de escalas con origen y unidades de medida bien definidas.
• Dificultad de identificar un constructo con total independencia así como sus definiciones operativas.”

La teoría de los tests aborda estos problemas y plantea métodos y alternativas para su solución. Las distintas teorías y sus desarrollos fundamentan avances en la construcción y validación de instrumentos de medida concretos. Hemos reconocido anteriormente muchos antecedentes al diagnóstico, entendido como medida científica, expresando la larga trayectoria desde autores como R. Fechner o las contribuciones realizadas por Galton, Cattell, Binet, Spearman, Thurstone, etc. sobre diferencias individuales.

En Pedagogía, el inicio de la medición se sitúa en los trabajos de J.M. Rice y Thorndike a principios del siglo XX. Concretamente durante este período, el principal reto en el campo de la investigación pedagógica es crear tests propiamente escolares y elaborar escalas de comprobación de conocimientos. “La línea iniciada por Rice en 1910 origina la creación de escalas de redacción, de ortografía y de cálculo aritmético” (Mateo, 2000, 26). Los primeros trabajos empíricos en el campo educativo corresponden a test de instrucción, inteligencia y escalas métricas de escritura; también se puede decir que estas preocupaciones surgen estrechamente ligadas al nacimiento de la Pedagogía Experimental como disciplina científica. Este período de la medición educativa se caracteriza por su énfasis en la medición de las personas. Los instrumentos típicos de esta orientación son tests psicométricos de aplicación individual.

También, especialmente durante la Primera Guerra Mundial se crean tests de inteligencia colectivos propiciados por las necesidades políticas de selección y clasificación en el ejercito de grandes cantidades de personas. En este período, la puntuación global de los test de inteligencia se muestra insuficiente para detectar los diferentes aspectos de funcionamiento intelectual de los sujetos, por lo que se impone la medición de rasgos más específicos con el fin de realizar pronósticos más precisos.

Entre los años 30 y 40 se construyen y afinan las hoy clásicas baterías de aptitudes, que conforman lo que entonces se consideraban como “componentes fundamentales del funcionamiento inteligente”, referido a aspectos como: comprensión verbal, fluidez verbal, aptitud numérica, aptitud espacial, rapidez perceptiva y razonamiento general. La técnica del análisis factorial permite estructurar multidimensionalmente la genérica puntuación global de inteligencia.

Paralelamente al desarrollo de Tests Cognoscitivos, los Test de Personalidad también se benefician de los avances técnicos del análisis factorial y otras técnicas multivariadas afines. A estos avances se añaden nuevas orientaciones como los Tests Proyectivos (Muñíz, 1994).

Los cambios en las últimas décadas han supuesto un giro importante en los modelos de medida y en las aplicaciones prácticas en la evaluación. La medida se diversifica para atender programas, instituciones, colectivos, etc. La incorporación de nuevos objetos evaluativos plantea la necesidad de desarrollar otras técnicas de recogida de datos más abiertas y flexibles. Por otra parte, en cuanto al estudio y medida de constructos ya clásicos también cambia. En la actualidad, en relación con el rendimiento también se plantea la necesidad de medir nuevos resultados escolares, especialmente habilidades de alto nivel cognitivo, tales como resolución de problemas, razonamiento y pensamiento crítico, derivándose a su vez, la necesidad de nuevos modelos de medida, nuevas conceptualizaciones de validez y fiabilidad en los tests, y nuevos modos de medición.

El desarrollo de la teoría de los tests corre parejo con la evolución de tests concretos que van surgiendo. De hecho, ambos desarrollos se influyen mutuamente e incluso a veces los tests como instrumentos se han anticipado a su fundamentación teórica (Muñiz, 1992). Como hemos señalado con anterioridad, la teoría de los tests constituye un área que provee de enfoques y modelos para el análisis y construcción de instrumentos de medida, identificándose tres orientaciones básicas: la teoría clásica de los tests (TCT), teoría de la generalizabilidad (TGT) y teoría de respuesta al ítem (TRI). Estas tres orientaciones aportan modelos diferentes para la construcción y validación de tests, aunque todas siguen vigentes, tienen un recorrido progresivo y secuencial.

La Teoría Clásica de los Tests (TCT) ha sido el modelo dominante durante gran parte del siglo XX y aún hoy tiene una vigencia notable observable en las aplicaciones prácticas. Esta teoría surge con el objetivo central de desarrollar un modelo estadístico que fundamente las puntuaciones de los tests y permita la estimación de los errores de medida asociados al proceso de medición. El nacimiento de la TCT se sitúa en los primeros trabajos de Spearman. No obstante, las obras de Guilford (1936) y Gulliksen (1950), suponen la integración y sistematización del cuerpo de conocimientos de esta teoría, incluyendo temas sobre validez, fiabilidad, análisis de ítems, etc. El modelo que asume esta teoría plantea que la puntuación empírica del sujeto en un test consta de dos componentes: puntuación verdadera y error de medida. A partir de estos conceptos y de los supuestos asociados se estima el grado de fiabilidad y validez de los instrumentos de medida. A esta teoría se deben el desarrollo de múltiples técnicas estadísticas multivariadas y métodos para el cálculo de la fiabilidad de un instrumento: análisis factorial, componentes principales, formas paralelas, test-retest, las dos mitades. En este marco, también se producen avances fundamentales respecto a la noción de validez, tipos y procedimientos para garantizarla. Son aspectos concretos que se abordan en ulteriores apartados.

Las principales dificultades que presenta la TCT se refieren a que la medición de un sujeto en una variable depende del test utilizado y del grupo normativo. En primer lugar, la dependencia de la medida en función del instrumento utilizado plantea problemas para tratar de establecer la equivalencia entre las puntuaciones de dos tests distintos que midan una misma variable. Por otro, las propiedades del instrumento de medida (ítems y test) están en función de los sujetos a los que se aplica. Los índices de dificultad, discriminación y consistencia interna depende de los grupos de sujetos y su tamaño en el cálculo.

A partir de 1950 factores de muy diversa índole promueven el desarrollo de las otras dos nuevas teorías de los tests (TGT y TRI), así como su expansión más o menos constante y alternante durante las décadas siguientes. Las aplicaciones concretas, derivadas de estas nuevas teorías en la medición de variables educativas, se hacen esperar algún tiempo, llegando hasta nuestros días.

La teoría de la generalizabilidad de los tests (TGT) se considera una extensión de la teoría clásica de los tests, en tanto que reconoce el mismo modelo relativo a la existencia de errores junto a la puntuación verdadera, pero intenta resolver algunos de estos problemas mediante la aplicación del análisis de varianza para analizar dichas fuentes de error de medida. Esta teoría se plantea como una alternativa en la forma de conceptualizar la fiabilidad de los instrumentos de medida y de su varianza de error, reconociendo múltiples fuentes de error y posibilitando su integración en una estructura global. Fue desarrollada por L.J. Cronbach y colaboradores. Esta teoría introduce una serie de modificaciones importantes a la TCT (muestreo de fuentes de error, medidas aleatoriamente paralelas, puntuación del universo, generalizabilidad). En educación, algunos trabajos (Buendía y Pegalajar, 1990; Abalde, 1990; Blanco, 1993) resumen las aportaciones de esta teoría y sus aplicaciones en la medición de fenómenos educativos.

Igualmente, aunque los orígenes de la teoría de respuesta al ítem (TRI) se sitúan en los trabajos pioneros de Richardson, Lawley, Tucker, Lord y Birnbaum de los años cincuenta, su expansión se produce a partir de los años sesenta con la aparición del libro de Rasch (1960) y las contribuciones de Birnbaum en el libro de Lord y Novick (1968). Sin embargo, el desarrollo y expansión de los ordenadores durante la década de los 80 constituye un factor decisivo para la materialización de esta teoría en modelos y aplicaciones concretas. Anastasi (1988) define la década de los ochenta como un período de avances inusuales en la teoría de los tests tanto respecto al progreso tecnológico como a la sofisticación teórica.

Al igual que la teoría de la generalizabilidad, la TRI trata de resolver los problemas de la teoría clásica: proporcionar mediciones invariantes respecto de los instrumentos utilizados y disponer de instrumentos de medida cuyas propiedades no dependan de los objetos medidos. Esta teoría aporta todo un conjunto de avances técnicos para la construcción y análisis de los tests: las funciones de información de los ítems y del test, errores típicos de medida distintos para cada nivel de la variable medida o el establecimiento de bancos de ítems con parámetros estrictamente definidos, lo que posibilita el uso de tests adaptados al nivel de los sujetos con exploraciones más exhaustivas y rigurosas en función de las características de éstos. La TRI revitalizará áreas tales como los bancos de ítems o los tests referidos al criterio. En educación, destacan algunas aportaciones teóricas y metodológicas sobre la TRI (Gaviria, 1990, 1999; Murillo y Castro, 1995).

En la exposición de este breve recorrido sobre la medición, los años sesenta destacan como un período de gran actividad teórica en el marco de la medida y las teorías de los tests. En la práctica también se observa la ampliación del objeto de estudio, se reconocen nuevas unidades a considerar en el assessment educativo considerando ideas que se vienen desarrollando desde el primer cuarto de siglo como la idea de “programa”, pasando desde la focalización en conductas individuales al interés por estudiar los currículos, programas, contextos, instituciones, organizaciones y políticas, etc., dando origen y cuerpo a la metodología de investigación evaluativa. El impacto de estos nuevos enfoques sobre la medida y, en concreto, sobre las teorías de los tests fue significativo, sobre todo por la aparición de todo un conjunto de nuevas temáticas (clima del centro, ambiente, organización social, resolución colectiva de problemas, ...) para evaluar mediante pruebas y otras técnicas de escalamiento, también retos para los tests (individuales y colectivos); todavía hoy es así en nuevos campos educativos.

En esta vertiente, destacan las aportaciones del grupo de investigación en educación multicultural (GREDI) de la Universidad de Barcelona, sobresaliendo su labor en la construcción y validación de instrumentos de medida en el campo de la educación multicultural (Rodríguez y otras, 1997; Cabrera y otras, 1998; Espín y otras, 1998; Bartolomé y otras, 1999). La medición de las emociones también suscita un gran interés (Alvarez y otros, 2000; Bisquerra y otros, 2000).

La noción de medida también va cambiando; de entender la medida de forma estable, cuyo objetivo es la medición de la posición de una persona o evento en un momento preciso, se ha pasado a una concepción evolutiva, en la que el objetivo es registrar los cambios o progresos a través del tiempo. Los objetivos educativos a los que sirven también han cambiado: junto a usos estandarizados de la medida a nivel institucional o individual (admisión de alumnos, valorar el nivel de logros, evaluar programas, centros o instituciones, etc.) surgen otras aplicaciones tales como diagnosticar problemas de forma inmediata o establecer perfiles y trayectorias de aprendizaje. El marco de las técnicas de prueba también se extiende, tanto como la crítica al supra-uso de tests.

Otro de los factores, que es necesario destacar en el recorrido diacrónico por la teoría y práctica de las medidas basadas en técnicas de prueba o tests, es el auge de las tecnologías y su aplicación en la medición. La incorporación del ordenador en el desarrollo científico en general constituye uno de los avances significativos del siglo XX y su impacto en la medición también es considerable; especialmente la tecnología informática facilita el desarrollo de modelos matemáticos y técnicas estadísticas multivariadas antes prácticamente inviables. En particular, el desarrollo más espectacular (además de todos los campos de la medida hasta ahora tratados) versa sobre la aplicación de ordenadores en el desarrollo exponencial de la TRI, en sus posibilidades reales de aprovechamiento social; posibilitando, los tests adaptativos informatizados (TAIs), el perfeccionamiento de instrumentos en general e incluso interpretación y elaboración de informes. Sus posibilidades son enormes no sólo en la administración del test, sino también en la construcción y selección de ítems y en la calidad y precisión de la información.

En esta corriente tecnológica de la medida y del diagnóstico, sobresalen las aportaciones de profesores del área MIDE de la Universidad de Valencia. En este marco, destacan los trabajos de Jornet y Suarez (1994; 1996) sobre los usos y características métricas de pruebas estandarizadas y criteriales en la evaluación del rendimiento. Específicamente sobre el diagnóstico y medición de la teleformabilidad se distinguen algunos trabajos (Jornet, 1999). De forma complementaria, los desarrollos realizados en este contexto han permitido la inserción del área en el marco tecnológico e Internet (Aliaga, 1997a; 1997b; 1999) así como también son reconocibles sus aportaciones en el diseño y uso de materiales didácticos y evaluativos basados en las TIC y en el marco de la teleformación (Aliaga, González Such y Bo, 1999; Orellana y Aliaga, 1999; González Such y Otros, 1999; Sáez y otros) .

Colás (2000a, 42) señala que la informática ha posibilitado una considerable mejora de las condiciones de control de la medida. Las aplicaciones a la medida se han desarrollado en cuatro áreas: 1) registro de estímulos muy variados, desde información puntual hasta dimensiones ambientales; 2) registro y acceso a secuencias de procesos y operaciones; 3) toma de decisiones, basadas en procesos de entrada y contabilización de información registrada e, 4) interconexión de información almacenada en distintas fuentes, formatos y lenguajes. Una gran mayoría de programas informáticos disponibles en el mercado se diseñan específicamente para cubrir las tareas que conlleva cualquier proceso de medición educativa: a) elaboración de test, incluye la redacción del test, estudio piloto y revisión de ítems, b) administración de test, que implica obtener las respuestas, clasificar a los sujetos en función de las mismas e interpretar los resultados y, c) análisis de test, que abarca la validación del mismo y el análisis de los ítems para calibrar sus parámetros. Las tecnologías facilitan hoy el acceso general y disponibilidad pública de estos avances informáticos, posibilitando software específico para la medición y el diagnóstico en Educación.

Diversos autores (Bunderson, Dillon y Olsen, 1993; Martínez Arias, 1996; Colás, 2000b), plantean desarrollos que concretan el impulso tecnológico: a) la elaboración de bancos de ítems; b) los Tests a Medida; y, c) los Tests referidos al Criterio.

a) Los bancos de ítems son conjuntos de elementos que miden un mismo rasgo, campo o área de conocimiento, almacenados junto con sus propiedades estadísticas, y sus parámetros. Aunque los primeros trabajos realizados sobre bancos de ítems se realizaron a final de la década de los 60 y a comienzo de los 70, su uso se hace realidad a partir de aplicaciones informáticas que facilitan el almacenamiento, la clasificación, y la estimación de los parámetros de los ítems. Los bancos de ítems contienen por tanto ítems parametrizados (calibrados en la misma escala) que definen operativamente la variable medida. En la actualidad, la gran mayoría de software informático actual especializados en test incluyen la opción de creación de bancos de ítems (MicroCat, FastTest, The Examiner, etc). Las aplicaciones al ámbito educativo son muy diversas: evaluación de los sistemas educativos y de áreas curriculares y también aplicaciones dentro del aula. Las políticas científico-educativas potencian esta vertiente científica, al apoyar líneas de trabajo en torno a la elaboración de bancos de ítems para la evaluación de sistemas educativos en base a áreas curriculares.

b) Tests a Medida. La idea de evaluación individualizada, de aplicación de test adaptados, hechos a la medida de los sujetos objeto de evaluación, no es nueva, se remonta a los trabajos de Binet y Simon sobre inteligencia en 1908. Sin embargo, apenas se trabajó sobre esta idea hasta finales de la década de los 60. El desarrollo de software informático en la evaluación individualizada potencia y consolida un nuevo área denominada CAT (Computer Adaptative Testing) y que en la bibliografía castellana se reconocen también como Tests adaptativos Informatizados (TAIs). A ello ha contribuido también la introducción de la TRI (Teoría de Respuesta al Item) como vía fundamental en el estudio de los tests. Muñíz y Hambleton (1992), señalan como principales ventajas la adaptación al nivel de los sujetos a los que se aplican, con lo que se gana en precisión (se minimiza el error de medida) consiguiéndose asimismo efectos colaterales deseables, como el aumento de la motivación del sujeto al presentarle retos “a su medida” o evitar la pérdida de tiempo en contestar ítems no adaptados al sujeto.

c) Los Tests referidos al criterio. La expresión Test Referidos al Criterio aparece por primera vez publicada en la revista American Psychologist, en un artículo de Glaser (1963: 519), que los define “como aquellos en los que los resultados dependen del estatus absoluto de calidad del estudiante, frente a los TNR que dependen del estatus del grupo”. Glaser establece la distinción entre medición con referencia a la norma, centrada en detectar la posición relativa de un estudiante respecto a lo que es normativo en su grupo, y la medición con referencia al criterio, que se establece por comparación a “un nivel absoluto de calidad”. La principal característica distintiva de estos tests es que proporcionan bases para evaluar a los sujetos en relación a dominios de conducta bien definidos. En el ámbito español, algunos textos y manuales han abordado las características distintivas y principales aportaciones en el campo de la educación (Cabrera y Espín, 1986). El mantenido interés en la evaluación referida al criterio y el resurgimiento de la TRI han ido paralelos en el tiempo, proporcionando ésta última un marco muy apropiado para la elaboración de estos tests. Una extensión de este planteamiento lo encontramos hoy día en la idea de Tests de Dominio Computerizado que está a caballo entre los Tests Referidos al Criterio y los Test a Medida, y que se debe al trabajo de Lewis y Sheeban (1990). En este tipo de test se conjuga la idea de la evaluación individualizada con los TRC. En la década de los noventa las referencias a estos tests, en publicaciones especializadas es muy numerosa (Journal of Educational Measurement, American Educational Research, Applied Psychological Measurement Journal, etc) y su aplicación educativa habitual.

Por último, conviene no olvidar en este recorrido, el papel jugado por las diversas teorías de la comunicación y de la mente en la re-definición y el cambio espectacular en las concepciones acerca de la medida de la inteligencia y de las aptitudes; ello, principalmente vinculado a los sucesivos cambios paradigmáticos acontecidos en el marco de los fundamentos (hoy interdisciplinares) de la psicología humana. La evolución desde un marco básicamente conductista, basado en negación de un enfoque cognitivo de la mente, a la aparición extensiva de éste en la práctica educativa supuso durante los años 70 un fuerte caballo de batalla; que, al menos en España, parece auspiciarse tanto por la incidencia de los cambios políticos y legislativos como por la entrada sistemática y adaptación de las teorías de Piaget a la enseñanza y la evaluación de los conocimientos. Esta “revolución cognitiva”, sin embargo, tuvo escasas consecuencias en el marco de la teoría de la medida y de los tests. El desarrollo y aplicación de los tests seguirá su propio camino, de alguna manera, de espaldas a la psicología que los hizo tomar cuerpo.

Así, mientras en la Psicología se han sucedido muy diversos cambios paradigmáticos basados en reconsideraciones sobre la conciencia y la mente humana (cognitivismo estructuralista, procesamiento de la información, constructivismo, ...), en las teorías clásicas de la medida sólo se atendería al propio desarrollo matemático y estadístico de la fiabilidad de las medidas. Desde finales de los años ochenta hasta mediados de los noventa este fue un problema resaltado por muy diversos autores y que se aborda con investigaciones diversas. En este sentido, con el objeto de recoger esta problemática y tendencia científica en la medida, Martínez Arias (1996: 43) la plantea como una preocupación típica de los años noventa al considerar la discusión sobre el papel de los avances de la psicología cognitiva, fundamentalmente el procesamiento de la información, en la construcción de pruebas e instrumentos psicométricos:

“La psicología cognitiva en cuanto interesada en el estudio de cómo las personas representan mentalmente y procesan la información, incluye dentro de su dominio aptitudes mentales como percepción, memoria, razonamiento, resolución de problemas, toma de decisiones, etc., es decir, trata con muchos procesos tradicionalmente medidos por medio de tests psicométricos. Sus desarrollos han tenido importantes implicaciones para la construcción de instrumentos psicométricos (Embretson, 1985; 1993; Messick, 1989; Mislevy, 1993; Pellegrino, 1988; Ronning, Glover, Conoley y Witt, 1987; Snow, 1989; Sternberg, 1977; 1988; 1991). El impacto ha sido tan fuerte en los últimos años que ha llevado a los psicómetras a plantearse cuáles deben ser las técnicas adecuadas para la construcción de tests, de tal modo que permitan tener en cuenta estos avances [...]”

Sobre esta problemática se reconoce el libro de Fredericksen, Mislevy y Bejar (1993) como compilador de aproximaciones teóricas a tener en cuenta en la nueva generación de tests que se van a desarrollar desde los años noventa; en castellano, Martínez Arias (1991) recoge una revisión sobre inteligencia y procesamiento de la información. Mislevy (1993: 19) en su FOUNDATION OF A NEW TEST THEORY plantea el reto con las siguientes palabras:“[...] es sólo una leve exageración describir la teoría de los tests que domina hoy la medida como la aplicación de la estadística avanzada del siglo XX a la Psicología del siglo XIX”.

En el marco de este proceso general no podemos dejar de referirnos a lo que ha supuesto nuestra trayectoria particular, tanto personal como colectiva, del grupo de investigación al que pertenecemos “Investigación, Evaluación y Tecnología Educativa” (P.A.I.: HUM-154), en el desarrollo y la investigación de este tipo de pruebas. Precisamente, auspiciado por los cambios suscitados en el marco de la medición educativa, y con el interés; de un lado, de explotar hasta sus últimas consecuencias el modelo clásico de las teorías de los tests proponiendo nuevos desarrollos metacognitivos de los mismos; y de otro, desarrollar los tests referidos al criterio con fundamentos cognitivos y metacognitivos, tuvimos la suerte de participar en un proyecto europeo durante los años noventa que creemos de cierta importancia científica, con la participación de veinte universidades de cinco países europeos. El director del proyecto a nivel internacional fue el profesor Leclercq (1983) de la Universidad de Lieja en Bélgica y en España los trabajos se coordinaron desde la Universidad de Barcelona (Bartolomé, 1991), implicando también a las universidades de Cantabria, Murcia y Sevilla .

El reto abordado en dicho proyecto es vincular los procesos de medida mediante tests, en nuestro caso referidos al criterio, con los desarrollos de las teorías del procesamiento de la información y los avances de la psicología cognitiva post-piagetiana. Ello, con el objeto de considerar nuevas variables metacognitivas en el diagnóstico de los resultados de la Formación Profesional a nivel internacional y evaluar un software desarrollado expresamente para este enfoque y propuesta de medición. Estas producciones suponen, a nuestro entender, una innovación significativa en lo que respecta a aplicaciones de los test referidos al criterio y sobre la consideración de aspectos en la construcción de pruebas tales como: el uso de las “soluciones generales implícitas” o la “seguridad del conocimiento” que permite manejar variables metacognitivas tales como la coherencia y el realismo en el conocimiento de los contenidos y de sí mismo; aspectos que aún diez años después, se vienen usando en diversos trabajos con utilidades diagnósticas muy precisas. Sin embargo, el desarrollo exponencial de la teoría de respuesta a los ítems hace re-orientar los esfuerzos individuales de cada equipo al finalizar el proyecto a mediados de los años noventa.

En la actualidad estamos trabajando de nuevo sobre dichas dimensiones metacognitivas y otras nuevas que integran aspectos emocionales y afectivos en el desarrollo de las pruebas, sin embargo ahora estamos tratando de desarrollar pruebas diagnósticas basadas ya en la TRI y en el uso de Internet para la administración y evaluación de la calidad de los reactivos, en lo que supone una de las líneas de investigación del equipo en la que nos vemos imbricados. Desde nuestro punto de vista, la aplicación sistemática de los avances teóricos producidos en las teorías de la mente y de la comunicación, junto con los avances teóricos en los fundamentos probabilísticos y matemáticos desarrollados; y aplicables gracias al desarrollo tecnológico (informática, audiovisual, redes), son líneas actuales en el desarrollo de las teorías de los tests y la medida en educación.

Una vez expuesta esta visión diacrónica sobre el campo de los tests, parece conveniente expresar las ideas básicas que han supuesto hitos fundamentales en el enfoque la construcción y uso de los tests. Siguiendo las propuestas de Cajide (1993) y otros autores (Muniz, 1997; 2001; Martínez Arias, 1996; etc.), esquematizamos a continuación, muy brevemente, los fundamentos básicos que sustentan cada una de las tres grandes teorías de los tests: la teoría clásica (TCT), la de la generalizabilidad (TGT) y la teoría del rasgo latente (TRI).
2.2.1. La Teoría Clásica de los Tests (TCT): aspectos básicos y fundamentos

La teoría clásica de los tests, también denominada como teoría basada en el modelo de la medida verdadera, centra sus aportaciones más significativas en la estimación de indicadores de los aspectos de fiabilidad y validez, así como de sus relaciones. En este modelo, cuando administramos un tests a un sujeto, la medida observada representa su habilidad en una muestra particular de ítems a resolver en una situación particular, bajo condiciones particulares. Algunos factores pueden afectar al desarrollo del sujeto, diferentes condiciones, diferentes tiempos, etc. Si fuese posible administrar múltiples veces el test al mismo sujeto obteniendo las diferentes medidas, bajo todas las condiciones, tiempos y modalidades de ítems posibles, la media de todas las puntuaciones así observadas supone (teóricamente) una estimación insesgada de la habilidad o nivel de rasgo que se está midiendo. Dicha media se define como medida verdadera. Sin embargo, esta teoría asume que toda medida basada en una muestra particular de ítems está afectada por un error (error al azar de medida) que la hace ligeramente diferente de la medida verdadera; lo que matemáticamente se puede expresar mediante un modelo lineal para la formalización de las puntuaciones:

Xi (puntuación observada) = Vi (puntuación verdadera) + ei (error de medida)

De donde: Ei = Xi – Vi

En definitiva, mientras que para una persona la puntuación verdadera (su nivel de habilidad o nivel de rasgo medido, no observable) se asume invariante o constante, la puntuación observada y los errores son variables aleatorias con varianza, pues, distinta de cero.

Este modelo permite considerar las esperanzas matemáticas E de (“promedio de” o “valor esperado de”) cada término de la ecuación para el caso en que se han desarrollado una muestra amplia de mediciones repetidas, donde:

E(x) = E(v) + E(e)

En los supuestos del modelo se asume que el error de medida es una desviación no sistemática o aleatoria de la puntuación verdadera, por tanto, en una muestra amplia de medidas la esperanza matemática del error tiende a ser cero, si la muestra es infinita E(e) = 0. Lo que implica E(x) = E(v); siendo, por definición, la esperanza matemática del valor observado E(x) la verdadera medida.

En resumen, estos supuestos implican que:
a) los sujetos tienen un nivel de rasgo o puntuación verdadera que, si no hubiera error de medida, coincidiría con la puntuación obtenida;
b) al existir un error aleatorio en las puntuaciones obtenidas por un sujeto en los tests, estas puntuaciones difieren de forma aleatoria de las puntuaciones verdaderas; y,
c) si se aplica varias veces, o formas equivalentes, el test a un sujeto la puntuación media resultante se aproximaría mucho a su nivel o puntuación verdadera en la habilidad o rasgo medido. Toda esta teoría supone un marco idóneo para el desarrollo y progresivo afinamiento de los conceptos e indicadores de fiabilidad y validez que se abordan posteriormente. En el marco de la teoría clásica, estos indicadores de fiabilidad y validez (operativizados mediante coeficientes de correlación) suponen una guía de conocimiento sistemático para la construcción, selección y mejora de pruebas y el desarrollo de inferencias desde las puntuaciones obtenidas con las mismas.

Muniz (2001: 28) resume la formulación del modelo clásico y los supuestos matemáticos básicos que lo sustentan. La siguiente tabla los recoge:

Modelo: X = V + e; la puntuación empírica observada se compone de la puntuación verdadera más el error de medida.
Supuestos: 1. V = E(x); la puntuación verdadera es la esperanza matemática de la puntuación empírica observada; consecuentemente, E(e) = 0.
2. (v, e) = 0; no existe correlación entre las puntuaciones verdaderas (niveles de rasgo) y los errores de medida. Son aspectos independientes o no sistemáticamente asociados.
3. (ej, ek) = 0; no existe correlación entre los errores de medida de los sujetos en dos tests distintos, siendo estos a priori independientemente aleatorios para cada ocasión de medida.
Definición: Dos tests, j y k, se denominan paralelos si la varianza de los errores es la misma en ambos [2(ej) = 2(ek)] y también lo son las puntuaciones verdaderas de los sujetos (Vj = Vk).
Tabla 3. Formulación del modelo matemático de la TCT (adaptado de Muniz, 2001: 28).
2.2.2. La Teoría de la Generalizabilidad de los Tests (TGT): fundamentos y aportaciones

La teoría de la Generalizabilidad de los tests se plantea como una alternativa para superar la concepción unívoca y aleatoria del error de medida propuesta en los supuestos de la teoría clásica, por lo que aporta un nuevo marco para el estudio de la fiabilidad y la investigación de las pruebas. En la Teoría G (TGT) se conciben múltiples fuentes de error que pueden estimarse separadamente; ello, en respuesta a las críticas que pueden realizarse al concepto de fiabilidad inherente a los supuestos de la teoría clásica, en la cual, las fuentes de error están indeterminadas. En definitiva, se trata de ampliar la formulación matemática del modelo clásico (Xi = Vi + ei) para el caso en que es posible aislar múltiples fuentes de variación del error separadas de la variación verdadera:

e1
e2
e3
Xi = Vi + .
.
.
en

Para Bertrand (1985), la teoría G es como una extensión sobre la base del mismo modelo clásico de medida, pero sosteniendo que el error de medida puede analizarse, al menos en parte, diferenciando explícitamente distintos componentes del error, cada uno de ellos asociado con algún aspecto manipulable de una prueba: los contenidos, condiciones de aplicación, calificadores, etc. Como señala Hernández Pína (1993: 242) “parte del supuesto de que cada medición es un punto en un espacio definido por un número de facetas o universo de generalizaciones, de modo que la aplicación del análisis de varianza permite determinar los componentes de la varianza atribuibles a las diversas condiciones”. Ello en la práctica permite integrar el estudio de las fuentes del error en una estructura explicativa global. Como consecuencia, esta teoría aporta una forma de pensar distinta sobre la fiabilidad de las medidas y de su varianza de error, así como sobre su relaciones con el concepto de validez.
La consideración clásica de fiabilidad plantea problemas en la toma de decisiones sobre la calidad de un instrumento; es un problema de inferencia, en tanto que un alto coeficiente de fiabilidad global no determina el grado de generalización de las condiciones particulares de observación a un universo de condiciones. Como ha señalado De la Orden (1989: 229), “la teoría de la generalizabilidad considera las observaciones sobre un objeto de medida (habitualmente un sujeto) como una muestra de un universo de observaciones, todas las cuales proporcionan el mismo tipo de información acerca de dicho objeto de medida. El universo de todas las observaciones que son igualmente útiles y relevantes para quien haya de tomar decisiones, apoyadas en una determinada medida, constituye su universo de generalización. Las condiciones en que se realizan las observaciones en un universo de generalización varían, por ejemplo, pueden ser hechas por diferentes observadores y en diferentes ocasiones. Las condiciones de la misma clase se agrupan en facetas y, en consecuencia, las observaciones deben implicar muestras de condiciones de cada una de las facetas en un universo de generalización”.

Diversos autores (Hernández Pina, 1993; Del Rincón y Otros, 1995) señalan las ventajas de este enfoque o teoría sobre los tests: 1) Los supuestos en los que se basa son menos restrictivos que los de la teoría clásica, únicamente requiere el muestreo aleatorio de individuos y condiciones de medida. 2) Reconoce de forma explícita las fuentes de error de medida así como las interacciones entre ellas. 3) sirve para desarrollar y optimizar diseños de medida en estudios posteriores. Es decir, mediante el estudio sistemático de las diferentes fuentes de error podemos desarrollar un diseño de medida que reduzca el error total en los estudios posteriores. 4) Permite estudios en muestras estratificadas.

Entre las aportaciones más significativas de esta teoría de los tests consta la creación un nuevo marco general para la evaluación y desarrollo de pruebas que implica una nueva terminología conceptual que supera los clásicos conceptos de puntuación verdadera y error. El término población designa los objetos de medida y el de universo de generalización el conjunto de las condiciones implicadas en la generalización que quiere realizarse de la observación particular. El concepto de faceta designa las dimensiones que determinan fuentes de variación cada una de cuyas manifestaciones posibles se denomina nivel de la faceta. Así, se establecen condiciones de medida de cada faceta que definen el espacio de reflexión sobre el uso de un instrumento en determinada condiciones de aplicación nuevas o iguales. La puntuación universo de un individuo representa la puntuación media de un individuo, calculada sobre todas las observaciones posibles como una función de la puntuación observada para generalizar desde la muestra a la población. También se aporta un coeficiente de fiabilidad denominado coeficiente de generalizabilidad, que estima en que medida se puede generalizar, desde la media observada en unas condiciones, a la media de todas las observaciones posibles (Blanco, 1993).

Entre las modalidades de estudios basados en la teoría G destacan dos vertientes los de decisión D y los de generalizabilidad G. Ambos son descritos de forma significativamente distintas por los autores, especialmente respecto de las fases que contemplan en su desarrollo y que han sido resumidas por Del Rincón y Otros (1995: 92-93). Un estudio más pormenorizado de estos aspectos se pueden consultar, entre otros, en las propuestas de Brennan (1980), Shavelson y Webb (1991), Blanco (1993) y Cajide (1993). Este último autor incorpora un cierto desarrollo del modelo matemático y estadístico que subyace en este tipo de estudios, así como un conjunto de guías, textuales y gráficas, muy precisas sobre el desarrollo de los diversas fases en los mismos; información que no parece conveniente extender en este apartado de resumen. También, en estos trabajos se citan aplicaciones muy diversas, entre las que destacamos: Buendía y Pegalagar (1990) sobre aplicación de la teoría G en estudios de fiabilidad a partir de múltiples técnicas e instrumentos de medida usados en la investigación educativa y la toma de decisiones; Abalde (1990); Blanco (1993), sobre generalización de los sistemas observacionales; y a modos de ejemplos didácticos, los estudios de Bertrand (1988) y García Cueto (1993), sobre la evaluación de aprendizajes y determinación del coeficiente G en estudios de una sola faceta, respectivamente (resumidos y recogidos en el texto de Del Rincón y Otros, 1995: 96-101).
Evidentemente, si las aportaciones de la teoría clásica son hoy muy comunes y seguirán siéndolas en lo sucesivo, eso esperamos desde luego, aún más campo abierto consideramos para la teoría G cuyas aportaciones se están sistematizando aún y no sabemos los cambios socioculturales que pueden sucederse y hacerla competitiva académica y científicamente. No obstante, para terminar con este subapartado debemos recoger la opinión de Muñiz (2001: 20-21) que explica en parte lo acontecido hasta hoy en el desarrollo de esta teoría:

“Florecer parece haber sido el sino de los años sesenta, y la Teoría de los Tests no iba a ser menos. Precisamente, en 1968 aparecerá el libro de Lord y Novick (1968) STATISTICAL THEORIES OF MENTAL TESTS SCORES, que sintetiza y reanaliza críticamente todo lo hecho anteriormente en la Teoría Clásica de los Tests, abriendo nuevas y prometedoras perspectivas. En el libro se incluye además el trabajo de Birnbaum sobre los Modelos de Rasgo Latente, que abrirán una línea completamente nueva en la Teoría de los Tests, conocida hoy como Teoría de Respuesta a los Ítems (TRI). Este vuelco del modo de hacer clásico propiciado por la TRI va a oscurecer la mejora, al menos teórica, que prometía aportar al planteamiento clásico la Teoría de la Generalizabilidad (TG) propuesta por Cronbach y colaboradores [...]. Pero las aparatosas complicaciones introducidas en relación con las ventajas prácticas aportadas, unidas a la aparición en la escena psicométrica del enfoque alternativo de los modelos de TRI, relegarán la TG a un papel secundario en el campo de la teoría de los tests. [...]. Sea como fuere, el libro de Lord y Novick, de áspera lectura y notación infernal, marca un antes y un después en la Teoría de los Tests, terminaba una época, la clásica, y comenzaba otra nueva marcada por el predominio absoluto de la TRI. La nueva no negaba la anterior, aunque, como señalara Lord (1980), utilizará poco de ella para su formulación”.

Con este planteamiento como fondo histórico-científico, nos adentramos a continuación en una breve explicación de algunos aspectos básicos de la TRI.

2.2.3. La Teoría de Respuesta a los Ítems (TRI): principios y desarrollo actual

La Teoría del Rasgo Latente o Teoría de Respuesta a los Ítems (TRI) aparece como alternativa y nuevo modo de pensar los desarrollos y la calidad de los tests basados en las teorías clásicas. Estas presentan una serie de limitaciones resumidas por Cajide (1993) en tres aspectos fundamentales: a) el porcentaje de respuestas correctas y los coeficientes de correlación entre puntuaciones ítem-total en el test varían en función de la capacidad promedio y del rango de capacidad de la muestra piloto que sirve al cálculo. b) las puntuaciones de los sujetos en el test depende de la particular selección de ítems que se realiza. c) se presupone igual varianza de errores de medida para todos los sujetos. Este mismo autor señala lo que suponen retos a la construcción de tests desde este nuevo modelo:

“Quizás una de las más importantes limitaciones de los procesos de medida analizados a través del enfoque clásico o bien el de la generalizabilidad es la dificultad en comparar medidas a través de pruebas similares. [...] Sería ideal si el desarrollo de un procedimiento de medida estuviese guiado por una teoría de tal manera que las medidas en el test no dependieran del test, si las medidas pudieran estandarizarse a través de pruebas similares, si las fiabilidades separadas pudieran estimarse para diferentes niveles de habilidad, y que las estimaciones de los estadísticos del ítem y las fiabilidades no fueran dependientes de la muestra piloto. La teoría de respuesta al ítem se presenta como una teoría prometedora en tal sentido” (Cajide, 1993: 297).

Como señala Álvaro (1993), la TRI pretende subsanar estas graves limitaciones que hacen que los resultados obtenidos de la aplicación de un ítem dependa de las circunstancias de aplicación, de las características del test y de los sujetos examinados. Con este sentido se construye todo un marco teórico cuyos orígenes se encuentran en los trabajos de Richardson (1936); sin embargo, la creación de la TRI se atribuye a Lawley (1943), Tucker (1946), Lord (1952), Birnbaum (1958) y Rasch (1960). De modo independiente, Lord y Rasch desarrollan el modelo teórico de la teoría del rasgo latente; el primero plantea la teoría de la curva característica de los ítems, el segundo desarrolla el modelo logístico de respuesta a los ítems dicotómicos de un parámetro (“b” –índice de dificultad–). Ambas aproximaciones parten del supuesto de que las puntuaciones obtenidas por un sujeto en un ítem de un tests dependen directamente del “nivel de rasgo” o grado en que posee la habilidad definida por dicho rasgo latente o constructo medido. Esto supone establecer una relación funcional entre el nivel de habilidad o nivel de rasgo de un individuo y su probabilidad de acertar el ítem.

La expansión de la TRI se produce fundamentalmente a partir de los años 60 en que se publican la obra de Rasch (1960) y, sobretodo, la obra de Lord y Novik (1968) en que se recogen las aportaciones de Birnbaum sobre fundamentación estadística de estos modelos. La progresiva extensión del uso de ordenadores y el diseño de programas que resuelven los complejos procesos estadísticos a que se someten los datos (mediante estudios de patrones multivariantes de respuestas a los ítems) hacen viable este enfoque, que llega a nuestros días claramente potenciado por las nuevas tecnologías. Desde un punto de vista teórico sobre la medición, la TRI supone el avance actual más significativo en la posibilidad de obtener medidas invariantes respecto de los instrumentos utilizados y de los objetos (sujetos) evaluados (Muñiz, 1997). Una diferencia claramente observable de la TRI respecto de anteriores aproximaciones es que centra mucho más su estudio sobre los ítems y sus propiedades paramétricas (discriminación, dificultad, pseudoazar, ...) más que sobre las propiedades globales de los tests. Para Muñiz (1997: 28) “los modelos tienen que partir de supuestos más restrictivos, más fuertes, que los de la teoría clásica, por lo que a veces se denominan con el nombre genérico de teoría fuerte de los tests, frente a la teoría clásica o débil. La Curva Característica de los Ítems (CCI), la Unidimensionalidad y la Independencia Local constituyen los tres supuestos claves de la TRI”.

La Curva Característica de un Ítem expresa la relación funcional entre el nivel de rasgo o habilidad que se mide () y la probabilidad de responderlo correctamente P(), lo que supone una función relacional de las habilidades latentes (no observables) y las habilidades manifiestas (observadas en el ítem). Por tanto, estas curvas son el medio que disponemos para representar gráfica y matemáticamente dicha relación (Hambleton y Swaminathan, 1985). Aunque Lord no la desarrolló en sus primero trabajos, se adopta más generalmente como CCI la función logística, por la facilitación de los procedimientos matemáticos. La CCI viene definida, más comúnmente, por tres parámetros: dificultad del ítem (b); discriminación (a); y, la probabilidad de acierto al azar, también denominada pseudoazar (c). No obstante, otras muchas funciones son posibles para definir la relación funcional que establece la CCI entre el rasgo latente y la habilidad manifiesta, dándose lugar a muy diversos modelos de la TRI. Los tres modelos más desarrollados son los modelos de 1(b), 2(b, a) y 3(b, a, c) parámetros para ítems dicotómicos (acierto, desacierto), si bien hoy hay ya muchos avances teóricos en la línea de los modelos politómicos e incluso en modelos multidimensionales aspectos que se comentan posteriormente. Las siguientes representaciones matemáticas y gráficas que se exponen permiten un reconocimiento de las CCI de dos ítems para comparar entre sí, en los diferentes modelos dicotómicos de TRI con 1, 2 y 3 parámetros (estos ejemplos de CCI de ítems se han tomado de Ponsoda, 2002).

Para Hernández Pina (1993: 254), “de los modelos logísticos de un parámetro, el más conocido es el de Rasch (1960), ampliamente desarrollado por Wright (1977) y Wright y Stone (1979)”. Este modelo, de una gran sencillez, establece que la respuesta a un ítem, sólo depende de la competencia o nivel de rasgo del sujeto y la dificultad del ítem. Queda recogido en la siguiente tabla:

Modelo logístico de 1 parámetro (Rasch)

El parámetro “b” indica la dificultad del ítem (-4 < b1=" -1.5" b2 =" 2)." a1=" 0.8," b1=" -1.5)" a2=" 2," b2 =" 2)" a1=" 0.8," b1=" -0.5," c1=" 0.1)" a2=" 2," b2 =" 0.5," c2="0.3)."> Diagnóstico. Proyecto Docente del Dpto. MIDE de la Universidad de Sevilla. Capítulo 2, pp. 131-211. Sevilla: Editorial IETE (en prensa).