domingo, 12 de abril de 2009

COMO CREAR LOS ITEMS PARA UN TEST DE ACTITUD



COMO CREAR LOS ITEMS PARA UN TEST DE ACTITUD
Estos son algunos temas relacionados con la creación de ítems para un test de actitud.

Teorías y modelos sobre la construcción de los tests en educación desde una perspectiva diacrónica.

En este apartado presentamos las teorías de los tests desde una perspectiva diacrónica así como las características básicas de las mismas. Esta visión diacrónica nos guía en la comprensión del papel que juega cada teoría en el desarrollo histórico-cultural de la medición en educación. Diversas autoras (Martínez Arias, 1996; Colás, 2000b) plantean este desarrollo como un proceso explicable por la influencia de tres aspectos fundamentales:
1) el desarrollo inicial de la psicometría como elemento impulsor de este campo científico;
2) la progresiva aparición y desarrollo temático de las teorías de los test (TCT, TGT y TRI);
y, finalmente, el impacto de ciertos cambios auspiciados especialmente por el desarrollo de las tecnologías informáticas.

Desde el origen de la medición educativa se reconoce la influencia decisiva de la psicometría. Esta surge, como se ha señalado en los inicios del capítulo, a partir del desarrollo progresivo de un conjunto de métodos y técnicas implicadas en la medición de las variables psicofísicas y psicológicas. A partir de la propuesta de Muñiz (2001), podemos reconocer cuatro grandes áreas temáticas en la psicometría: 1) teoría de la medida, ya expuesta en los apartados anteriores y que abarca todo lo relativo a la fundamentación teórica de la medida; 2) la teoría de los tests, que aborda la lógica y los modelos matemáticos subyacentes en la construcción y uso de los tests; 3) el escalamiento psicológico, que abordamos en un apartado subsiguiente; y, 4) técnicas multivariadas, que junto con la tecnología estadística resultan imprescindibles para la construcción y análisis de los instrumentos de medida. De estos aspectos resaltamos a continuación los relativos a las teorías de la medida y su impacto en el desarrollo de modalidades de tests y técnicas de prueba progresivamente mejor adaptadas a sus funciones diagnósticas como instrumentos de medida educativa. El punto de partida no puede ser otro que reconocer la dificultad de este tipo de medida, como paso previo a su abordaje desde los diversos modos de aproximación teórico-conceptual a los tests. Concretamente, según Martínez Arias (1996: 29) el diseño de instrumentos para la medida de constructos educativos y psicológicos presenta algunos problemas:

• “No existe una única aproximación a la medida de un constructo que sea universalmente aceptada. Existe siempre la posibilidad de que dos teóricos seleccionen diferentes tipos de conducta para la definición operativa de un mismo constructo.
• Las medidas educativas y psicológicas están basadas en muestras limitadas de conductas. Delimitar el número de elementos y la variedad de expresiones en que se manifiesta un constructo, es uno de los principales problemas en el desarrollo de un instrumento de medida.
• La medida obtenida siempre tiene error. Al estar basada en muestras limitadas en contenidos y recogidas en un momento en el tiempo, está afectada por todos los errores del muestreo.
• Falta de escalas con origen y unidades de medida bien definidas.
• Dificultad de identificar un constructo con total independencia así como sus definiciones operativas.”

La teoría de los tests aborda estos problemas y plantea métodos y alternativas para su solución. Las distintas teorías y sus desarrollos fundamentan avances en la construcción y validación de instrumentos de medida concretos. Hemos reconocido anteriormente muchos antecedentes al diagnóstico, entendido como medida científica, expresando la larga trayectoria desde autores como R. Fechner o las contribuciones realizadas por Galton, Cattell, Binet, Spearman, Thurstone, etc. sobre diferencias individuales.

En Pedagogía, el inicio de la medición se sitúa en los trabajos de J.M. Rice y Thorndike a principios del siglo XX. Concretamente durante este período, el principal reto en el campo de la investigación pedagógica es crear tests propiamente escolares y elaborar escalas de comprobación de conocimientos. “La línea iniciada por Rice en 1910 origina la creación de escalas de redacción, de ortografía y de cálculo aritmético” (Mateo, 2000, 26). Los primeros trabajos empíricos en el campo educativo corresponden a test de instrucción, inteligencia y escalas métricas de escritura; también se puede decir que estas preocupaciones surgen estrechamente ligadas al nacimiento de la Pedagogía Experimental como disciplina científica. Este período de la medición educativa se caracteriza por su énfasis en la medición de las personas. Los instrumentos típicos de esta orientación son tests psicométricos de aplicación individual.

También, especialmente durante la Primera Guerra Mundial se crean tests de inteligencia colectivos propiciados por las necesidades políticas de selección y clasificación en el ejercito de grandes cantidades de personas. En este período, la puntuación global de los test de inteligencia se muestra insuficiente para detectar los diferentes aspectos de funcionamiento intelectual de los sujetos, por lo que se impone la medición de rasgos más específicos con el fin de realizar pronósticos más precisos.

Entre los años 30 y 40 se construyen y afinan las hoy clásicas baterías de aptitudes, que conforman lo que entonces se consideraban como “componentes fundamentales del funcionamiento inteligente”, referido a aspectos como: comprensión verbal, fluidez verbal, aptitud numérica, aptitud espacial, rapidez perceptiva y razonamiento general. La técnica del análisis factorial permite estructurar multidimensionalmente la genérica puntuación global de inteligencia.

Paralelamente al desarrollo de Tests Cognoscitivos, los Test de Personalidad también se benefician de los avances técnicos del análisis factorial y otras técnicas multivariadas afines. A estos avances se añaden nuevas orientaciones como los Tests Proyectivos (Muñíz, 1994).

Los cambios en las últimas décadas han supuesto un giro importante en los modelos de medida y en las aplicaciones prácticas en la evaluación. La medida se diversifica para atender programas, instituciones, colectivos, etc. La incorporación de nuevos objetos evaluativos plantea la necesidad de desarrollar otras técnicas de recogida de datos más abiertas y flexibles. Por otra parte, en cuanto al estudio y medida de constructos ya clásicos también cambia. En la actualidad, en relación con el rendimiento también se plantea la necesidad de medir nuevos resultados escolares, especialmente habilidades de alto nivel cognitivo, tales como resolución de problemas, razonamiento y pensamiento crítico, derivándose a su vez, la necesidad de nuevos modelos de medida, nuevas conceptualizaciones de validez y fiabilidad en los tests, y nuevos modos de medición.

El desarrollo de la teoría de los tests corre parejo con la evolución de tests concretos que van surgiendo. De hecho, ambos desarrollos se influyen mutuamente e incluso a veces los tests como instrumentos se han anticipado a su fundamentación teórica (Muñiz, 1992). Como hemos señalado con anterioridad, la teoría de los tests constituye un área que provee de enfoques y modelos para el análisis y construcción de instrumentos de medida, identificándose tres orientaciones básicas: la teoría clásica de los tests (TCT), teoría de la generalizabilidad (TGT) y teoría de respuesta al ítem (TRI). Estas tres orientaciones aportan modelos diferentes para la construcción y validación de tests, aunque todas siguen vigentes, tienen un recorrido progresivo y secuencial.

La Teoría Clásica de los Tests (TCT) ha sido el modelo dominante durante gran parte del siglo XX y aún hoy tiene una vigencia notable observable en las aplicaciones prácticas. Esta teoría surge con el objetivo central de desarrollar un modelo estadístico que fundamente las puntuaciones de los tests y permita la estimación de los errores de medida asociados al proceso de medición. El nacimiento de la TCT se sitúa en los primeros trabajos de Spearman. No obstante, las obras de Guilford (1936) y Gulliksen (1950), suponen la integración y sistematización del cuerpo de conocimientos de esta teoría, incluyendo temas sobre validez, fiabilidad, análisis de ítems, etc. El modelo que asume esta teoría plantea que la puntuación empírica del sujeto en un test consta de dos componentes: puntuación verdadera y error de medida. A partir de estos conceptos y de los supuestos asociados se estima el grado de fiabilidad y validez de los instrumentos de medida. A esta teoría se deben el desarrollo de múltiples técnicas estadísticas multivariadas y métodos para el cálculo de la fiabilidad de un instrumento: análisis factorial, componentes principales, formas paralelas, test-retest, las dos mitades. En este marco, también se producen avances fundamentales respecto a la noción de validez, tipos y procedimientos para garantizarla. Son aspectos concretos que se abordan en ulteriores apartados.

Las principales dificultades que presenta la TCT se refieren a que la medición de un sujeto en una variable depende del test utilizado y del grupo normativo. En primer lugar, la dependencia de la medida en función del instrumento utilizado plantea problemas para tratar de establecer la equivalencia entre las puntuaciones de dos tests distintos que midan una misma variable. Por otro, las propiedades del instrumento de medida (ítems y test) están en función de los sujetos a los que se aplica. Los índices de dificultad, discriminación y consistencia interna depende de los grupos de sujetos y su tamaño en el cálculo.

A partir de 1950 factores de muy diversa índole promueven el desarrollo de las otras dos nuevas teorías de los tests (TGT y TRI), así como su expansión más o menos constante y alternante durante las décadas siguientes. Las aplicaciones concretas, derivadas de estas nuevas teorías en la medición de variables educativas, se hacen esperar algún tiempo, llegando hasta nuestros días.

La teoría de la generalizabilidad de los tests (TGT) se considera una extensión de la teoría clásica de los tests, en tanto que reconoce el mismo modelo relativo a la existencia de errores junto a la puntuación verdadera, pero intenta resolver algunos de estos problemas mediante la aplicación del análisis de varianza para analizar dichas fuentes de error de medida. Esta teoría se plantea como una alternativa en la forma de conceptualizar la fiabilidad de los instrumentos de medida y de su varianza de error, reconociendo múltiples fuentes de error y posibilitando su integración en una estructura global. Fue desarrollada por L.J. Cronbach y colaboradores. Esta teoría introduce una serie de modificaciones importantes a la TCT (muestreo de fuentes de error, medidas aleatoriamente paralelas, puntuación del universo, generalizabilidad). En educación, algunos trabajos (Buendía y Pegalajar, 1990; Abalde, 1990; Blanco, 1993) resumen las aportaciones de esta teoría y sus aplicaciones en la medición de fenómenos educativos.

Igualmente, aunque los orígenes de la teoría de respuesta al ítem (TRI) se sitúan en los trabajos pioneros de Richardson, Lawley, Tucker, Lord y Birnbaum de los años cincuenta, su expansión se produce a partir de los años sesenta con la aparición del libro de Rasch (1960) y las contribuciones de Birnbaum en el libro de Lord y Novick (1968). Sin embargo, el desarrollo y expansión de los ordenadores durante la década de los 80 constituye un factor decisivo para la materialización de esta teoría en modelos y aplicaciones concretas. Anastasi (1988) define la década de los ochenta como un período de avances inusuales en la teoría de los tests tanto respecto al progreso tecnológico como a la sofisticación teórica.

Al igual que la teoría de la generalizabilidad, la TRI trata de resolver los problemas de la teoría clásica: proporcionar mediciones invariantes respecto de los instrumentos utilizados y disponer de instrumentos de medida cuyas propiedades no dependan de los objetos medidos. Esta teoría aporta todo un conjunto de avances técnicos para la construcción y análisis de los tests: las funciones de información de los ítems y del test, errores típicos de medida distintos para cada nivel de la variable medida o el establecimiento de bancos de ítems con parámetros estrictamente definidos, lo que posibilita el uso de tests adaptados al nivel de los sujetos con exploraciones más exhaustivas y rigurosas en función de las características de éstos. La TRI revitalizará áreas tales como los bancos de ítems o los tests referidos al criterio. En educación, destacan algunas aportaciones teóricas y metodológicas sobre la TRI (Gaviria, 1990, 1999; Murillo y Castro, 1995).

En la exposición de este breve recorrido sobre la medición, los años sesenta destacan como un período de gran actividad teórica en el marco de la medida y las teorías de los tests. En la práctica también se observa la ampliación del objeto de estudio, se reconocen nuevas unidades a considerar en el assessment educativo considerando ideas que se vienen desarrollando desde el primer cuarto de siglo como la idea de “programa”, pasando desde la focalización en conductas individuales al interés por estudiar los currículos, programas, contextos, instituciones, organizaciones y políticas, etc., dando origen y cuerpo a la metodología de investigación evaluativa. El impacto de estos nuevos enfoques sobre la medida y, en concreto, sobre las teorías de los tests fue significativo, sobre todo por la aparición de todo un conjunto de nuevas temáticas (clima del centro, ambiente, organización social, resolución colectiva de problemas, ...) para evaluar mediante pruebas y otras técnicas de escalamiento, también retos para los tests (individuales y colectivos); todavía hoy es así en nuevos campos educativos.

En esta vertiente, destacan las aportaciones del grupo de investigación en educación multicultural (GREDI) de la Universidad de Barcelona, sobresaliendo su labor en la construcción y validación de instrumentos de medida en el campo de la educación multicultural (Rodríguez y otras, 1997; Cabrera y otras, 1998; Espín y otras, 1998; Bartolomé y otras, 1999). La medición de las emociones también suscita un gran interés (Alvarez y otros, 2000; Bisquerra y otros, 2000).

La noción de medida también va cambiando; de entender la medida de forma estable, cuyo objetivo es la medición de la posición de una persona o evento en un momento preciso, se ha pasado a una concepción evolutiva, en la que el objetivo es registrar los cambios o progresos a través del tiempo. Los objetivos educativos a los que sirven también han cambiado: junto a usos estandarizados de la medida a nivel institucional o individual (admisión de alumnos, valorar el nivel de logros, evaluar programas, centros o instituciones, etc.) surgen otras aplicaciones tales como diagnosticar problemas de forma inmediata o establecer perfiles y trayectorias de aprendizaje. El marco de las técnicas de prueba también se extiende, tanto como la crítica al supra-uso de tests.

Otro de los factores, que es necesario destacar en el recorrido diacrónico por la teoría y práctica de las medidas basadas en técnicas de prueba o tests, es el auge de las tecnologías y su aplicación en la medición. La incorporación del ordenador en el desarrollo científico en general constituye uno de los avances significativos del siglo XX y su impacto en la medición también es considerable; especialmente la tecnología informática facilita el desarrollo de modelos matemáticos y técnicas estadísticas multivariadas antes prácticamente inviables. En particular, el desarrollo más espectacular (además de todos los campos de la medida hasta ahora tratados) versa sobre la aplicación de ordenadores en el desarrollo exponencial de la TRI, en sus posibilidades reales de aprovechamiento social; posibilitando, los tests adaptativos informatizados (TAIs), el perfeccionamiento de instrumentos en general e incluso interpretación y elaboración de informes. Sus posibilidades son enormes no sólo en la administración del test, sino también en la construcción y selección de ítems y en la calidad y precisión de la información.

En esta corriente tecnológica de la medida y del diagnóstico, sobresalen las aportaciones de profesores del área MIDE de la Universidad de Valencia. En este marco, destacan los trabajos de Jornet y Suarez (1994; 1996) sobre los usos y características métricas de pruebas estandarizadas y criteriales en la evaluación del rendimiento. Específicamente sobre el diagnóstico y medición de la teleformabilidad se distinguen algunos trabajos (Jornet, 1999). De forma complementaria, los desarrollos realizados en este contexto han permitido la inserción del área en el marco tecnológico e Internet (Aliaga, 1997a; 1997b; 1999) así como también son reconocibles sus aportaciones en el diseño y uso de materiales didácticos y evaluativos basados en las TIC y en el marco de la teleformación (Aliaga, González Such y Bo, 1999; Orellana y Aliaga, 1999; González Such y Otros, 1999; Sáez y otros) .

Colás (2000a, 42) señala que la informática ha posibilitado una considerable mejora de las condiciones de control de la medida. Las aplicaciones a la medida se han desarrollado en cuatro áreas: 1) registro de estímulos muy variados, desde información puntual hasta dimensiones ambientales; 2) registro y acceso a secuencias de procesos y operaciones; 3) toma de decisiones, basadas en procesos de entrada y contabilización de información registrada e, 4) interconexión de información almacenada en distintas fuentes, formatos y lenguajes. Una gran mayoría de programas informáticos disponibles en el mercado se diseñan específicamente para cubrir las tareas que conlleva cualquier proceso de medición educativa: a) elaboración de test, incluye la redacción del test, estudio piloto y revisión de ítems, b) administración de test, que implica obtener las respuestas, clasificar a los sujetos en función de las mismas e interpretar los resultados y, c) análisis de test, que abarca la validación del mismo y el análisis de los ítems para calibrar sus parámetros. Las tecnologías facilitan hoy el acceso general y disponibilidad pública de estos avances informáticos, posibilitando software específico para la medición y el diagnóstico en Educación.

Diversos autores (Bunderson, Dillon y Olsen, 1993; Martínez Arias, 1996; Colás, 2000b), plantean desarrollos que concretan el impulso tecnológico: a) la elaboración de bancos de ítems; b) los Tests a Medida; y, c) los Tests referidos al Criterio.

a) Los bancos de ítems son conjuntos de elementos que miden un mismo rasgo, campo o área de conocimiento, almacenados junto con sus propiedades estadísticas, y sus parámetros. Aunque los primeros trabajos realizados sobre bancos de ítems se realizaron a final de la década de los 60 y a comienzo de los 70, su uso se hace realidad a partir de aplicaciones informáticas que facilitan el almacenamiento, la clasificación, y la estimación de los parámetros de los ítems. Los bancos de ítems contienen por tanto ítems parametrizados (calibrados en la misma escala) que definen operativamente la variable medida. En la actualidad, la gran mayoría de software informático actual especializados en test incluyen la opción de creación de bancos de ítems (MicroCat, FastTest, The Examiner, etc). Las aplicaciones al ámbito educativo son muy diversas: evaluación de los sistemas educativos y de áreas curriculares y también aplicaciones dentro del aula. Las políticas científico-educativas potencian esta vertiente científica, al apoyar líneas de trabajo en torno a la elaboración de bancos de ítems para la evaluación de sistemas educativos en base a áreas curriculares.

b) Tests a Medida. La idea de evaluación individualizada, de aplicación de test adaptados, hechos a la medida de los sujetos objeto de evaluación, no es nueva, se remonta a los trabajos de Binet y Simon sobre inteligencia en 1908. Sin embargo, apenas se trabajó sobre esta idea hasta finales de la década de los 60. El desarrollo de software informático en la evaluación individualizada potencia y consolida un nuevo área denominada CAT (Computer Adaptative Testing) y que en la bibliografía castellana se reconocen también como Tests adaptativos Informatizados (TAIs). A ello ha contribuido también la introducción de la TRI (Teoría de Respuesta al Item) como vía fundamental en el estudio de los tests. Muñíz y Hambleton (1992), señalan como principales ventajas la adaptación al nivel de los sujetos a los que se aplican, con lo que se gana en precisión (se minimiza el error de medida) consiguiéndose asimismo efectos colaterales deseables, como el aumento de la motivación del sujeto al presentarle retos “a su medida” o evitar la pérdida de tiempo en contestar ítems no adaptados al sujeto.

c) Los Tests referidos al criterio. La expresión Test Referidos al Criterio aparece por primera vez publicada en la revista American Psychologist, en un artículo de Glaser (1963: 519), que los define “como aquellos en los que los resultados dependen del estatus absoluto de calidad del estudiante, frente a los TNR que dependen del estatus del grupo”. Glaser establece la distinción entre medición con referencia a la norma, centrada en detectar la posición relativa de un estudiante respecto a lo que es normativo en su grupo, y la medición con referencia al criterio, que se establece por comparación a “un nivel absoluto de calidad”. La principal característica distintiva de estos tests es que proporcionan bases para evaluar a los sujetos en relación a dominios de conducta bien definidos. En el ámbito español, algunos textos y manuales han abordado las características distintivas y principales aportaciones en el campo de la educación (Cabrera y Espín, 1986). El mantenido interés en la evaluación referida al criterio y el resurgimiento de la TRI han ido paralelos en el tiempo, proporcionando ésta última un marco muy apropiado para la elaboración de estos tests. Una extensión de este planteamiento lo encontramos hoy día en la idea de Tests de Dominio Computerizado que está a caballo entre los Tests Referidos al Criterio y los Test a Medida, y que se debe al trabajo de Lewis y Sheeban (1990). En este tipo de test se conjuga la idea de la evaluación individualizada con los TRC. En la década de los noventa las referencias a estos tests, en publicaciones especializadas es muy numerosa (Journal of Educational Measurement, American Educational Research, Applied Psychological Measurement Journal, etc) y su aplicación educativa habitual.

Por último, conviene no olvidar en este recorrido, el papel jugado por las diversas teorías de la comunicación y de la mente en la re-definición y el cambio espectacular en las concepciones acerca de la medida de la inteligencia y de las aptitudes; ello, principalmente vinculado a los sucesivos cambios paradigmáticos acontecidos en el marco de los fundamentos (hoy interdisciplinares) de la psicología humana. La evolución desde un marco básicamente conductista, basado en negación de un enfoque cognitivo de la mente, a la aparición extensiva de éste en la práctica educativa supuso durante los años 70 un fuerte caballo de batalla; que, al menos en España, parece auspiciarse tanto por la incidencia de los cambios políticos y legislativos como por la entrada sistemática y adaptación de las teorías de Piaget a la enseñanza y la evaluación de los conocimientos. Esta “revolución cognitiva”, sin embargo, tuvo escasas consecuencias en el marco de la teoría de la medida y de los tests. El desarrollo y aplicación de los tests seguirá su propio camino, de alguna manera, de espaldas a la psicología que los hizo tomar cuerpo.

Así, mientras en la Psicología se han sucedido muy diversos cambios paradigmáticos basados en reconsideraciones sobre la conciencia y la mente humana (cognitivismo estructuralista, procesamiento de la información, constructivismo, ...), en las teorías clásicas de la medida sólo se atendería al propio desarrollo matemático y estadístico de la fiabilidad de las medidas. Desde finales de los años ochenta hasta mediados de los noventa este fue un problema resaltado por muy diversos autores y que se aborda con investigaciones diversas. En este sentido, con el objeto de recoger esta problemática y tendencia científica en la medida, Martínez Arias (1996: 43) la plantea como una preocupación típica de los años noventa al considerar la discusión sobre el papel de los avances de la psicología cognitiva, fundamentalmente el procesamiento de la información, en la construcción de pruebas e instrumentos psicométricos:

“La psicología cognitiva en cuanto interesada en el estudio de cómo las personas representan mentalmente y procesan la información, incluye dentro de su dominio aptitudes mentales como percepción, memoria, razonamiento, resolución de problemas, toma de decisiones, etc., es decir, trata con muchos procesos tradicionalmente medidos por medio de tests psicométricos. Sus desarrollos han tenido importantes implicaciones para la construcción de instrumentos psicométricos (Embretson, 1985; 1993; Messick, 1989; Mislevy, 1993; Pellegrino, 1988; Ronning, Glover, Conoley y Witt, 1987; Snow, 1989; Sternberg, 1977; 1988; 1991). El impacto ha sido tan fuerte en los últimos años que ha llevado a los psicómetras a plantearse cuáles deben ser las técnicas adecuadas para la construcción de tests, de tal modo que permitan tener en cuenta estos avances [...]”

Sobre esta problemática se reconoce el libro de Fredericksen, Mislevy y Bejar (1993) como compilador de aproximaciones teóricas a tener en cuenta en la nueva generación de tests que se van a desarrollar desde los años noventa; en castellano, Martínez Arias (1991) recoge una revisión sobre inteligencia y procesamiento de la información. Mislevy (1993: 19) en su FOUNDATION OF A NEW TEST THEORY plantea el reto con las siguientes palabras:“[...] es sólo una leve exageración describir la teoría de los tests que domina hoy la medida como la aplicación de la estadística avanzada del siglo XX a la Psicología del siglo XIX”.

En el marco de este proceso general no podemos dejar de referirnos a lo que ha supuesto nuestra trayectoria particular, tanto personal como colectiva, del grupo de investigación al que pertenecemos “Investigación, Evaluación y Tecnología Educativa” (P.A.I.: HUM-154), en el desarrollo y la investigación de este tipo de pruebas. Precisamente, auspiciado por los cambios suscitados en el marco de la medición educativa, y con el interés; de un lado, de explotar hasta sus últimas consecuencias el modelo clásico de las teorías de los tests proponiendo nuevos desarrollos metacognitivos de los mismos; y de otro, desarrollar los tests referidos al criterio con fundamentos cognitivos y metacognitivos, tuvimos la suerte de participar en un proyecto europeo durante los años noventa que creemos de cierta importancia científica, con la participación de veinte universidades de cinco países europeos. El director del proyecto a nivel internacional fue el profesor Leclercq (1983) de la Universidad de Lieja en Bélgica y en España los trabajos se coordinaron desde la Universidad de Barcelona (Bartolomé, 1991), implicando también a las universidades de Cantabria, Murcia y Sevilla .

El reto abordado en dicho proyecto es vincular los procesos de medida mediante tests, en nuestro caso referidos al criterio, con los desarrollos de las teorías del procesamiento de la información y los avances de la psicología cognitiva post-piagetiana. Ello, con el objeto de considerar nuevas variables metacognitivas en el diagnóstico de los resultados de la Formación Profesional a nivel internacional y evaluar un software desarrollado expresamente para este enfoque y propuesta de medición. Estas producciones suponen, a nuestro entender, una innovación significativa en lo que respecta a aplicaciones de los test referidos al criterio y sobre la consideración de aspectos en la construcción de pruebas tales como: el uso de las “soluciones generales implícitas” o la “seguridad del conocimiento” que permite manejar variables metacognitivas tales como la coherencia y el realismo en el conocimiento de los contenidos y de sí mismo; aspectos que aún diez años después, se vienen usando en diversos trabajos con utilidades diagnósticas muy precisas. Sin embargo, el desarrollo exponencial de la teoría de respuesta a los ítems hace re-orientar los esfuerzos individuales de cada equipo al finalizar el proyecto a mediados de los años noventa.

En la actualidad estamos trabajando de nuevo sobre dichas dimensiones metacognitivas y otras nuevas que integran aspectos emocionales y afectivos en el desarrollo de las pruebas, sin embargo ahora estamos tratando de desarrollar pruebas diagnósticas basadas ya en la TRI y en el uso de Internet para la administración y evaluación de la calidad de los reactivos, en lo que supone una de las líneas de investigación del equipo en la que nos vemos imbricados. Desde nuestro punto de vista, la aplicación sistemática de los avances teóricos producidos en las teorías de la mente y de la comunicación, junto con los avances teóricos en los fundamentos probabilísticos y matemáticos desarrollados; y aplicables gracias al desarrollo tecnológico (informática, audiovisual, redes), son líneas actuales en el desarrollo de las teorías de los tests y la medida en educación.

Una vez expuesta esta visión diacrónica sobre el campo de los tests, parece conveniente expresar las ideas básicas que han supuesto hitos fundamentales en el enfoque la construcción y uso de los tests. Siguiendo las propuestas de Cajide (1993) y otros autores (Muniz, 1997; 2001; Martínez Arias, 1996; etc.), esquematizamos a continuación, muy brevemente, los fundamentos básicos que sustentan cada una de las tres grandes teorías de los tests: la teoría clásica (TCT), la de la generalizabilidad (TGT) y la teoría del rasgo latente (TRI).
2.2.1. La Teoría Clásica de los Tests (TCT): aspectos básicos y fundamentos

La teoría clásica de los tests, también denominada como teoría basada en el modelo de la medida verdadera, centra sus aportaciones más significativas en la estimación de indicadores de los aspectos de fiabilidad y validez, así como de sus relaciones. En este modelo, cuando administramos un tests a un sujeto, la medida observada representa su habilidad en una muestra particular de ítems a resolver en una situación particular, bajo condiciones particulares. Algunos factores pueden afectar al desarrollo del sujeto, diferentes condiciones, diferentes tiempos, etc. Si fuese posible administrar múltiples veces el test al mismo sujeto obteniendo las diferentes medidas, bajo todas las condiciones, tiempos y modalidades de ítems posibles, la media de todas las puntuaciones así observadas supone (teóricamente) una estimación insesgada de la habilidad o nivel de rasgo que se está midiendo. Dicha media se define como medida verdadera. Sin embargo, esta teoría asume que toda medida basada en una muestra particular de ítems está afectada por un error (error al azar de medida) que la hace ligeramente diferente de la medida verdadera; lo que matemáticamente se puede expresar mediante un modelo lineal para la formalización de las puntuaciones:

Xi (puntuación observada) = Vi (puntuación verdadera) + ei (error de medida)

De donde: Ei = Xi – Vi

En definitiva, mientras que para una persona la puntuación verdadera (su nivel de habilidad o nivel de rasgo medido, no observable) se asume invariante o constante, la puntuación observada y los errores son variables aleatorias con varianza, pues, distinta de cero.

Este modelo permite considerar las esperanzas matemáticas E de (“promedio de” o “valor esperado de”) cada término de la ecuación para el caso en que se han desarrollado una muestra amplia de mediciones repetidas, donde:

E(x) = E(v) + E(e)

En los supuestos del modelo se asume que el error de medida es una desviación no sistemática o aleatoria de la puntuación verdadera, por tanto, en una muestra amplia de medidas la esperanza matemática del error tiende a ser cero, si la muestra es infinita E(e) = 0. Lo que implica E(x) = E(v); siendo, por definición, la esperanza matemática del valor observado E(x) la verdadera medida.

En resumen, estos supuestos implican que:
a) los sujetos tienen un nivel de rasgo o puntuación verdadera que, si no hubiera error de medida, coincidiría con la puntuación obtenida;
b) al existir un error aleatorio en las puntuaciones obtenidas por un sujeto en los tests, estas puntuaciones difieren de forma aleatoria de las puntuaciones verdaderas; y,
c) si se aplica varias veces, o formas equivalentes, el test a un sujeto la puntuación media resultante se aproximaría mucho a su nivel o puntuación verdadera en la habilidad o rasgo medido. Toda esta teoría supone un marco idóneo para el desarrollo y progresivo afinamiento de los conceptos e indicadores de fiabilidad y validez que se abordan posteriormente. En el marco de la teoría clásica, estos indicadores de fiabilidad y validez (operativizados mediante coeficientes de correlación) suponen una guía de conocimiento sistemático para la construcción, selección y mejora de pruebas y el desarrollo de inferencias desde las puntuaciones obtenidas con las mismas.

Muniz (2001: 28) resume la formulación del modelo clásico y los supuestos matemáticos básicos que lo sustentan. La siguiente tabla los recoge:

Modelo: X = V + e; la puntuación empírica observada se compone de la puntuación verdadera más el error de medida.
Supuestos: 1. V = E(x); la puntuación verdadera es la esperanza matemática de la puntuación empírica observada; consecuentemente, E(e) = 0.
2. (v, e) = 0; no existe correlación entre las puntuaciones verdaderas (niveles de rasgo) y los errores de medida. Son aspectos independientes o no sistemáticamente asociados.
3. (ej, ek) = 0; no existe correlación entre los errores de medida de los sujetos en dos tests distintos, siendo estos a priori independientemente aleatorios para cada ocasión de medida.
Definición: Dos tests, j y k, se denominan paralelos si la varianza de los errores es la misma en ambos [2(ej) = 2(ek)] y también lo son las puntuaciones verdaderas de los sujetos (Vj = Vk).
Tabla 3. Formulación del modelo matemático de la TCT (adaptado de Muniz, 2001: 28).
2.2.2. La Teoría de la Generalizabilidad de los Tests (TGT): fundamentos y aportaciones

La teoría de la Generalizabilidad de los tests se plantea como una alternativa para superar la concepción unívoca y aleatoria del error de medida propuesta en los supuestos de la teoría clásica, por lo que aporta un nuevo marco para el estudio de la fiabilidad y la investigación de las pruebas. En la Teoría G (TGT) se conciben múltiples fuentes de error que pueden estimarse separadamente; ello, en respuesta a las críticas que pueden realizarse al concepto de fiabilidad inherente a los supuestos de la teoría clásica, en la cual, las fuentes de error están indeterminadas. En definitiva, se trata de ampliar la formulación matemática del modelo clásico (Xi = Vi + ei) para el caso en que es posible aislar múltiples fuentes de variación del error separadas de la variación verdadera:

e1
e2
e3
Xi = Vi + .
.
.
en

Para Bertrand (1985), la teoría G es como una extensión sobre la base del mismo modelo clásico de medida, pero sosteniendo que el error de medida puede analizarse, al menos en parte, diferenciando explícitamente distintos componentes del error, cada uno de ellos asociado con algún aspecto manipulable de una prueba: los contenidos, condiciones de aplicación, calificadores, etc. Como señala Hernández Pína (1993: 242) “parte del supuesto de que cada medición es un punto en un espacio definido por un número de facetas o universo de generalizaciones, de modo que la aplicación del análisis de varianza permite determinar los componentes de la varianza atribuibles a las diversas condiciones”. Ello en la práctica permite integrar el estudio de las fuentes del error en una estructura explicativa global. Como consecuencia, esta teoría aporta una forma de pensar distinta sobre la fiabilidad de las medidas y de su varianza de error, así como sobre su relaciones con el concepto de validez.
La consideración clásica de fiabilidad plantea problemas en la toma de decisiones sobre la calidad de un instrumento; es un problema de inferencia, en tanto que un alto coeficiente de fiabilidad global no determina el grado de generalización de las condiciones particulares de observación a un universo de condiciones. Como ha señalado De la Orden (1989: 229), “la teoría de la generalizabilidad considera las observaciones sobre un objeto de medida (habitualmente un sujeto) como una muestra de un universo de observaciones, todas las cuales proporcionan el mismo tipo de información acerca de dicho objeto de medida. El universo de todas las observaciones que son igualmente útiles y relevantes para quien haya de tomar decisiones, apoyadas en una determinada medida, constituye su universo de generalización. Las condiciones en que se realizan las observaciones en un universo de generalización varían, por ejemplo, pueden ser hechas por diferentes observadores y en diferentes ocasiones. Las condiciones de la misma clase se agrupan en facetas y, en consecuencia, las observaciones deben implicar muestras de condiciones de cada una de las facetas en un universo de generalización”.

Diversos autores (Hernández Pina, 1993; Del Rincón y Otros, 1995) señalan las ventajas de este enfoque o teoría sobre los tests: 1) Los supuestos en los que se basa son menos restrictivos que los de la teoría clásica, únicamente requiere el muestreo aleatorio de individuos y condiciones de medida. 2) Reconoce de forma explícita las fuentes de error de medida así como las interacciones entre ellas. 3) sirve para desarrollar y optimizar diseños de medida en estudios posteriores. Es decir, mediante el estudio sistemático de las diferentes fuentes de error podemos desarrollar un diseño de medida que reduzca el error total en los estudios posteriores. 4) Permite estudios en muestras estratificadas.

Entre las aportaciones más significativas de esta teoría de los tests consta la creación un nuevo marco general para la evaluación y desarrollo de pruebas que implica una nueva terminología conceptual que supera los clásicos conceptos de puntuación verdadera y error. El término población designa los objetos de medida y el de universo de generalización el conjunto de las condiciones implicadas en la generalización que quiere realizarse de la observación particular. El concepto de faceta designa las dimensiones que determinan fuentes de variación cada una de cuyas manifestaciones posibles se denomina nivel de la faceta. Así, se establecen condiciones de medida de cada faceta que definen el espacio de reflexión sobre el uso de un instrumento en determinada condiciones de aplicación nuevas o iguales. La puntuación universo de un individuo representa la puntuación media de un individuo, calculada sobre todas las observaciones posibles como una función de la puntuación observada para generalizar desde la muestra a la población. También se aporta un coeficiente de fiabilidad denominado coeficiente de generalizabilidad, que estima en que medida se puede generalizar, desde la media observada en unas condiciones, a la media de todas las observaciones posibles (Blanco, 1993).

Entre las modalidades de estudios basados en la teoría G destacan dos vertientes los de decisión D y los de generalizabilidad G. Ambos son descritos de forma significativamente distintas por los autores, especialmente respecto de las fases que contemplan en su desarrollo y que han sido resumidas por Del Rincón y Otros (1995: 92-93). Un estudio más pormenorizado de estos aspectos se pueden consultar, entre otros, en las propuestas de Brennan (1980), Shavelson y Webb (1991), Blanco (1993) y Cajide (1993). Este último autor incorpora un cierto desarrollo del modelo matemático y estadístico que subyace en este tipo de estudios, así como un conjunto de guías, textuales y gráficas, muy precisas sobre el desarrollo de los diversas fases en los mismos; información que no parece conveniente extender en este apartado de resumen. También, en estos trabajos se citan aplicaciones muy diversas, entre las que destacamos: Buendía y Pegalagar (1990) sobre aplicación de la teoría G en estudios de fiabilidad a partir de múltiples técnicas e instrumentos de medida usados en la investigación educativa y la toma de decisiones; Abalde (1990); Blanco (1993), sobre generalización de los sistemas observacionales; y a modos de ejemplos didácticos, los estudios de Bertrand (1988) y García Cueto (1993), sobre la evaluación de aprendizajes y determinación del coeficiente G en estudios de una sola faceta, respectivamente (resumidos y recogidos en el texto de Del Rincón y Otros, 1995: 96-101).
Evidentemente, si las aportaciones de la teoría clásica son hoy muy comunes y seguirán siéndolas en lo sucesivo, eso esperamos desde luego, aún más campo abierto consideramos para la teoría G cuyas aportaciones se están sistematizando aún y no sabemos los cambios socioculturales que pueden sucederse y hacerla competitiva académica y científicamente. No obstante, para terminar con este subapartado debemos recoger la opinión de Muñiz (2001: 20-21) que explica en parte lo acontecido hasta hoy en el desarrollo de esta teoría:

“Florecer parece haber sido el sino de los años sesenta, y la Teoría de los Tests no iba a ser menos. Precisamente, en 1968 aparecerá el libro de Lord y Novick (1968) STATISTICAL THEORIES OF MENTAL TESTS SCORES, que sintetiza y reanaliza críticamente todo lo hecho anteriormente en la Teoría Clásica de los Tests, abriendo nuevas y prometedoras perspectivas. En el libro se incluye además el trabajo de Birnbaum sobre los Modelos de Rasgo Latente, que abrirán una línea completamente nueva en la Teoría de los Tests, conocida hoy como Teoría de Respuesta a los Ítems (TRI). Este vuelco del modo de hacer clásico propiciado por la TRI va a oscurecer la mejora, al menos teórica, que prometía aportar al planteamiento clásico la Teoría de la Generalizabilidad (TG) propuesta por Cronbach y colaboradores [...]. Pero las aparatosas complicaciones introducidas en relación con las ventajas prácticas aportadas, unidas a la aparición en la escena psicométrica del enfoque alternativo de los modelos de TRI, relegarán la TG a un papel secundario en el campo de la teoría de los tests. [...]. Sea como fuere, el libro de Lord y Novick, de áspera lectura y notación infernal, marca un antes y un después en la Teoría de los Tests, terminaba una época, la clásica, y comenzaba otra nueva marcada por el predominio absoluto de la TRI. La nueva no negaba la anterior, aunque, como señalara Lord (1980), utilizará poco de ella para su formulación”.

Con este planteamiento como fondo histórico-científico, nos adentramos a continuación en una breve explicación de algunos aspectos básicos de la TRI.

2.2.3. La Teoría de Respuesta a los Ítems (TRI): principios y desarrollo actual

La Teoría del Rasgo Latente o Teoría de Respuesta a los Ítems (TRI) aparece como alternativa y nuevo modo de pensar los desarrollos y la calidad de los tests basados en las teorías clásicas. Estas presentan una serie de limitaciones resumidas por Cajide (1993) en tres aspectos fundamentales: a) el porcentaje de respuestas correctas y los coeficientes de correlación entre puntuaciones ítem-total en el test varían en función de la capacidad promedio y del rango de capacidad de la muestra piloto que sirve al cálculo. b) las puntuaciones de los sujetos en el test depende de la particular selección de ítems que se realiza. c) se presupone igual varianza de errores de medida para todos los sujetos. Este mismo autor señala lo que suponen retos a la construcción de tests desde este nuevo modelo:

“Quizás una de las más importantes limitaciones de los procesos de medida analizados a través del enfoque clásico o bien el de la generalizabilidad es la dificultad en comparar medidas a través de pruebas similares. [...] Sería ideal si el desarrollo de un procedimiento de medida estuviese guiado por una teoría de tal manera que las medidas en el test no dependieran del test, si las medidas pudieran estandarizarse a través de pruebas similares, si las fiabilidades separadas pudieran estimarse para diferentes niveles de habilidad, y que las estimaciones de los estadísticos del ítem y las fiabilidades no fueran dependientes de la muestra piloto. La teoría de respuesta al ítem se presenta como una teoría prometedora en tal sentido” (Cajide, 1993: 297).

Como señala Álvaro (1993), la TRI pretende subsanar estas graves limitaciones que hacen que los resultados obtenidos de la aplicación de un ítem dependa de las circunstancias de aplicación, de las características del test y de los sujetos examinados. Con este sentido se construye todo un marco teórico cuyos orígenes se encuentran en los trabajos de Richardson (1936); sin embargo, la creación de la TRI se atribuye a Lawley (1943), Tucker (1946), Lord (1952), Birnbaum (1958) y Rasch (1960). De modo independiente, Lord y Rasch desarrollan el modelo teórico de la teoría del rasgo latente; el primero plantea la teoría de la curva característica de los ítems, el segundo desarrolla el modelo logístico de respuesta a los ítems dicotómicos de un parámetro (“b” –índice de dificultad–). Ambas aproximaciones parten del supuesto de que las puntuaciones obtenidas por un sujeto en un ítem de un tests dependen directamente del “nivel de rasgo” o grado en que posee la habilidad definida por dicho rasgo latente o constructo medido. Esto supone establecer una relación funcional entre el nivel de habilidad o nivel de rasgo de un individuo y su probabilidad de acertar el ítem.

La expansión de la TRI se produce fundamentalmente a partir de los años 60 en que se publican la obra de Rasch (1960) y, sobretodo, la obra de Lord y Novik (1968) en que se recogen las aportaciones de Birnbaum sobre fundamentación estadística de estos modelos. La progresiva extensión del uso de ordenadores y el diseño de programas que resuelven los complejos procesos estadísticos a que se someten los datos (mediante estudios de patrones multivariantes de respuestas a los ítems) hacen viable este enfoque, que llega a nuestros días claramente potenciado por las nuevas tecnologías. Desde un punto de vista teórico sobre la medición, la TRI supone el avance actual más significativo en la posibilidad de obtener medidas invariantes respecto de los instrumentos utilizados y de los objetos (sujetos) evaluados (Muñiz, 1997). Una diferencia claramente observable de la TRI respecto de anteriores aproximaciones es que centra mucho más su estudio sobre los ítems y sus propiedades paramétricas (discriminación, dificultad, pseudoazar, ...) más que sobre las propiedades globales de los tests. Para Muñiz (1997: 28) “los modelos tienen que partir de supuestos más restrictivos, más fuertes, que los de la teoría clásica, por lo que a veces se denominan con el nombre genérico de teoría fuerte de los tests, frente a la teoría clásica o débil. La Curva Característica de los Ítems (CCI), la Unidimensionalidad y la Independencia Local constituyen los tres supuestos claves de la TRI”.

La Curva Característica de un Ítem expresa la relación funcional entre el nivel de rasgo o habilidad que se mide () y la probabilidad de responderlo correctamente P(), lo que supone una función relacional de las habilidades latentes (no observables) y las habilidades manifiestas (observadas en el ítem). Por tanto, estas curvas son el medio que disponemos para representar gráfica y matemáticamente dicha relación (Hambleton y Swaminathan, 1985). Aunque Lord no la desarrolló en sus primero trabajos, se adopta más generalmente como CCI la función logística, por la facilitación de los procedimientos matemáticos. La CCI viene definida, más comúnmente, por tres parámetros: dificultad del ítem (b); discriminación (a); y, la probabilidad de acierto al azar, también denominada pseudoazar (c). No obstante, otras muchas funciones son posibles para definir la relación funcional que establece la CCI entre el rasgo latente y la habilidad manifiesta, dándose lugar a muy diversos modelos de la TRI. Los tres modelos más desarrollados son los modelos de 1(b), 2(b, a) y 3(b, a, c) parámetros para ítems dicotómicos (acierto, desacierto), si bien hoy hay ya muchos avances teóricos en la línea de los modelos politómicos e incluso en modelos multidimensionales aspectos que se comentan posteriormente. Las siguientes representaciones matemáticas y gráficas que se exponen permiten un reconocimiento de las CCI de dos ítems para comparar entre sí, en los diferentes modelos dicotómicos de TRI con 1, 2 y 3 parámetros (estos ejemplos de CCI de ítems se han tomado de Ponsoda, 2002).

Para Hernández Pina (1993: 254), “de los modelos logísticos de un parámetro, el más conocido es el de Rasch (1960), ampliamente desarrollado por Wright (1977) y Wright y Stone (1979)”. Este modelo, de una gran sencillez, establece que la respuesta a un ítem, sólo depende de la competencia o nivel de rasgo del sujeto y la dificultad del ítem. Queda recogido en la siguiente tabla:

Modelo logístico de 1 parámetro (Rasch)

El parámetro “b” indica la dificultad del ítem (-4 < b1=" -1.5" b2 =" 2)." a1=" 0.8," b1=" -1.5)" a2=" 2," b2 =" 2)" a1=" 0.8," b1=" -0.5," c1=" 0.1)" a2=" 2," b2 =" 0.5," c2="0.3)."> Diagnóstico. Proyecto Docente del Dpto. MIDE de la Universidad de Sevilla. Capítulo 2, pp. 131-211. Sevilla: Editorial IETE (en prensa).

miércoles, 11 de marzo de 2009

TEORIAS HUMANISTAS


foto carl rogers

LA PSICOLOGÍA HUMANISTA

Se denomina psicología humanista, a una corriente dentro de la psicología que nace como parte de un movimiento cultural más general, surgido en los Estados Unidos en la década de los 60 y que aborda planteamientos en ámbitos diversos como la política, las artes y el movimiento social llamado contracultura, esta psicología humanista es una escuela que pone de relieve la experiencia no verbal y los estados alterados de conciencia como medio de realizar nuestro pleno potencial humano, la psicología humanista surge como reacción al conductismo y al psicoanálisis, dos escuelas que marcaban la pauta en ese momento y que abordan consideraciones globales en las personas y el marcado análisis en sus procesos existencialistas, (la libertad, el conocimiento, la responsabilidad, la historicidad), estas intentaban reducir al ser humano a variables cuantificables, o como en el caso del psicoanálisis, se había centrado en los aspectos negativos y patológicos de la persona.

Abraham Maslow, denomina a este movimiento “la Tercera fuerza” , y se propone a mostrar con esta nueva corriente, la integración de las formas aparentemente opuestas en que se expresaba el quehacer psicológico de la época (con el conductismo y el psicoanálisis)

EL HUMANISMO, DE MASLOW A CARL ROGERS

Como se ha expresado, las ideas básicas del humanismo mostraban su interés por una consideración global de la persona, acentuación de sus aspectos existenciales, libertad, conocimientos, responsabilidad, historicidad, la psicología humanista reditúa los fenómenos psicológicos en el presente y supone un redescubrimiento de la conciencia, olvidada durante mucho tiempo, cuando no abiertamente rechazada, en el campo de la metodología, la,psicología humanista rechaza del psicoanálisis haber centrado la investigación en la personalidad anormal, enferma y del conductismo su análisis elementalista de las conductas aisladas. En este entorno y bajo estas pautas A. Maslow y Carl Rogers, desarrollan sus principios fundamentales, Carl Rogers hace énfasis en la persona, resalta la autenticidad de la experiencia subjetiva de los individuos y su capacidad para buscar su realización, la persona puede encontrar su Yo real, aceptar y valorar lo que es, confiar en las instrucciones y necesidades, los individuos guardan un mínimo de consistencia interna y una fuerte tendencia a sobreponerse a las adversidades, este énfasis en la persona lo lleva a concluir que el Ser Humano es único e irrepetible, otros planteamientos de Carl Rogers son:

1. La confianza, naturaleza y búsqueda de lo natural, es decir, el Ser Humano es por naturaleza bueno y busca su autorealización.

2. El concepto de conciencia ampliado: la identificación con nuestro Yo es uno de los estados de conciencia más altos pero no el único.

3. Trascendencia del ego, es alcanzar niveles de conciencia más evolucionados.

4. Superación de la escición mente/cuerpo, reconocimiento de nuestro cuerpo, que funciona con la mente como un organismo total.

5. Reequilibrio y revaloración de lo emocional. Es el cultivo de lo emocional, lo intuitivo, lo contemplativo.

6. Valoración de la comunicación que implica el reconocimiento del otro, no reconozcamos a los demás como objetos o medios para alcanzar nuestros propósitos personales.

Por su parte A. Maslow, hizo énfasis en el desarrollo hizo énfasis en el desarrollo máximo de las propias potencialidades en el logro de una vida plena y significativa, el individuo tiende a convertirse en la mejor persona posible, la persona logra esta autorrealización cuando ha podido asegurar la supervivencia básica, allí ya puede preocuparse por la libertad y seguridad personal, una vez segura la persona estará en disposición de buscar una mayor intimidad en sus relaciones interpersonales, relación de pareja, familiar, social, a la vez que podrá procurar para sí mismo el autorrespeto a sí mismo, Maslow jerarquizó las necesidades en necesidades “D” que es corregir las deficiencias y necesidades “B” con las que se consigue un alto nivel en la existencia de la persona, en la teoría jerárquica de las necesidades, Maslow presenta el siguiente nivel alto, la auto realización, sigue el reconocimiento, después la afiliación pasa a la seguridad y por último la fisiología (pirámide de 5 niveles).

Como conclusión podríamos afirmar que el aporrte de Carl Roger y A. Maslow, pese a las críticas que se le s hicieron en su momento, s e convirtieron con la creación del humanismo en importantes aportes al estudio de la humanidad, al valorar al Ser, al lograr la auto realización y estima de las personas se logra también una mejor y más plena vida consigo y con los demás seres humanos, tal vez por ellos esta escuela se vio tan ligada en procesos sociales, y fue siempre identificada como un nuevo enfoque de vida, al preocuparse no por lo clínico y por ver al hombre como “Enfermo”, sino ver en él sus valores y animarlo y empujarlos hacia el progreso personal, estaba animando a la sociedad en conjunto, a ser mejor, más justa, más equitativa y más cercana a la tranquilidad y a la paz.

jueves, 19 de febrero de 2009

Análisis de la Película “EL REY PESCADOR"


PSICOPATOLOGÍA DEL ADULTO Y EL VIEJO


Análisis de la Película “EL REY PESCADOR"

"THE FISHER KING"

Por: javier lopez botero
Contenido

Reseña de la Película
Descripción del Personaje Principal
Listado de comportamientos – rasgos de la Personalidad
Impresión Diagnóstica
Conclusiones

Reseña de la Película

Jick Lucas es un locutor de Radio que tiene un programa nocturno en el que las personas llaman para expresir sobre sus sentimientos, así como sobre sus relaciones de pareja, sin embargo, la actitud de Jack, no es la de ayudar a las personas, sino más bien la`de burlarse de estas y de sus sentimimntos, así como el de generar entre sus oyentes sentimientos de frustración y ofio. Una llamada en especial esa noche, es la de un hombre llamado Edwin, este le expresa a Jack, que visytó un bar`y que allí conoció a una chica, que esta le gustó y que al parecer la joven le corresponde, Jack entonces empieza a decirle al oyente que la clase de personas que van a ese bar!son yupis que no se fijan en personas de menor nivel económico y social, que no conocen el amor, que negocian con este, que son retrasados mentales, que no son humanos y que son un demonio, que hay que detenerlos cuando aún hay remedio, “somos nosotros o son ellos”.

Al día siguiente en el noticiero de televisión se informa sobre la masacre en un bar donde fueron asesinadas 7 personas y el agresor se suicidó, el causante de esto es Edwin el oyente que había llamado al programador Jack. El periodista reproduce las palabras que Jack dijo en el programa y resalta la frase “nosotros o ellos”, por lo que se presupone que estas marcaron fuerte influencia en el asesino al momento de cometer la masacre.

Al sentirse responsable por lo ocurrido, Jack se retira de la radio, entregándose al alcohol. Tres años después, luego de recorrer las calles, y cuando es atacado por dos tipos al considerarlo un vago, es defendido por Perry y sus amigos, Perry es un hombre demente, habitante de la calle que perdió la razón, después de que su esposa fue asesinada en el bar donde el oyente Edwin ejecutó la masacre, desde ese momento Jack se siente obligado con Perry, busca ayudarlo y se adentra en el mundo de los locos habitantes de la calle, descubrirá que aún en medio de las dificultades, estas personas relegadas por la sociedad tienen nobles sentimientos y que luchan día a día por la supervivencia.

Descripción del Personaje Principal

Son dos los personajes principales de la trama, Jack Lucas el locutor de Radio y Perry, habitante de la calle que tiene problemas mentales.

- Jack Lucas: Locutor de Radio es egocéntrico, orgulloso, vanidoso, consumidor de drogas y alcohol, muestra odio y desprecio hacia las personas, se refiere a la gente en términos despectivos, y sufre de alteraciones en el Estado de ánimo, fue el responsable indirecto en la masacre del bar, lo que le ha generado mayores problemas, al tener sentimientos de culpa por lo ocurrido.

Perry: Es el habitante de la calle que tiene serios problemas mentales, los cuales se le generaron después de la pérdida de su esposa a la que amaba mucho, Perry es un hombre que muestra sentimientos afectivos hacia las demás personas, los demás mendigos lo ven como un líder, en medio de sus alucinaciones y paranoia, pese a que se siente perseguido y se cree elegido por Dios (es su conserje), para una misión y la cual es recuperar el cáliz, “el santo grial“, será Perry quien ayude a Jack a encontrar sus sentimientos más humanos y a mostrarle la vida desde otro ángulo.


Listado de Comportamientos – Rasgos de la Personalidad


Jack
- Egoísta
- Egocéntrico
- Vanidoso-Engreído
- Consumidor de drogas y alcohol
- Muestra Desprecio hacia los demás seres humanos
- Sufre alteraciones en el Estado de ánimo
- Tiene sentimientos de culpa

Perry

Es el personaje sobre quien recae el peso de los Problemas Mentales graves, sufre:

- Alucinaciones, con personajes y seres no reales (los pequeños con los que habla y el monstruo que lo persigue)
- Delirios de persecución (Paranoia)
- Esquizofrenia




IMPRESIÓN DIAGNÓSTICA

En el caso de Perry se ha dicho que sus Problemas mentales más graves son la Paranoia y la esquizofrenia, adentrándonos más en este Hecho podemos ver que:

Paranoia:

Es un término Psiquiátrico que describe un estado de Salud Mental caracterizado por la presencia de delirios autorreferentes, más específicamente puede referirse a un tipo de sensaciones acuciantes como la de estar siendo perseguido por fuerzas incontrolables (manía persecutoria) o ser el elegido para una alta misión, como la de salvar el mundo (delirio de grandeza o grandiosidad), atribuido por algunos estudiosos a determinadas personalidades dictatoriales y gobiernos).

La paranoia se manifiesta igualmente en los delirios por celos, en el delirio erotomaniaco, el delirio somático, etc, es un trastorno de tipo crónico, con mayor o menor virulencia ocasional, que se presenta mayormente en individuos de personalidad orgullosa, ególatra y desconfiada.

El significado del término ha cambiado con el tiempo, y por lo tanto diferentes psiquiatras pueden entender por él diferentes estados. El diagnóstico moderno más adecuado para la paranoia es el de “trastorno delirante”.

En el caso de Perry, vemos con claridad que este personaje encaja en la manía persecutoria y en que se cree el elegido por Dios para una alta misión.

Esquizofrenia:

Es un diagnóstico que describe un grupo de síntomas y signos que están presentes en algunas personas, caracterizado por una mutación sostenida de varios aspectos del funcionamiento psíquico del individuo, principalmente de la conciencia de realidad, y de una desorganización neuropsicológica más o menos compleja, en especial de las funciones ejecutivas, que lleva a una dificultad para mantener conductas motivadas y distinguidas a metas, y una significativa disfunción social. Una persona con este diagnóstico por lo general va a mostrar un pensamiento desorganizado (laxitud asociativa) delirio, generalmente alteraciones perceptúales (alucinaciones), alteraciones afectivas (en el ánimo y emociones) y conductuales. Los síntomas de la Esquizofrenia son muy variados, lo que sugiere que se trataría de varios trastornos y no de uno solo.

El diagnóstico de la Esquizofrenia se basa en la cuidadosa observación de signos y síntomas, en la exploración metódica de las vivencias de una persona y en la acumulación de antecedentes desde todas las fuentes posibles (familia, amigos, vecinos, trabajo). No existen pruebas de laboratorio ni exámenes de imágenes que ayuden a establecer el diagnóstico, como no sea para discutir otras patologías.

Causas

Los estudios sobre las causas de la Esquizofrenia se topan en primer lugar con la dificultad de delimitar bien el trastorno, dado que muchos otros trastornos pueden presentar síntomas similares a la esquizofrenia, entre ellos el trastorno bipolar, la depresión y otros síndromes delirantes. Aún con estas consideraciones, hay evidencia suficiente que sugiere que en la esquizofrenia existe una vulnerabilidad genética sobre los que actúan estresores ambientales para, finalmente desencadenar la condición. Sin embargo, el peso relativo de cada uno de estos factores está lejos de ser precisado, y es objeto de acalorados debates. La esquizofrenia probablemente derive de un tipo de herencia bastante complejo. Varios genes que se han propuesto como candidatos probablemente interactúen entre sí, originando la vulnerabilidad para el trastorno o posiblemente estén en la base de algunos de sus elementos que en conjunto permitan el diagnóstico. El debate se extiende hacia los métodos de investigación y hacia la mejor manera de interpretar sus resultados, lo que provoca estimaciones diferentes de cuál es la contribución específica de los factores genéticos.

En el caso de Perry podemos observar baches en su conciencia de la realidad, mostrando delirio, alteraciones perceptibles (alucinaciones), las causas de estas alteraciones se pudiera pensar que surgen por la experiencia traumática luego de vivir la pérdida de la esposa (asesinada en la masacre del bar).


Personajes Secundarios

Lidia una mujer introvertida, torpe, relegada, marginada, Perry esta enamorado de ella y Jack le ayudará a conquistarla, finalmente Lidia ayudará a Perry, lo cuidará y terminará convirtiéndose en su pareja.
Hann- Dueña de una tienda de alquiler de películas, ama a Jack, aún a pesar de forma de ser, lo ayuda en los momentos más difíciles y lo secunda en el plan de acercar a Lidia y Perry, a pesar de que Jack la rechaza, finalmente este entiende que ella es la mujer ideal con la cual vivir y decide regresar con ella.

Conclusiones

Una crítica que pudiéramos hacer de la película es que esta se limita a presentar la Historia, mostrando los rasgos psicológicos de los personajes y las alteraciones mentales de Perry, sin sugerir un tratamiento en sí, ni saber si finalmente Perry logra superar este problema de Salud Mental, talvez sugeriría que ayudado por Jack a conquistar el amor de Lidia y a recuperar el Santo Grial este parecería estabilizarse pasando poco a poco a una nueva faceta de su vida y tal vez al vencer al monstruo que lo perseguía se logro su recuperación mental.

En el caso de JAck es indiscutible que aprendió a ser un mejor humano y a reconocer el amor que Hann le daban.

Tal vez el tratamiento que se le daba a Perry en las clínicas donde estuvo fue mas de fármacos y la verdadera ayuda en el proceso de recuperación fuera aportado por Jack.




miércoles, 18 de febrero de 2009

EL METODO DE LA PSICOMETRIA




La psicometría es el área científica que se encarga de medir todos los aspectos psicológicos de una persona, tales como conocimiento, habilidades, capacidades o personalidad, el método empleado varía desde el método científico empírico propio y el componente matemático del modelo formal de medición.
Son dos las principales características del método de la psicología matemática, de un lado la presentación formal, por lo general en términos matemáticos del componente teórico, es decir el estudio en si y de otra parte la deducción que se hace del procedimiento deductivo basados en la lógica y en los procedimientos de simulación, ósea los resultados del estudio.
La aplicación que se hace del método científico en la psicología lleva a que la psicometría desempeñe un papel fundamental en todo el proceso de estudio y medición, para Arnau las relaciones entre el plano teórico y el empírico del método científico se da en tres niveles, el nivel teórico-conceptual, que se da dentro del planteamiento del problema, hasta la formulación de la hipótesis empíricamente contrastable, el nivel técnico-metodológico que cubre todo el proceso de investigación y la recogida de datos y el nivel estadístico-analítico donde se organizan estadísticamente los datos y las inferencias sobre las hipótesis sometidas a contrastacion , el ciclo se cierra con la generalización de los resultados que hace retornar la aplicación del método al nivel teórico-conceptual, la psicometría hace presencia en los tres niveles de aplicación.
LA TEORIA DE LOS TEST
Para Anastasi, un test psicológico es esencialmente una medida objetiva y tipificada de una muestra de conducta, mientras que para lord un test psicológico es un instrumento para obtener una muestra de conducta. Existen diversos tipos de dificultades que se presentan a la hora de trabajar en la recolección y medición de la información entre estas podemos observar:
No existe una única aproximación a la medida de un constructo que sea universalmente aceptada, se dará siempre la posibilidad de que dos teóricos seleccionen diferentes tipos de conducta para la definición de un mismo constructo.
Las medidas psicológicas están basadas en muestras limitadas de conductas.
Las medidas obtenidas siempre tienen error
Faltan escalas con origen y unidades de medidas bien definidas.
Hay dificultad a la hora de identificar un constructor con total independencia asi como sus definiciones operativas.
La teoría de los test aborda estos problemas y plantea métodos y alternativas para su solución, las distintas teorías y sus desarrollos fundamentan avances en la construcción y validación de instrumentos de medida concretos.
El desarrollo de las teorías de los test avanza parejo con la evolución de los test que van surgiendo, de hecho ambos desarrollos se influyen mutuamente e incluso a veces los test como instrumentos se han anticipado a su fundamentación teórica.
Las características definitorias de un test psicológico son:
Procedimiento o instrumento estandarizado: se le plantea a las personas evaluadas tareas previamente determinadas, a las que se debe responder siguiendo unas instrucciones fijadas de antemano.
Obtención de muestras de conducta: estos test se diseñan para la obtención de comportamientos reveladores del constructo que es objeto de la medición
Los test permiten la cuantificación de acuerdo con reglas pre-establecidas, todo através de la asignación numérica.
Los autores y usuarios de los test deben aportar información técnica sobre la precisión y relevancia para el objetivo de las mediciones aportadas por el test.
La teoría de los test constituye un área que provee de enfoques y modelos para el análisis y construcción de instrumentos de medida, identificándose dos orientaciones básicas: la teoría clásica de los test, y la teoría de respuesta al ítem, estas dos orientaciones aportan modelos diferentes para la construcción y validación de test, aunque todas siguen vigentes, tienen un recorrido progresivo y secuencial.
La teoría clásica de los test ha sido el modelo dominante durante gran parte del siglo XX y aun hoy tiene una vigencia notable observable en las aplicaciones practicas, esta teoría surge con el objetivo central de desarrollar un modelo estadístico que fundamente las puntuaciones de los test y permita la estimación de los errores de medida asociados al proceso de medición., se reconoce en el trabajo de Spearman con sus primeros trabajos como el nacimiento de la TCT, sin embargo se reconocen a otros autores que brindaron aportes significativos como Guilford y Gulliksen que suponían la integración y sistematización del cuerpo de conocimientos de esta teoría, incluyendo temas sobre la validez, fiabilidad, análisis de ítems, etc., el modelo que asume esta teoría plantea que la puntuación empírica del sujeto en un test consta de dos componentes que son , puntuación verdadera y error de medida, a partir de estos conceptos y de los supuestos asociados se estima el grado de fiabilidad y validez de los instrumentos de medida. A esta teoría se debe el desarrollo de múltiples técnicas estadísticas multivariadas y métodos para el calculo de la fiabilidad de un instrumento: análisis factorial, componentes principales, formas paralelas, test-retes, las dos mitades. En este marco también se producen avances fundamentales respecto a la noción de validez, tipos y procedimientos para garantizarla.
Las dificultades que se presentan con las teorías clásicas de los test, se refieren a que la medición de un sujeto es una variable depende del test utilizado y del grupo normativo, también de que las propiedades del instrumento de medida (ítems y test ) están en función de los sujetos a los que se aplica, los índices de dificultad, discriminación y consistencia interna dependen de los grupos de sujetos y su tamaño en el calculo.
Por su parte la teoría de respuesta al ítem (TRI) , trata de resolver los problemas de la teoría clásica , esta teoría aporta todo un conjunto de avances técnicos para la construcción y análisis de los test , las funciones de información de los ítems y del test.
Todo este proceso de desarrollo marca una pauta primordial en el estudio y análisis de las pruebas psicométricas.

jueves, 16 de octubre de 2008

GANELE A LA DEPRESION


Algunas esperiencias que usted puede llevar a vivir en su vida como por ejemplo, la muerte de un ser querido, la perdida de la vivienda, el quedarse desempleado, la quiebra de su empresa o patrimonio, asi como el alto nivel de estres hace que se reaccione de diversas maneras.
el pesimismo, el desinteres, el aislamiento afectivo o social, la falta de iniciativas, son actitudes frecuentes y observadas en el medio que nos rodea.
la sensacion de cansancio y desanimo, la impaciencia, la irritabilidad, la dificultad al momento de expresar sus afectos, el insomnio y los problemas de apetito fisico y sexual, son sintomas tipicos de una reaccion depresiva o de una depresion.
el grado de depresion en que usted se puede encontrar se mide por el tiempo que lleva en ese estado, si contesta que siempre se ha sentido bajo de energia, puede sufrir una depresion cronica, si puede ubicar el hecho que lo hizo tomar la actitud depresiva, se puede arreglar, si se siente bajo de energia solo en su trabajo o si este solo lo afecta en su entorno familiar( de pareja o con otros integrantes), es menos profundo su problema depresivo.
la depresion reactiva, que es como se conocen los momentos furtivos de baja energia, puede ser considerada como un mero momento depresivo, sin embargo la suma de varios "momentos" puede llevar a generar depresion cronica.
si usted esta viviendo por un momento de depresion le sugerimos:
1- Identifique la causa, esto le permite buscar una solucion, analizando los siguientes aspectos:
situaciones externas: perdida de la vivienda o el empleo, accidentes, deudas, etc..
situaciones internas: cambios fisicos hormonales, menopausia, enfermedades, etc..), situaciones afectivas: problemas de pareja, familiares, separacion o divorcio etc.., situaciones propias del desarrollo fisico como, adolescencia,menopausia,andropausia, jubilacion, etc...
2- defina los sintomas
intelectuales: pensamientos negativos, disminucion en su capacidad de atencion y concentracion, memoria alterada.
emocionales: no disfruta de actividades que antes le parecian agradables, se vuelve impaciente e intolerante, hay estallidos de tristeza o de ira, siente que los demas estan mejor que usted, se siente desesperado y no se atreve a pedir ayuda.
fisicos: taquicardia, problemas para respirar, cansancio, dolores musculares,picadas en el pecho, dificultad de ereccion o excitacion, etc..
3- Busque el profesional indicado
consulte a su medico, hagase un chequeo fisico completo, controle su dieta, haga ejercicio, reunase con los amigos, asista a terapias de grupo que realizan psicologos para analizar y solucionar problemas comunes de grupo, hay grupos especializados en problemas afectivos.
si tiene problemas de espasmos musculares consulte un fisioterapeuta y pidale que le enseñe una rutina fisica adecuada para su edad y actividad.
haga una lista de actividades y cumplalas.
no se esconda de nadie, ponga la cara siempre y sobre todo no dude en pedir ayuda cuando lo requiera.
pero sobre todo y lo mas importante confie en usted , en sus capacidades y recuerde que vida hay solo una y hay que vivirla al maximo, disfrutando de cada momento de manera sana y sin perjudicar a nadie, mirando de frente y entendiendo que todos los dias sale un nuevo sol.

EL MANIPULADOR Y EL MANIPULABLE.


Por:  Carlos E Climent

como identificar a un manipulador o una manipuladora?

preste atencion, lo primero que hay que decir es que sin manipulado no hay manipulador, si usted permite que esto ocurra, entonces no se queje o aceptelo como es, teniendo eso si encuenta de saber hasta que punto esta usted dispuesto a soportar esta situacion
El manipulador es un ser astutos por naturaleza, que se las arregla para dar muy poco y recibirlo todo, el manipulado por el contrario es aquel que esta dispuesto a servir, el poder del uno depende de la debilidad del otro.
las caracteristicas mas importantes del manipulador son:
1- Mala intencion fria y calculada
2-Es un ser egoista, que carece de la capacidad de amar de verdad, finge afecto tan a la perfeccion, que puede llevar tiempo a la persona darse cuenta.
3- no reconoce sus fallas.
4- responsabiliza a los demas de todas las culpas que le corresponden a el.
5- Aparente poder de conviccion con el cual logran captar audiencia que les oyen( aunque no necesariamente le crean) sus historias.
6- Gran poder de intimidacion que ejercen sobre su victima, ante los demas son obsequiosos y serviles.
7- gran capacidad de reconocer a la persona facil de manipular.
8- una vez que escoge la persona, lo agarra firme y no lo vuelve a soltar.
9- aparentan modales suaves y elegancia impostada.
10- saben hacer frente a la crisis, cuando la victima agobiada por las circunstancias, decide sacudirse, el manipulador afloja la presion, se disfraza, se acomoda, y espera hasta cuando se calma la marea, finge cambios en su conducta, hasta que la otra persona creyendo que de verdad la persona a cambiado , vuelve a comportarse como antes. sin embargo cuando el manipulador descubre que la otra persona esta definitivamente decidia a cortar con la situacion , entonces surge lo mas sordido de el, evidenciando el deseo de poder absoluto.
cuando la manipulacion se convierte en una forma habitual de relacionarse con los demas , se constituye en un trastorno de la personalidad, compartiendo muchas de las caracteristicas del antisocial , el narcisista y el hipocrita.
la principal razon por la cual es dificil el tratamiento terapeutico es por que el manipulador no tiene conciencia de su enfermedad, de acuerdo a su propio criterio, el esta sano y por lo tanto no admite sindicacion alguna de patologia.la posibilidad de recuperacion debe buscarse en sus victimas , los seres manipulables.

RECONOCE LA MENTE DE UN PSICOTICO



un equipo de investigacion interinstitucional, que aglutinaba a las mas importantes universidades de los Estados Unidos, elaboro un modelo que le permite a los psiquiatras reconocer que adolescentes se encuentran en riesgo inminente de sufrir transtornos psicoticos, dicho estudio se dio a conocer atraves de la publicacion especializada , " archivos de psiquiatria general".
Muchos de los jovenes en los que se centro la investigacion habian solicitado ayuda profesional en ocho clinicas de todo el territorio estadounidense, cuando comenzaron a tener pensamientos insolitos y problemas para comunicarse de manera coherente, a sentirse perseguidos, a sufrir de insomnio y a oir zumbidos o chasquidos, aunque no tenian alucinaciones totales ni oian voces.
en los 30 meses siguientes, 82 de ellos experimentaron una psicosis completa.
otro tipo de comportamientos como, " tener un aspecto desaliñado, pensamiento perturbado, deficiencias grandes en su capacidad de funcionar", entonces la posibilidad de volverse psicoticos aumentaba, revelo dicho estudio.
El conocimiento revelado en el estudio, le dara a los psiquiatras la oportunidad de intervenir de manera temprana en los jovenes, antes de que empiecen a padecer trastornos graves. Sin embargo esta investigacion no a estado exenta de criticas, porque se le a ofrecido tratamiento a personas que aun no tienen un trastorno y se les esta tratrando con medicamentos antipsicoticos, la encrucijada etica es si se puede predecir con suficiente exactitud quien tendra un episodio psicotico , porque si no se puede, entonces se esta dando tratamiento a una cantidad muy grande de personas que probablemente no contraera el trastorno.
Independientemente de la controversia sucitada, estas son algunas de las señales de alerta, preste atencion:
1- Pierde contacto con la realidad y padece alucinaciones , delirios y un pobre funcionamiento social, lo que trae marcadas dificultades en el funcionamiento personal.
2- Pierde la autonomioa y experimenta dificultades sociales, ocupacionales y laborales.
3- Permanece mucho tiempo encerrado, solo e inactivo.
4-En sus conversaciones menciona comentarios de personas completamente extrañas o imaginarias.
5- Supone sin fundamento que lo persiguen(paranoia)
6- Tiene historial de abuso de sustancias psicoactivas, como la marihuana, el extasis, la cocaina y el alcohol, entre otras.
7- Si hay antecedentes cercanos de psicosis, la probabilidad es mayor.

la psicosis es una enfermedad que afecta al 1% de la poblacion, y se caracteriza porque genera discapacidad severa, quien la sufre tiene unos dias de vida saludable y años poco o nada productivos.
Este mal afecta en mayor cantidad a los adolescentes y adultos jovenes, las personas que padecen esta dolencia sufriran deterioros importantes y enormes costos sociales .
estar atentos a la alteracion en el comportamiento de las personas cercanas es el primer paso para detectar a tiempo la enfermedad y recurrir al profesional en el momento oportuno

martes, 14 de octubre de 2008

mania y depresion intensa .


EL TRASTORNO BIPOLAR


Descrita por el psiquiatra aleman Kraepelin en 1896 como psicosis maniaco-depresiva, actualmente esta enfermedad se conoce como trastorno bipolar, caracterizado por cambios drasticos en el estado de animo que pueden transitar por una alegria exagerada o un estado de tristeza profundo. Son varias las formas en que se manifiesta esta alteracion, la mas frecuente es la denominada tipo 1, que es su "forma clasica", determinada por fases de manias y depresion tristeza que generalmente requieren de hospitalizacion del paciente, hoy en dia se considera que la genetica desempeña un papel fundamental para este padecimiento y los factores ambientales pueden actuar como precipitantes de las crisis, se podido concluir que existe una predispocicion hereditaria, la mayoria de los pacientes tienen antecedentes familiares con padecimientos de la enfermedad. asi mismo se apodido establecer que afecta por igual a sexo masculino y al femenino y se presenta generalmente en las edades comprendidas entre los 15 y 25 años, tiene una prevalencia de un 1%.

los sintomas y signos que pueden indicar la presencia de la enfermedad son, la euforia, el aumento de la sociabilidad, la marcada actividad,disminucion de la necesidad de dormir , irritabilidad al contradecirlo,locuacidad, ideas de grandeza,gastos excesivos e inapropiados, aumento exagerado de los deseos sexuales y proyecto de planes irrealizables, indican la presencia de un episodio maniaco, mientras que la sensacion de tristeza, baja autoestima, falta de ilusion y de concentracion, enlentecimiento del pensamiento y de las acciones, deseos de morir, despertar en la madrugada,somnolencia, cambios en el apetito, ideas suicidas, de culpa o de ruinas, nos revelan una depresion.
en cualquiera de las dos fases , maniaca o depresiva, pueden asociarse al consumo de alcohol o drogas, lo que empeora los sintomas. es impòrtante conocer que en la fase depresiva existe un alto riesgo suicida.
el diagnostico debe ser realizado por un especialista y se fundamenta en el criterio clinico. no existen aun pruebas especificas que permitan objetivar este trastorno.
la enfermedad evoluciona por episodios, los estabilizadores del animo son el tratamiento de eleccion, pueden emplearse otros farmacos siempre bajo la estricta observacion del psiquiatra. la terapia electroconvulsivante es efectiva en la depresion que no mejora con psicofarmacos.
finalmente se puede decir que el paciente debe conocer las caracteristicas de la enfermedad para poder aprender a vivir con ella. es esencial que duerman ocho horas diarias, cumplan estrictamente con los horarios de la medicacion, confien a su medico todos los sintomas que presenten, eviten el estres, no consuman sustancias toxicas ni se sometan a dietas rigurosas

LA PSICOLOGIA EN COLOMBIA, INICIOS Y DESARROLLO DE UNA PROFESION EMINENTEMENTE SOCIAL




En colombia , aproximadamente el 72% de la poblacion sufre enfermedades de caracter psiquico como el stress, delirios de persecusion,depresion, problemas de orden sexual. psicosis, socio-patias y sexopatias entre otras, aun asi existe una casi total indiferencia del estado con la salud mental de sus ciudadanos y estos a su vez no acuden al psicologo y solo ya cuando hay un problema grave de desorden son llevados ante un psiquiatra, muchas personas desconocen el enorme servicio social y las alternativas que puede proporcionar a su vida una buena atencion, que los puede llevar a modificar una conducta inadecuada, que les este generando problemas de relaciones interpersonales.
para corregir esta situacion, los profesionales de la psicologia, agrupados en la Federacion Colombiana de Psicologia, la sociedad colombiana de psicologia y otras organizaciones han buscado ampliar su difucion atravez de los medios de comunicacion y con la organizacion de congresos, foros, charlas entre otras para suplir la deficiencia en el conocimiento que la comunidad a tenido de este tipo de temas, tan necesarios para su buen vivir.
la realizacion en nuestro pais en 1982 del primer congreso de psicologia clinica, que conto con la asistencia del "padre de la terapia de comportamiento", el doctor joseph wolpe, donde se expuso el tema de la depresion activa, enfermedad bastante comun en esta epoca, marco un hito que dio como resultado un empuje a este tipo de psicologia que se posesiono en el estudio de los problemas mentales, asi como de su diagnostico.
la reglamentacion de la psicologia y su reconocimiento como profesion en el año 1983( proyecto de ley No 58 de 1983-congreso nacional) marco tambien un impulso importante con lo que se " establecio el servicio social obligatorio para los psicologos recien egresados de las universidades, con el fin de difundir esta ciencia a las comunidades marginales en colombia".
no obstante aun hoy muchas personas no acuden al psicologo con el prestesto de que, "el psicologo lo desorienta mas a uno", con lo cual se ve una marcada falta de informacion acerca de la labor prestada por estos profesionales, cuya etica nos dirige a desarrollar un trabajo responsable, a traves de entrevistas, pruebas psicologicas, test, historias clinicas, y analisis funcional, es solo cuando se han cumplido estos pasos que el psicologo puede atreverse a suministrar un diagnostico completo al paciente, el psicologo no debe dar consejos, debe orientar,presentar alternativas caminos de solucion a los problemas del consultante.
los ultimos hechos registrados por los medios de comunicacion entorno al abuso de menores, el asesinato de estos niños, asi como los crimenes de caracter politico, o po riñas , ajuste de cuentas, intolerancia deben de obligarnos a entender que nuestro pais carga con un enorme peso de violencia desde hace mas de 200 años que la a llevado a ser una sociedad cansada que requiere de un nuevo rumbo y un nuevo enfoque en los problemas mentales que son finalmente problemas sociales y en los que lo profesionales de la salud mental jugamos un papel protagonico