997 resultados para specification test
Resumo:
Le contrôle des mouvements du bras fait intervenir plusieurs voies provenant du cerveau. Cette thèse, composée principalement de deux études, tente d’éclaircir les contributions des voies tirant leur origine du système vestibulaire et du cortex moteur. Dans la première étude (Raptis et al 2007), impliquant des mouvements d’atteinte, nous avons cerné l’importance des voies descendantes partant du système vestibulaire pour l’équivalence motrice, i.e. la capacité du système moteur à atteindre un but moteur donné lorsque le nombre de degrés de liberté articulaires varie. L’hypothèse émise était que le système vestibulaire joue un rôle essentiel dans l’équivalence motrice. Nous avons comparé la capacité d’équivalence motrice de sujets sains et de patients vestibulodéficients chroniques lors de mouvements nécessitant un contrôle des positions du bras et du tronc. Pendant que leur vision était temporairement bloquée, les sujets devaient soit maintenir une position de l’index pendant une flexion du tronc, soit atteindre une cible dans l’espace péri-personnel en combinant le mouvement du bras avec une flexion du tronc. Lors d’essais déterminés aléatoirement et imprévus par les participants, leur tronc était retenu par un mécanisme électromagnétique s’activant en même temps que le signal de départ. Les sujets sains ont pu préserver la position ou la trajectoire de l’index dans les deux conditions du tronc (libre, bloqué) en adaptant avec une courte latence (60-180 ms) les mouvements articulaires au niveau du coude et de l’épaule. En comparaison, six des sept patients vestibulodéficients chroniques ont présenté des déficits au plan des adaptations angulaires compensatoires. Pour ces patients, entre 30 % et 100 % du mouvement du tronc n’a pas été compensé et a été transmis à la position ou trajectoire de l’index. Ces résultats indiqueraient que les influences vestibulaires évoquées par le mouvement de la tête pendant la flexion du tronc jouent un rôle majeur pour garantir l’équivalence motrice dans ces tâches d’atteinte lorsque le nombre de degrés de liberté articulaires varie. Également, ils démontrent que la plasticité de long terme survenant spontanément après une lésion vestibulaire unilatérale complète ne serait pas suffisante pour permettre au SNC de retrouver un niveau d’équivalence motrice normal dans les actions combinant un déplacement du bras et du tronc. Ces tâches de coordination bras-tronc constituent ainsi une approche inédite et sensible pour l’évaluation clinique des déficits vestibulaires. Elles permettent de sonder une dimension fonctionnelle des influences vestibulaires qui n’était pas prise en compte dans les tests cliniques usuels, dont la sensibilité relativement limitée empêche souvent la détection d’insuffisances vestibulaires six mois après une lésion de ces voies. Avec cette première étude, nous avons donc exploré comment le cerveau et les voies descendantes intègrent des degrés de liberté articulaires supplémentaires dans le contrôle du bras. Dans la seconde étude (Raptis et al 2010), notre but était de clarifier la nature des variables spécifiées par les voies descendantes pour le contrôle d’actions motrices réalisées avec ce membre. Nous avons testé l’hypothèse selon laquelle les voies corticospinales contrôlent la position et les mouvements des bras en modulant la position-seuil (position de référence à partir de laquelle les muscles commencent à être activés en réponse à une déviation de cette référence). Selon ce principe, les voies corticospinales ne spécifieraient pas directement les patrons d’activité EMG, ce qui se refléterait par une dissociation entre l’EMG et l’excitabilité corticospinale pour des positions-seuils différentes. Dans un manipulandum, des participants (n=16) ont modifié leur angle du poignet, d’une position de flexion (45°) à une position d’extension (-25°), et vice-versa. Les forces élastiques passives des muscles ont été compensées avec un moteur couple afin que les sujets puissent égaliser leur activité EMG de base dans les deux positions. L’excitabilité motoneuronale dans ces positions a été comparée à travers l’analyse des réponses EMG évoquées à la suite d’étirements brefs. Dans les deux positions, le niveau d’EMG et l’excitabilité motoneuronale étaient semblables. De plus, ces tests ont permis de montrer que le repositionnement du poignet était associé à une translation de la position-seuil. Par contre, malgré la similitude de l’excitabilité motoneuronale dans ces positions, l’excitabilité corticospinale des muscles du poignet était significativement différente : les impulsions de stimulation magnétique transcrânienne (TMS; à 1.2 MT, sur l’aire du poignet de M1) ont provoqué des potentiels moteurs évoqués (MEP) de plus grande amplitude en flexion pour les fléchisseurs comparativement à la position d’extension et vice-versa pour les extenseurs (p<0.005 pour le groupe). Lorsque les mêmes positions étaient établies après une relaxation profonde, les réponses réflexes et les amplitudes des MEPs ont drastiquement diminué. La relation caractéristique observée entre position physique et amplitude des MEPs dans le positionnement actif s’est aussi estompée lorsque les muscles étaient relâchés. Cette étude suggère que la voie corticospinale, en association avec les autres voies descendantes, participerait au contrôle de la position-seuil, un processus qui prédéterminerait le référentiel spatial dans lequel l’activité EMG émerge. Ce contrôle de la « référence » constituerait un principe commun s’appliquant à la fois au contrôle de la force musculaire, de la position, du mouvement et de la relaxation. Nous avons aussi mis en évidence qu’il est nécessaire, dans les prochaines recherches ou applications utilisant la TMS, de prendre en compte la configuration-seuil des articulations, afin de bien interpréter les réponses musculaires (ou leurs changements) évoquées par cette technique; en effet, la configuration-seuil influencerait de manière notable l’excitabilité corticomotrice, qui peut être considérée comme un indicateur non seulement lors d’activités musculaires, mais aussi cognitives, après apprentissages moteurs ou lésions neurologiques causant des déficits moteurs (ex. spasticité, faiblesse). Considérées dans leur ensemble, ces deux études apportent un éclairage inédit sur des principes fondamentaux du contrôle moteur : nous y illustrons de manière plus large le rôle du système vestibulaire dans les tâches d’atteinte exigeant une coordination entre le bras et son « support » (le tronc) et clarifions l’implication des voies corticomotrices dans la spécification de paramètres élémentaires du contrôle moteur du bras. De plus amples recherches sont cependant nécessaires afin de mieux comprendre comment les systèmes sensoriels et descendants (e.g. vestibulo-, réticulo-, rubro-, propriospinal) participent et interagissent avec les signaux corticofugaux afin de spécifier les seuils neuromusculaires dans le contrôle de la posture et du mouvement.
Resumo:
Code clones are portions of source code which are similar to the original program code. The presence of code clones is considered as a bad feature of software as the maintenance of software becomes difficult due to the presence of code clones. Methods for code clone detection have gained immense significance in the last few years as they play a significant role in engineering applications such as analysis of program code, program understanding, plagiarism detection, error detection, code compaction and many more similar tasks. Despite of all these facts, several features of code clones if properly utilized can make software development process easier. In this work, we have pointed out such a feature of code clones which highlight the relevance of code clones in test sequence identification. Here program slicing is used in code clone detection. In addition, a classification of code clones is presented and the benefit of using program slicing in code clone detection is also mentioned in this work.
Resumo:
A fully relativistic four-component Dirac-Fock-Slater program for diatomics, with numerically given AO's as basis functions is presented. We discuss the problem of the errors due to the finite basis-set, and due to the influence of the negative energy solutions of the Dirac Hamiltonian. The negative continuum contributions are found to be very small.
Resumo:
Distributed systems are one of the most vital components of the economy. The most prominent example is probably the internet, a constituent element of our knowledge society. During the recent years, the number of novel network types has steadily increased. Amongst others, sensor networks, distributed systems composed of tiny computational devices with scarce resources, have emerged. The further development and heterogeneous connection of such systems imposes new requirements on the software development process. Mobile and wireless networks, for instance, have to organize themselves autonomously and must be able to react to changes in the environment and to failing nodes alike. Researching new approaches for the design of distributed algorithms may lead to methods with which these requirements can be met efficiently. In this thesis, one such method is developed, tested, and discussed in respect of its practical utility. Our new design approach for distributed algorithms is based on Genetic Programming, a member of the family of evolutionary algorithms. Evolutionary algorithms are metaheuristic optimization methods which copy principles from natural evolution. They use a population of solution candidates which they try to refine step by step in order to attain optimal values for predefined objective functions. The synthesis of an algorithm with our approach starts with an analysis step in which the wanted global behavior of the distributed system is specified. From this specification, objective functions are derived which steer a Genetic Programming process where the solution candidates are distributed programs. The objective functions rate how close these programs approximate the goal behavior in multiple randomized network simulations. The evolutionary process step by step selects the most promising solution candidates and modifies and combines them with mutation and crossover operators. This way, a description of the global behavior of a distributed system is translated automatically to programs which, if executed locally on the nodes of the system, exhibit this behavior. In our work, we test six different ways for representing distributed programs, comprising adaptations and extensions of well-known Genetic Programming methods (SGP, eSGP, and LGP), one bio-inspired approach (Fraglets), and two new program representations called Rule-based Genetic Programming (RBGP, eRBGP) designed by us. We breed programs in these representations for three well-known example problems in distributed systems: election algorithms, the distributed mutual exclusion at a critical section, and the distributed computation of the greatest common divisor of a set of numbers. Synthesizing distributed programs the evolutionary way does not necessarily lead to the envisaged results. In a detailed analysis, we discuss the problematic features which make this form of Genetic Programming particularly hard. The two Rule-based Genetic Programming approaches have been developed especially in order to mitigate these difficulties. In our experiments, at least one of them (eRBGP) turned out to be a very efficient approach and in most cases, was superior to the other representations.
Resumo:
The 21st century has brought new challenges for forest management at a time when globalization in world trade is increasing and global climate change is becoming increasingly apparent. In addition to various goods and services like food, feed, timber or biofuels being provided to humans, forest ecosystems are a large store of terrestrial carbon and account for a major part of the carbon exchange between the atmosphere and the land surface. Depending on the stage of the ecosystems and/or management regimes, forests can be either sinks, or sources of carbon. At the global scale, rapid economic development and a growing world population have raised much concern over the use of natural resources, especially forest resources. The challenging question is how can the global demands for forest commodities be satisfied in an increasingly globalised economy, and where could they potentially be produced? For this purpose, wood demand estimates need to be integrated in a framework, which is able to adequately handle the competition for land between major land-use options such as residential land or agricultural land. This thesis is organised in accordance with the requirements to integrate the simulation of forest changes based on wood extraction in an existing framework for global land-use modelling called LandSHIFT. Accordingly, the following neuralgic points for research have been identified: (1) a review of existing global-scale economic forest sector models (2) simulation of global wood production under selected scenarios (3) simulation of global vegetation carbon yields and (4) the implementation of a land-use allocation procedure to simulate the impact of wood extraction on forest land-cover. Modelling the spatial dynamics of forests on the global scale requires two important inputs: (1) simulated long-term wood demand data to determine future roundwood harvests in each country and (2) the changes in the spatial distribution of woody biomass stocks to determine how much of the resource is available to satisfy the simulated wood demands. First, three global timber market models are reviewed and compared in order to select a suitable economic model to generate wood demand scenario data for the forest sector in LandSHIFT. The comparison indicates that the ‘Global Forest Products Model’ (GFPM) is most suitable for obtaining projections on future roundwood harvests for further study with the LandSHIFT forest sector. Accordingly, the GFPM is adapted and applied to simulate wood demands for the global forestry sector conditional on selected scenarios from the Millennium Ecosystem Assessment and the Global Environmental Outlook until 2050. Secondly, the Lund-Potsdam-Jena (LPJ) dynamic global vegetation model is utilized to simulate the change in potential vegetation carbon stocks for the forested locations in LandSHIFT. The LPJ data is used in collaboration with spatially explicit forest inventory data on aboveground biomass to allocate the demands for raw forest products and identify locations of deforestation. Using the previous results as an input, a methodology to simulate the spatial dynamics of forests based on wood extraction is developed within the LandSHIFT framework. The land-use allocation procedure specified in the module translates the country level demands for forest products into woody biomass requirements for forest areas, and allocates these on a five arc minute grid. In a first version, the model assumes only actual conditions through the entire study period and does not explicitly address forest age structure. Although the module is in a very preliminary stage of development, it already captures the effects of important drivers of land-use change like cropland and urban expansion. As a first plausibility test, the module performance is tested under three forest management scenarios. The module succeeds in responding to changing inputs in an expected and consistent manner. The entire methodology is applied in an exemplary scenario analysis for India. A couple of future research priorities need to be addressed, particularly the incorporation of plantation establishments; issue of age structure dynamics; as well as the implementation of a new technology change factor in the GFPM which can allow the specification of substituting raw wood products (especially fuelwood) by other non-wood products.
Resumo:
Realizar un estudio de las propiedades psicométricas del test de Boehm de Conceptos Básicos (BTBC) a partir de las respuestas emitidas por escolares asturianos. 153 alumnos de Preescolar-1, 136 de Preescolar-2 y 205 de primero de EGB del Principado de Asturias, distribuidos en función del sexo y la clase social. Muestreo aleatorio estratificado con afijación proporcional dentro de la población escolar. Cálculo de los coeficientes de fiabilidad, validez e indices de dificultad y discriminación. Baremación de la prueba para la población asturiana. Para cada uno de los análisis se toma individualmente los tres grupos resultantes de los niveles escolares a los que pertenecen los sujetos de la muestra, pretendiendo con ello observar el comportamiento del test en cada grupo de edad. BTBC, WIPPSI, WIC y test de matrices progresivas de colores de Raven. Calificación académica en Lenguaje. La fiabilidad se calculó por tres métodos: dos mitades, alpha de Cronbach y zeta de Carmines. La validez se calculó por medio de correlaciones con otros tests y el análisis de componentes principales. Fiabilidad: para los dos grupos de Preescolar, los coeficientes son relativamente altos en todos los casos, produciéndose una baja significativa en el grupo de primero de EGB; también se observa que los resultados alcanzados son levemente inferiores a los aportados en el manual de la versión castellana. Validez: el test tiene una aceptable relación con las pruebas elegidas como criterio y con la calificación en lenguaje; se corrobora que el BTBC es un test multidimensional. Dificultad y discriminación: en la primera mitad los índices de dificultad son muy altos, de los que se derivan unos niveles de discriminación muy bajos para la mayor parte de los ítems; la segunda parte del test tiene unos índices de dificultad con valores más bajos y la discriminación mejora; al mismo tiempo, los resultados indican que los ítems aun cuando presentan una diferenciación en dificultad entre los correspondientes a la primera y segunda mitad, no mantienen un riguroso orden de dificultad creciente. Baremación: los datos obtenidos indican la necesidad de que se realice una unica baremación para todos los sujetos en los dos cursos de Preescolar y tres baremaciones, según los tres niveles de clase social, para el primer curso de EGB. En términos generales, se concluye que los valores obtenidos en los diferentes análisis caen dentro de niveles 'razonablemente' aceptables, no pudiendo olvidar nunca las especiales características de esta prueba.
Resumo:
Comprobar la siguiente hipótesis: si ciertamente el Reversal es un test de madurez, sus resultados pueden constituir un índice predictivo del rendimiento en otras áreas. 740 alumnos de primero de EGB de centros de la región asturiana a través de un procedimiento aleatorio por conjuntos. La población se estratificó según: sexo, hábitat, régimen de enseñanza y asistencia o no de los alumnos a centros preescolares en el curso anterior. Para comprobar la hipótesis planteada, se relacionan los datos obtenidos en este test con los resultados de aquellos otros indicadores del rendimiento de los alumnos de primero de EGB: evaluación o exploración inicial de los alumnos efectuada por el docente al comenzar primero de EGB, los resultados del test de aptitudes cognoscitivas primaria I, y finalmente, la evaluación final al terminar el nivel de primero. Cuestionario 'ad hoc' con respuestas cerradas en escala y paramétrica, destinado a los docentes. Reversal y Test de aptitudes cognoscitivas primaria I. Calificación final en el área de Matemáticas, Lenguaje y global y calificaciones obtenidas por los alumnos en dos pruebas objetivas (Lenguaje y Matemáticas) expresamente preparadas con este fin. Análisis de las relaciones entre el reversal y las puntuaciones obtenidas en los demás indicadores. Cálculo de la validez de este test como instrumento predictivo a través de sus correlaciones con los demás indicadores utilizados.. Diferencias en función del nivel de maduración y el sexo: los alumnos clasificados con bajo nivel de maduración por el Reversal, obtienen las puntuaciones inferiores en todas las variables utilizadas; superioridad de las niñas respecto a los niños, aunque las diferencias no llegan a ser significativas. Interacción de variables en función del grado de madurez y el sexo: las correlaciones más elevadas se dan entre los índices de rendimiento y la madurez cognoscitiva evaluada por los docentes al comenzar el curso; se obtienen coeficientes diferentes con los diversos grupos entre rendimiento y test de aptitudes cognoscitivas, en los índices entre personalización y rendimiento se refleja claramente la influencia del nivel de maduración y el sexo. Relaciones entre el reversal y otros indicadores del rendimiento en función de la preescolarización: las correlaciones más altas se dan entre el Reversal y el Test de inteligencia primaria I; respecto al rendimiento de fin de curso los índices también son claramente representativos; los índices tienden a ser más bajos y desiguales en las relaciones entre el Reversal y la madurez cognoscitiva inicial evaluada por los docentes. Gran utilidad del Reversal como instrumento de diagnóstico y predicción. Se recomienda su utilización en los docentes por su facilidad de aplicación, valoración e interpretación. Este test permite obtener una información sobre el nivel de maduración del niño y 'pistas' de posibles anomalías o retrasos en las áreas perceptiva, espacial, etc..
Resumo:
Performance and manufacturability are two important issues that must be taken into account during MEMS design. Existing MEMS design models or systems follow a process-driven design paradigm, that is, design starts from the specification of process sequence or the customization of foundry-ready process template. There has been essentially no methodology or model that supports generic, high-level design synthesis for MEMS conceptual design. As a result, there lacks a basis for specifying the initial process sequences. To address this problem, this paper proposes a performance-driven, microfabrication-oriented methodology for MEMS conceptual design. A unified behaviour representation method is proposed which incorporates information of both physical interactions and chemical/biological/other reactions. Based on this method, a behavioural process based design synthesis model is proposed, which exploits multidisciplinary phenomena for design solutions, including both the structural components and their configuration for the MEMS device, as well as the necessary substances for the chemical/biological/other reactions. The model supports both forward and backward synthetic search for suitable phenomena. To ensure manufacturability, a strategy of using microfabrication-oriented phenomena as design knowledge is proposed, where the phenomena are developed from existing MEMS devices that have associated MEMS-specific microfabrication processes or foundry-ready process templates. To test the applicability of the proposed methodology, the paper also studies microfluidic device design and uses a micro-pump design for the case study.
Resumo:
Diseñar y validar un protocolo de evaluación que sirva para estimar la competencia curricular en el área de matemáticas al final de la Educación Primaria o al inicio de la secundaria obligatoria. Es decir, lo que se pretende es construir un test de rendimiento en matemáticas que será baremado, tanto clásicamente como según la más moderna respuesta al ítem. 603 estudiantes de sexto de Educación Primaria en el Sector Educativo del Nalón (Asturias). Se trabaja con un error muestral muy pequeño (1,5 por ciento) y un nivel de confianza del 95 por ciento. Previamente a la aplicación del instrumento se realizó un estudio piloto con el fin de realizar una primera depuración de ítems para construir y validar estadísticamente una prueba que permitiera estimar el nivel curricular del alumnado en el área de matemáticas al final de la Educación Primaria. El trabajo se inicio con el análisis del currículo del área en tercer ciclo: decretos de mínimos y curricular de Educación Primaria. También se revisaron los documentos elaborados por el MEC, libros de texto de la principales editoriales y el material de refuerzo y recuperación disponible en el EOEP-Nalón (Asturias). Estas tareas sirven para diseñar la tabla de especificaciones de la prueba y construir un primera banco de ítems. Se diseña una matriz de especificaciones con un total de 46 entradas organizadas en dos ejes: a) Bloques de contenidos: numeración, operaciones, geometría, medidas y organización de la información; b) Capacidades matemáticas: conocimientos básicos, algoritmos, estrategias intermedias y resolución de problemas. El protocolo de evaluación implementado en la aplicación final consistió en una batería de 41 preguntas. A los 34 ítems seleccionados de la prueba piloto se unieron 7 más. El análisis de los resultados se llevo a cabo del programa SPSS V.8.0. Se calculan estadísticos de posición y dispersión, puntuaciones típicas y transformadas, ajuste a normalidad y descarte de diferencias entre los grupos de corte de la muestra. Buscando definir las características métricas se estiman los índices de fiabilidad y validez externa. a) La batería del estudio presenta buenos índices de fiabilidad, tanto en los coeficientes de test referidos a la norma, como al criterio; b) El valor del índice de fiabilidad es siempre una primera aproximación al estudio de unidimensionalidad de la escala. Un alfa superior a 0,86 parece indicar cierto grado de unidimensionalidad, lo que permitiría intentar el ajuste de los datos a algún modelo derivado de la Teoría de Respuesta al Ítem , y superar de esta forma los rudimentos de la Teoría Clásica de Respuesta a los Test; c) Se pueden establecer puntos de corte a partir del rendimiento en la prueba para identificar, tanto alumnos con dificultades en el área, como a posibles talentos matemáticos.
Resumo:
A novel test of spatial independence of the distribution of crystals or phases in rocks based on compositional statistics is introduced. It improves and generalizes the common joins-count statistics known from map analysis in geographic information systems. Assigning phases independently to objects in RD is modelled by a single-trial multinomial random function Z(x), where the probabilities of phases add to one and are explicitly modelled as compositions in the K-part simplex SK. Thus, apparent inconsistencies of the tests based on the conventional joins{count statistics and their possibly contradictory interpretations are avoided. In practical applications we assume that the probabilities of phases do not depend on the location but are identical everywhere in the domain of de nition. Thus, the model involves the sum of r independent identical multinomial distributed 1-trial random variables which is an r-trial multinomial distributed random variable. The probabilities of the distribution of the r counts can be considered as a composition in the Q-part simplex SQ. They span the so called Hardy-Weinberg manifold H that is proved to be a K-1-affine subspace of SQ. This is a generalisation of the well-known Hardy-Weinberg law of genetics. If the assignment of phases accounts for some kind of spatial dependence, then the r-trial probabilities do not remain on H. This suggests the use of the Aitchison distance between observed probabilities to H to test dependence. Moreover, when there is a spatial uctuation of the multinomial probabilities, the observed r-trial probabilities move on H. This shift can be used as to check for these uctuations. A practical procedure and an algorithm to perform the test have been developed. Some cases applied to simulated and real data are presented. Key words: Spatial distribution of crystals in rocks, spatial distribution of phases, joins-count statistics, multinomial distribution, Hardy-Weinberg law, Hardy-Weinberg manifold, Aitchison geometry
Resumo:
A condition needed for testing nested hypotheses from a Bayesian viewpoint is that the prior for the alternative model concentrates mass around the small, or null, model. For testing independence in contingency tables, the intrinsic priors satisfy this requirement. Further, the degree of concentration of the priors is controlled by a discrete parameter m, the training sample size, which plays an important role in the resulting answer regardless of the sample size. In this paper we study robustness of the tests of independence in contingency tables with respect to the intrinsic priors with different degree of concentration around the null, and compare with other “robust” results by Good and Crook. Consistency of the intrinsic Bayesian tests is established. We also discuss conditioning issues and sampling schemes, and argue that conditioning should be on either one margin or the table total, but not on both margins. Examples using real are simulated data are given
Resumo:
Planners in public and private institutions would like coherent forecasts of the components of age-specic mortality, such as causes of death. This has been di cult to achieve because the relative values of the forecast components often fail to behave in a way that is coherent with historical experience. In addition, when the group forecasts are combined the result is often incompatible with an all-groups forecast. It has been shown that cause-specic mortality forecasts are pessimistic when compared with all-cause forecasts (Wilmoth, 1995). This paper abandons the conventional approach of using log mortality rates and forecasts the density of deaths in the life table. Since these values obey a unit sum constraint for both conventional single-decrement life tables (only one absorbing state) and multiple-decrement tables (more than one absorbing state), they are intrinsically relative rather than absolute values across decrements as well as ages. Using the methods of Compositional Data Analysis pioneered by Aitchison (1986), death densities are transformed into the real space so that the full range of multivariate statistics can be applied, then back-transformed to positive values so that the unit sum constraint is honoured. The structure of the best-known, single-decrement mortality-rate forecasting model, devised by Lee and Carter (1992), is expressed in compositional form and the results from the two models are compared. The compositional model is extended to a multiple-decrement form and used to forecast mortality by cause of death for Japan
Resumo:
Estudio de los niveles de ansiedad en los profesores. El interés principal se centra en la comparación de dos instrumentos MISPE y MAE, para comprobar la correlación positiva entre la ansiedad medida por el MISPE y la ansiedad medida por el MAE. Profesores de EGB de Málaga capital y provincia. 35 son hombres y 54 son mujeres. Contacto con el profesorado del colegio elegido. Este se realizó, bien a través de los profesores que estaban matriculados en la Facultad de Pedagogía, bien mediante el ICE, e incluso por teléfono. Se pasan los instrumentos de medida y analizan los resultados. Entrevistas, test: MISPE y MAE. Pruebas de análisis estadístico, media, desviación estándar, puntuaciones típicas, directas. En el test MISPE no aparecen diferencias notables entre hombres y mujeres en las configuraciones: 'armonía perfecta', 'miedo a ser desenmascarado' y 'rechazo total'. En el test MAE, la única diferencia significativa entre sexos se da en la 'ansiedad facilitadora del rendimiento' (p= 0.05). Los hombres puntúan más que las mujeres, las puntuaciones obtenidas en 'ansiedad facilitadora del rendimiento', son prácticamente iguales entre hombres y mujeres. Los dos instrumentos miden algo común, cuando dicen medir ansiedad gran parte de las espectativas acerca de las relaciones entre los dos test se cumplen; el mismo porcentaje de profesores son afectados por elevados niveles de ansiedad en los dos tests.