836 resultados para Cochran, Brad
Resumo:
Ce mémoire porte sur le rapport entre la maison et la littérature dans l’œuvre de Carolina Maria de Jesus, notamment dans son livre Quarto de despejo. Étant une écrivaine pauvre issue d’une favela de São Paulo, son œuvre déborde de réflexions, témoignages et vécus qui nous révèlent la relation intrinsèque entre écrire et bâtir, la littérature et la maison et entre l’habitation et l’écriture. Il s’agit dans ce mémoire d’accompagner de près les pas de Carolina bâtissant cette œuvre tout à fait inattendue, vu ses conditions matérielles et intellectuelles (elle vivait misérablement dans un barracão, et n’avait que deux ans d’instruction); il est question ici, également, de suivre la construction de ses demeures, d’abord le barracão où elle habitait qui a été édifié avec ses propres mains, ensuite la maison en brique qu’elle a pu acheter grâce au succès de son livre et, principalement, la vraie maison à soi qui s’avère être son écriture, ses mots, le mouvement double et inséparable de bâtir et écrire qui a dicté sa vie et son œuvre. Pour trouver le vocabulaire juste pour cette approche difficile, les mots du poète Edmond Jabès nous accompagneront tout au long de notre parcours, ainsi que la pensée perçante du philosophe Gaston Bachelard.
Resumo:
La présente étude conduit les traditions fragmentées de la culture littéraire de Trieste vers les préoccupations contemporaines de la littérature mondiale à l’époque actuelle où la mondialisation est largement perçue comme le paradigme historique prédominant de la modernité. Ce que j’appelle la « littérature globalisée » renvoie à la refonte de la Weltliteratur – envisagée par Goethe et traduite comme « world literature » ou la « littérature universelle » – par des discours sur la culture mondiale et le post-nationalisme. Cependant, lorsque les études littéraires posent les questions de la « littérature globalisée », elles sont confrontées à un problème : le passage de l’idée universelle inhérente au paradigme de Goethe entre le Scylla d’un internationalisme relativiste et occidental, et le Charybde d’un mondialisme atopique et déshumanisé. Les spécialistes de la littérature mondiale qui tendent vers la première position acquièrent un fondement institutionnel en travaillant avec l’hypothèse implicite selon laquelle les nations sont fondées sur les langues nationales, ce qui souscrit à la relation entre la littérature mondiale et les littératures nationales. L’universalité de cette hypothèse implicite est réfutée par l’écriture triestine. Dans cette étude, je soutiens que l’écriture triestine du début du XXe siècle agit comme un précurseur de la réflexion sur la culture littéraire globalisée du XXIe siècle. Elle dispose de sa propre économie de sens, de sorte qu’elle n’entre pas dans les nationalismes littéraires, mais elle ne tombe pas non plus dans le mondialisme atopique. Elle n’est pas catégoriquement opposée à la littérature nationale; mais elle ne permet pas aux traditions nationales de prendre racine. Les écrivains de Triestine exprimaient le désir d’un sentiment d’unité et d’appartenance, ainsi que celui d’une conscience critique qui dissout ce désir. Ils résistaient à l’idéalisation de ces particularismes et n’ont jamais réussi à réaliser la coalescence de ses écrits dans une tradition littéraire unifiée. Par conséquent, Trieste a souvent été considérée comme un non-lieu et sa littérature comme une anti-littérature. En contournant les impératifs territoriaux de la tradition nationale italienne – comme il est illustré par le cas de Italo Svevo – l’écriture triestine a été ultérieurement incluse dans les paramètres littéraires et culturels de la Mitteleuropa, où son expression a été imaginée comme un microcosme de la pluralité supranationale de l’ancien Empire des Habsbourg. Toutefois, le macrocosme projeté de Trieste n’est pas une image unifiée, comme le serait un globe; mais il est plutôt une nébuleuse planétaire – selon l’image de Svevo – où aucune idéalisation universalisante ne peut se réaliser. Cette étude interroge l’image de la ville comme un microcosme et comme un non-lieu, comme cela se rapporte au macrocosme des atopies de la mondialisation, afin de démontrer que l’écriture de Trieste est la littérature globalisée avant la lettre. La dialectique non résolue entre faire et défaire la langue littéraire et l’identité à travers l’écriture anime la culture littéraire de Trieste, et son dynamisme contribue aux débats sur la mondialisation et les questions de la culture en découlant. Cette étude de l’écriture triestine offre des perspectives critiques sur l’état des littératures canoniques dans un monde où les frontières disparaissent et les non-lieux se multiplient. L’image de la nébuleuse planétaire devient possiblement celle d’un archétype pour le monde globalisé d’aujourd’hui.
Resumo:
Le présent mémoire cherche à relever, à travers la lecture du texte Le bain de Diane de Pierre Klossowski, les modalités propres au littéraire pour penser les liens entre les concepts d’immanence et de transcendance. Proposant en premier lieu la mise en place des concepts nécessaires à une telle entreprise, je m’attarde à des auteurs tels que Platon, Apulée, Pierre Hadot, Gilles Deleuze et Michel Foucault, ayant contribué à la conception du démon tel qu’il est décrit chez Klossowski, ainsi qu’au concept de simulacre, concept clé de la pensée de l’auteur à l’étude. En retraçant la création et la représentation de ces concepts dans divers textes, pour ensuite les retracer dans Le bain de Diane, je cherche à montrer l’importance de la figuration littéraire dans le rapport complexe que nous entretenons avec les notions de sensible et de suprasensible.
Resumo:
Zusammenfassung (deutsch) Seit den 1980iger Jahren wächst die Bedeutung der sog. Bildschaffenden Methoden für die Bestimmung der Qualität ökologischer Produkte. Zu diesen Methoden gehört die Biokristallisation, Steigbild und Rundfilter-Chromatographie. Die Ergebnisse dieser Methoden sind Bilder, die anhand definierter Kriterien ausgewertet werden. Bei der Biokristallisation sind es mehr oder weniger geordnete Kristallisationen auf einer Glasplatte, bei dem Steigbild zweidimensionale Strukturen auf Chromatographiepapier. In der Vergangenheit wurden die Bilder von Spezialisten ausgewertet, die nach einer längeren Schulung produktspezifische Kriterien entwickelt hatten. Im Gegensatz zur Dünnschicht-Chromatographie, wo der einzelne Stoff von der Matrix separiert wird, ist das Ziel beim Steigbild, Strukturen der möglichst ganzen Probe zu erzeugen. Die Methode wurde von Kolisko in den 1929iger Jahren entwickelt, wobei eine Kombination aus Chromatographieprozess und Metallkomplexreaktionen genutzt wurde. Die Firma WALA entwickelte die Methode für die Kontrolle ihrer Produkte und setze Silbernitrat und Eisensulfat ein. Bisher wurde die Methode qualitativ beschreibend ausgewertet, wobei einzelne Bildelemente und deren Interaktion beschrieben wurden. Deshalb musste für die vorliegende Arbeit Auswertungsmethoden entwickelt werden, mit denen auch eine statistische Bearbeitung der Ergebnisse möglich ist (nominale Unterscheidung von proben anhand der Bilder). Die Methode wurde bisher in einer Reihe von Studien eingesetzt (u.a. die Unterscheidung von Produktionsweisen). Obwohl die Bilder nur qualitativ ausgewertet wurden, konnten geschulte Prüfpersonen Proben aus verschiedenen Anbausystemen anhand der Bilder trennen. Die Ergebnisse wurden aber nicht so dokumentiert, dass sie den Erfordernissen internationaler Standardnormen für Laboratorien genügten. Deshalb mussten für diese Arbeit zunächst die Prozeduren dokumentiert und eine systematische Untersuchung zu den Einflussgrößen durchgeführt werden. Dazu wurde die visuelle Bildauswertung entwickelt und standardisiert. Die visuelle Bildauswertung basiert auf morphologischen Kriterien der Bilder von den untersuchten Weizen- und Möhrenproben. Ein Panel aus geschulten Personen entwickelte dann die Kriterien und legte sie anhand von Referenzbildern fest. Die Bilder der vorliegenden Arbeit wurden mit der einfach beschreibenden Prüfung ausgewertet, wie sie aus der sensorischen Prüfung von Lebensmitteln übernommen werden konnte. Mit geschulten und ungeschulten Prüfpersonen wurden Weizenproben und verschiedene Möhrensäfte mit der sog. Dreiecksprüfung ausgewertet (von ISO 4120). Alle Laborprozeduren wurden dokumentiert. Mit der Anwendung dieser Prozeduren wurden Vergleichsversuche mit Laboren in Dänemark und Holland (BRAD, LBI) durchgeführt. Die Ergebnisse waren sowohl für Weizen- als auch für Möhrenproben vergleichbar, wobei alle drei Labore zwischen jeweils zwei Proben unterscheiden konnten. Die systematische Untersuchung zu den Einflussgrößen zeigte, dass das Unterscheidungsvermögen der Methode vor allem von den klimatischen Bedingungen während der Steigphasen beeinflusst wird. Auch die Präkonditionierung der Papiere hat einen großen Einfluss, während die Wasserqualität (ultra-filtriert, de-ionisiert, destilliert) eine untergeordnete Bedeutung hat. Für Weizen- und Möhrenproben wurde sowohl die Wiederholbarkeit als auch die Reproduzierbarkeit getestet. Die Unterschiede in den Bildern der verschiedenen Proben waren dabei immer größer als die Variation durch Proben- und Bildwiederholung und das Labor. Die so charakterisierte Methode wurde auf kodierte Proben von definierten Feldversuchen und auf Marktproben (Paarvergleich von Anbausystemen ökologisch und konventionell) angewandt, wobei als Ergebnis mehr als 90% der Proben mit der einfach beschreibenden Prüfung anhand der Bilder unterschieden werden konnten. Die Auswertung mit der Dreiecksprüfung zeigte, dass sowohl Sorten und Verarbeitungsschritte (Saft) als auch Anbauweisen signifikant getrennt wurden. Darüber hinaus wurde die Methode auch erfolgreich auf Apfelproben angewandt. Weitere Untersuchungen müssen zeigen, ob sich das Potential der Methode, verschiedene Fragen wie die Authentizitätsprüfung von Lebensmitteln verifizieren lassen.
Resumo:
The consumers are becoming more concerned about food quality, especially regarding how, when and where the foods are produced (Haglund et al., 1999; Kahl et al., 2004; Alföldi, et al., 2006). Therefore, during recent years there has been a growing interest in the methods for food quality assessment, especially in the picture-development methods as a complement to traditional chemical analysis of single compounds (Kahl et al., 2006). The biocrystallization as one of the picture-developing method is based on the crystallographic phenomenon that when crystallizing aqueous solutions of dihydrate CuCl2 with adding of organic solutions, originating, e.g., from crop samples, biocrystallograms are generated with reproducible crystal patterns (Kleber & Steinike-Hartung, 1959). Its output is a crystal pattern on glass plates from which different variables (numbers) can be calculated by using image analysis. However, there is a lack of a standardized evaluation method to quantify the morphological features of the biocrystallogram image. Therefore, the main sakes of this research are (1) to optimize an existing statistical model in order to describe all the effects that contribute to the experiment, (2) to investigate the effect of image parameters on the texture analysis of the biocrystallogram images, i.e., region of interest (ROI), color transformation and histogram matching on samples from the project 020E170/F financed by the Federal Ministry of Food, Agriculture and Consumer Protection(BMELV).The samples are wheat and carrots from controlled field and farm trials, (3) to consider the strongest effect of texture parameter with the visual evaluation criteria that have been developed by a group of researcher (University of Kassel, Germany; Louis Bolk Institute (LBI), Netherlands and Biodynamic Research Association Denmark (BRAD), Denmark) in order to clarify how the relation of the texture parameter and visual characteristics on an image is. The refined statistical model was accomplished by using a lme model with repeated measurements via crossed effects, programmed in R (version 2.1.0). The validity of the F and P values is checked against the SAS program. While getting from the ANOVA the same F values, the P values are bigger in R because of the more conservative approach. The refined model is calculating more significant P values. The optimization of the image analysis is dealing with the following parameters: ROI(Region of Interest which is the area around the geometrical center), color transformation (calculation of the 1 dimensional gray level value out of the three dimensional color information of the scanned picture, which is necessary for the texture analysis), histogram matching (normalization of the histogram of the picture to enhance the contrast and to minimize the errors from lighting conditions). The samples were wheat from DOC trial with 4 field replicates for the years 2003 and 2005, “market samples”(organic and conventional neighbors with the same variety) for 2004 and 2005, carrot where the samples were obtained from the University of Kassel (2 varieties, 2 nitrogen treatments) for the years 2004, 2005, 2006 and “market samples” of carrot for the years 2004 and 2005. The criterion for the optimization was repeatability of the differentiation of the samples over the different harvest(years). For different samples different ROIs were found, which reflect the different pictures. The best color transformation that shows efficiently differentiation is relied on gray scale, i.e., equal color transformation. The second dimension of the color transformation only appeared in some years for the effect of color wavelength(hue) for carrot treated with different nitrate fertilizer levels. The best histogram matching is the Gaussian distribution. The approach was to find a connection between the variables from textural image analysis with the different visual criteria. The relation between the texture parameters and visual evaluation criteria was limited to the carrot samples, especially, as it could be well differentiated by the texture analysis. It was possible to connect groups of variables of the texture analysis with groups of criteria from the visual evaluation. These selected variables were able to differentiate the samples but not able to classify the samples according to the treatment. Contrarily, in case of visual criteria which describe the picture as a whole there is a classification in 80% of the sample cases possible. Herewith, it clearly can find the limits of the single variable approach of the image analysis (texture analysis).
Resumo:
We report on a new class of nonionic, photosensitive surfactants consisting of a polar di(ethylene oxide) head group attached to an alkyl spacer of between two and eight methylene groups, coupled through an ether linkage to an azobenzene moiety. Structural changes associated with the interconversion of the azobenzene group between its cis and trans forms as mediated by the wavelength of an irradiating light source cause changes in the surface tension and self-assembly properties. Differences in saturated surface tensions (surface tension at concentrations above the CMC) were as high as 14.4 mN/m under radiation of different wavelengths. The qualitative behavior of the surfactants changed as the spacer length changed, attributed to the different orientations adopted by the different surfactants depending on their isomerization states, as revealed by neutron reflection studies. The self-assembly of these photosensitive surfactants has been investigated by light scattering, small angle neutron scattering, and cryo-TEM under different illuminations. The significant change in the self-assembly in response to different illumination conditions was attributed to the sign change in Gaussian rigidity, which originated from the azobenzene photoisomerization.
Resumo:
Estudio del comportamiento de pacientes con lesiones corticales contridas fundamentalmente de origen neoplásico vascular o traumático, analizando la comprensión del lenguaje en la entrada auditiva y en su comprensión verbal, centrándose en las pruebas de denominación. La muestra la componen 50 sujetos divididos en 5 grupos. Primer grupo: 10 pacientes afásicos con lesiones del hemisferio izquierdo. Segundo grupo: 10 pacientes con lesiones del hemisferio izquierdo. Tercer grupo: 10 pacientes con lesiones del hemisferio derecho. Cuarto grupo: 10 sujetos adultos sin patologías en el sistema nervioso. Quinto grupo: 10 niños con edades entre 5 y 8 ocho años sin patologías en el sistema central y sin problemas escolares. En base al modelo de Caramazza, Berndt y Browell (1982) se analiza la denominación en relación a la modalidad sensorial de entrada, la cantidad de información y la categoría semántica. Se localizan las estructuras cerebrales que se encuentran fundamentalmente dañadas. Se relaciona finalmente la denominación con la clasificación de las afasias, la lateralización hemisférica de funciones y la base neuroanatómica lesionada. Pruebas clínicas de denominación. Diseños factoriales mixtos, con el primer factor entre grupos y con el resto de los factores de medidas repetidas -estos últimos cambian-. Se ha realizado transformación al arcoseno de la variable dependiente y ajustes en proporciones siguiendo el método propuesto por Snedecor y Cochran. Se han realizado los correspondientes análisis de varianza. Desajuste de los niveles de análisis entre la neuropsicología tradicional y la psicología cognitiva actual. Importancia de las modalidades sensoriales a presentación, cantidad de información y categoría semántica en la denominación. Peor ejecución de los pacientes con lesiones en el hemisferio derecho, interpretado como un problema en el procesamiento en las etapas iniciales. No existe un paralelismo de pacientes afásicos y el grupo infantil. Este último se asemeja al grupo control de adultos. Confección de un mapa de localización de la corteza cerebral que cuando se lesiona puede sufrir trastornos en la denominación. Esta capacidad se realiza fundamentalmente en el giro temporal superior de hemisferio izquierdo. El marco teórico que puede adoptarse para el estudio de la denominación es el de los modelos de producción verbal. La clasificación de las afasias en tareas debe cambiar en componentes de las mismas.
Resumo:
Colombia y Ecuador son países que por mucho tiempo no brindaron mayor importancia al tema migratorio y sus políticas enfocadas a dicha materia fueron incipientes y con resultados poco favorables. Desde principios del siglo XXI, el tema migratorio empezó a considerarse como prioridad dentro de las agendas políticas internas de cada Estado y de ahí surge la necesidad de crear políticas migratorias capaces de dar respuesta efectiva a los nuevos flujos migratorios y de proteger a los emigrantes residentes en el exterior por medio de la garantía de sus derechos fundamentales. No obstante, los resultados en la implementación de dichas políticas varío considerablemente entre los dos países debido a la importancia que se le asignó al tema dentro de la agenda política de cada Estado, mientras que en Ecuador la migración es un considerada como una prioridad interna, para Colombia el tema migratorio sigue siendo relegado por otros temas como el conflicto armado y el desplazamiento forzado interno.
Resumo:
Esta Monografía se centra en mostrar cómo el intento por conservar la identidad colectiva de la Liga de los Estados Árabes impide ceder ante el deseo de Somalilandia de ser reconocida como Estado independiente.
Resumo:
Esta monografía busca estudiar la interrelación que hay entre las migraciones internacionales y el surgimiento de proyectos y políticas de codesarrollo entre Ecuador y España. La globalización ha generado nuevas dinámicas internacionales que permiten la creación de nuevos parámetros y marcos para la regulación de las migraciones. A su vez ha sido un catalizador de fenómenos transnacionale; como las migraciones y las mismas políticas de codesarrollo. El transnacionalismo genera procesos con los cuales los migrantes crean y mantienen relaciones que vinculan las sociedades de origen con las receptoras. Por esta razón, la migración ya no puede ser controlada unilateralmente. De esta forma el codesarrollo surge como una medida transnacional para responder a estas nuevas dinámicas migratorias; es una política bilateral que busca obtener beneficios de la migración para ambos países, de modo que esta sea un vector y protagonista positivo del desarrollo.
Resumo:
Este trabajo intenta mostrar, a partir de la experiencia como interlocutor en el Consultorio Social Minuto de Dios (CSMD), las relaciones que se dan entre sus actores (directivas, profesores, practicantes e interloutor) para encontrar si hay distancia entre los discursos y las practicas que se dan.
Resumo:
Introducción: Los pacientes con lesiones térmicas presentan alteraciones fisiológicas complejas que hacen difícil la caracterización del estado ácido-base y así mismo alteraciones electrolíticas e hipoalbuminemia que pudieran estar relacionados con un peor pronóstico. Se ha estudiado la base déficit (BD) y el lactato, encontrando una gran divergencia en los resultados. Por lo anterior, el análisis físico-químico del estado ácido-base podría tener un rendimiento superior a los métodos tradicionales. Metodología: Se realizó el análisis de una serie de casos de 15 pacientes mayores de 15 años, con superficie corporal quemada mayor al 20% que ingresaron a una unidad de cuidado intensivo (UCI) de quemados, dentro de las siguientes 48 horas del trauma. Para el análisis se utilizaron tres métodos distintos: 1) método convencional basado en la teoría de Henderson-Hasselbalch, 2) anión-gap (AG) y anión-gap corregido por albúmina, 3) análisis físico-químico del estado ácido-base según la teoría de Stewart modificado por Fencl y Figge. Resultados: Por el método de Henderson-Hasselbalch, 8 pacientes cursaron con acidosis metabólica, 4 pacientes con una BD leve, 5 pacientes con una BD moderada y 5 pacientes con una BD severa. El AG resultó menor a 16 mmol/dl en 10 pacientes, pero al corregirlo por albumina sólo 2 pacientes cursaron con AG normal. La diferencia de iones fuertes (DIF) se encontraba anormalmente elevada en la totalidad de los pacientes. Conclusión:El análisis del AG corregido por albumina y el análisis físico-químico del estado ácido-base, podrían tener mayor rendimiento al identificar las alteraciones metabólicas de estos pacientes.
Resumo:
Determinar cómo afectan distintas variables en el proceso de adquisición y desarrollo de las estrategias de cálculo mental. 110 niños elegidos al azar de un colegio público y distribuidos en cinco grupos de edad, con similar proporción entre niños y niñas. Las pruebas se administran individualmente durante las horas lectivas del Centro en una sola sesión experimental, con una duración media de 20 minutos por niño. Hay dos experimentadores durante la aplicación de las pruebas. Uno proporciona las instrucciones para la resolución de tareas y otro registra tanto los tiempos de reacción como los procedimientos concretos empleados. Una vez que los alumnos dan la respuesta, les solicitan que describan el modo de resolver la operación. Se administran tres tipos de tareas. Cada tarea se muestra en términos aditivos y sustrativos. Once láminas con tareas aritméticas que los alumnos deben resolver. Se les proporciona lápiz, borrador y hoja de respuesta. Se cuenta con un cronómetro para medir el tiempo de reacción. En el análisis de respuesta correctas se realiza diversos ANOVAS para examinar los posibles efectos de las variables propuestas (Operación Tarea, Tamaño de las Cantidades y Nivel Escolar de los sujetos) en el rendimiento de los niños. Adicionalmente y con respecto a los procedimientos de resolución se llevan a cabo análisis a través de las pruebas chi cuadrado de McNemar y Q de Cochran, para determinar la relación entre el tipo de estrategias seleccionadas más comúnmente por los niños a lo largo de las variables estudiadas. El nivel escolar de los niños resulta determinante en el rendimiento. En cuanto al factor operación, el nivel de ejecución en la sustracción supera al conseguido en la adición. Además, el tamaño de las cantidades también resulta significativo, de manera que los niños, en general, obtienen mejores puntuaciones cuando se les proponen tareas con cantidades pequeñas. Se encuentran interacciones dobles, que ponen de manifiesto que la influencia de la variable Operación y Tamaño disminuye progresivamente con la edad. En cuanto al análisis de los procedimientos de resolución, las estrategias más comunes son la estrategia memorística 'lo sé' y la estrategia 'Contar desde'. Existen diferencias significativas en el nivel de rendimiento de los niños produciéndose mejoras sustanciales con la edad. Las variables consideradas en el estudio afectan al nivel de ejecución de los niños. Las estrategias utilizadas por los niños sufren variaciones dependiendo del nivel escolar, el tipo de tarea, la operación y tamaño de las cantidades. Así, aumentan las estrategias basadas en la memorización y disminuye las fundadas en conteo a medida que aumenta la edad. En cuanto a los errores, se observa que con la edad tienden a disminuir los errores derivados de la falta de conocimiento tanto del sistema numérico como de las propiedades de las operaciones aritméticas aumentando aquellos otros causados por un fallo a la hora de poner en marcha el método concreto de resolución.
Resumo:
1.- Demostrar la influencia de un sistema de programación en la mejora de la eficacia del trabajo del profesor de EGB. Programación educativa de EGB. De forma introductoria, se establecen una serie de consideraciones de tipo teórico en torno al concepto de profesor y al de trabajo educativo en EGB, con el fin de justificar la necesidad de programación como una dimensión intrínseca al ejercicio profesional. A continuación, y a partir de una revisión bibliográfica, se define la técnica de los objetivos educativos, profundizando en su tipología, clasificación, alcance y formulación. Como aplicación práctica de esos supuestos, se presenta un sistema de programación, analizando de forma sistemática y relacionada, la organización del tiempo, instalaciones, material, equipo y áreas de contenido, ofreciendo criterios para la selección de objetivos y actividades y pautas para su evaluación. Complementariamente, se presentan los resultados de un cuestionario relativo al diagnóstico de necesidades, intereses, actitudes y prejuicios respecto de la programación, aplicado a un grupo de profesores antes de realizar un programa de perfeccionamiento, así como las sucesivas ediciones de un sistema de programación, detallando el plan de trabajo diario, los objetivos y las opiniones de los participantes. Cuestionarios estructurados y semiestructurados y entrevistas no estructuradas. Cuestionarios DPB-34. Cuestionarios DPE-40. Exploración bibliográfica. Distribución de frecuencias. Método no paramétrico. Medias. Varianzas. Fórmula Cochran y Cox. Distribución t de Student. Fórmula de Spearman-Brown en relación a la fiabilidad de la prueba. 1.- El curso de perfeccionamiento de profesores mejora la seguridad en cuanto a su capacidad, despierta la actitud crítica y el afán de superación y mejora profesional. 2.- Los profesores que no siguen programas de perfeccionamiento sienten dificultades para programar, no conocen su clase, se sienten inseguros, no saben cómo obtener información ni utilizar técnicas de evaluación, formulan objetivos impersonales, señalan criterios organizativos únicamente en relación con el contenido, y acentúan la tarea en detrimento de la relación humana. Tienen dificultad para elaborar diagnósticos en los dominios afectivos y psicomotor. En las programaciones de profesores que han introducido esta técnica en su trabajo, se observa una selección de objetivos basada en un análisis previo de la situación inicial de los alumnos, planes de trabajo detallados en relación al recurso tiempo, que se distribuye de forma realista, se adjuntan técnicas de evaluación y la programación es punto de referencia de profesores y alumnos. Se observan, sin embargo, carencias en lo relativo a la utilización de recursos, instalaciones, material, equipos y actividades. 3.- Todos los centros educativos deben incorporar un sistema de programación y disponer de personal especializado que oriente a los profesores.
Resumo:
Este volumen contiene un resumen ejecutivo, tres capítulos centrales y nueve síntesis o resúmenes de investigación. Además, el Informe propone una agenda futura de investigación sobre formación del profesorado, aborda cuestiones sobre diseños de investigación y otros asuntos metodológicos y se pronuncia sobre la infraestructura necesaria para la investigación. Número monográfico con el título: La tarea de enseñar: atraer, formar, retener y desarrollar buen profesorado. Resumen tomado de la publicación