954 resultados para I.3.8 [Computing Methodologies]: Computer Graphics-Applications
Resumo:
La superfície regada a Catalunya és d'unes 260.00 ha. aproximadament, la qual constitueix el 26 % de l'àrea conreada i el 8 % de l'àrea total; tot i així, en l'àrea regada es produeix, aproximadament, el 68 % del producte final agrari. El pes econòmic de l'àrea regada, la facilitat més gran per introduir noves tecnologies amb una rendibilitat superior i la necessitat que tenen les mateixes tecnologies de disposar d'una informació de base van fer aconsellable iniciar les tasques de cartografia de sòls del Departament d'Agricultura, Ramaderia i Pesca (DARP) en les àrees indicades. La naturalesa del problema plantejat, consistent bàsicament en l'aplicació de tecnologia agrícola (programació de regs, utilització de l'aigua de reg sota condicions de salinitat-sodicitat, plans de fertilització, reg de sòls guixencs, i selecció de sòls segons l'aptitud per als cultius, etc.), i també la grandària de les explotacions i parcel·les, obliguen a disposar d'una acurada informació quantitativa i a plantejar una cartografia de sòls detallada. En aquest treball s'exposen els estudis realitzats fins ara sobre cartografia de sòls i les aplicacions que s'han efectuat o que es preveu que s'efectuaran en un termini curt. Es comenta la problemàtica sorgida en el transcurs de la realització d'aquests treballs cartogràfics, es revisen les aplicacions dutes a terme i les dificultats que s'han trobat en la transmissió i la transferència de la informació generada al sector agrari en general i als tècnics de l'Administració.
Resumo:
Les persones amb dependència necessiten ajuda en la mobilització al llit, que suposa un esforç per a la persona cuidadora. La percepció de dificultat en dur a terme aquestes tasques pot afectar negativament la qualitat de vida de les persones cuidadores i també la de les persones dependents. L’objectiu d’aquest estudi va ser investigar si la utilització de superfícies de reducció de la fricció (tipus llençols lliscants) redueix la dificultat percebuda per les persones cuidadores i les persones dependents en la mobilització al llit. Mètodes: es va dur a terme un estudi quasi experimental a domicili en una mostra seleccionada a conveniència de 12 persones amb dependència i els seus cuidadors en diverses localitats. Es va avaluar la percepció de dificultat en la mobilització per part dels cuidadors i les persones dependents abans i després d’una intervenció formativa simultània a la utilització de llençols lliscants. Resultats: el perfil del cuidador és el d’una dona de mitjana edat amb una relació filial amb la persona dependent i sense formació específica en mètodes de mobilització de persones dependents. El perfil de la persona dependent és el d’una dona major de 80 anys amb una gran dependència que necessita ajuda de la persona que la cuida en les maniobres de redreçament i trasllat al llit. En una escala de percepció de la dificultat de 0 a 10, les mitjanes de les puntuacions observades en els cuidadors abans de la intervenció van ser de 6,9 (DE: 3,1) en el redreçament cap amunt i de 7,1 (DE: 3,1) en el trasllat lateral; després de la intervenció van ser d’1,25 (DE: 1,8) en el redreçament cap amunt i d’1,45 (DE: 1,6) en la mobilització lateral. En la mateixa escala, les mitjanes de les puntuacions observades en les persones dependents abans de la intervenció van ser de 8,6 (DE: 2,3) en el redreçament cap amunt i de 8,6 (DE: 2,3) en el trasllat cap als costats, i després de la intervenció van ser de 2 (DE: 2,6) en els redreçaments cap amunt i de 2 (DE: 2,6) en els trasllats cap als costats. Comparant les puntuacions d’abans i després de la intervenció, observem que la dificultat percebuda per part dels cuidadors de les persones dependents va disminuir de manera significativa (p < 0,001); en les persones dependents també va disminuir, però la disminució no va arribar a ser significativa (p = 0,057). Conclusions: els resultats observats mostren que la utilització de llençols lliscants millora la qualitat de vida dels cuidadors, mesurada per la percepció de la dificultat en les maniobres de mobilització al llit. Així mateix, la seva utilització pot contribuir a un millor envelliment actiu. Caldria fer estudis que permetin quantificar l’esforç físic necessari i el cost-benefici que suposa la utilització d’aquests dispositius.
Resumo:
L’objectiu d’aquest projecte és el desenvolupament d’una eina d’alt nivell pel modelatged’edificis procedurals que permeti copiar i enganxar parts arbitràries d’un edifici en un altre.Els edificis procedurals es basen en l’execució iterativa d’un conjunt de regles, que es podenrepresentar per un graf d’operacions. Per tant, l’operació de copiar i enganxar es centra enla reescriptura dels grafs de regles amb l’objectiu de modificar els edificis per tal de duraquesta tasca. Donat que es treballa sobre la plataforma de recerca anomenada skylineEngine,que s’executa sobre el programari Houdini 3D, l’aplicació també estarà implementada a sobred’aquesta plataforma
Resumo:
La simulació de la realitat és un fenomen que va sorgir fa uns anys per tal de predir esdeveniments sense haver de malbaratar recursos. El problema inicial de la simulació va ser la necessitat de simplificar la realitat a causa de la manca de capacitat dels ordinadors de l’època. Amb aquest projecte volem ajudar, per exemple, a estudis científics sobre la difusió de la contaminació en grans nuclis a causa de l’efecte del vent, càlculs de trajectòries amb forces externes degudes al vent, o incorporar en el món de la multimèdia efectes realistes de vent. El principal objectiu d’aquest projecte és desenvolupar un sistema que permeti realitzar simulacions realistes de vent per un paisatge 2D, i estudiar com el vent és veu afectat per la geometria de l’escena. Un punt important, és que tot ha de ser en temps real. Per aconseguir-ho, utilitzarem tècniques basades en el mètode de Lattice-Boltzmann, el qual consisteix en una xarxa regular que representa el fluid en posicions discretes, i estudiar com flueix. Escollint els paràmetres correctes de la simulació, es pot demostrar que aquest mètode convergeix a les equacions continues de Navier-Stokes, les qual són les més importants per descriure el comportament macroscòpic d’un fluid. Per accelerar tots els càlculs, utilitzarem la capacitat i la potencia de les targes gràfiques, ajustarem l’algorisme per poder-lo utilitzar en paral•lel, tot tenint en compte les restriccions de les GPUs. També haurem de generar un sistema per poder llegir les escenes 2D sobre les que realitzarem la simulació. Finalment, haurem de “pintar” el vent per tal de poder visualitzar el resultat de la simulació
Resumo:
Memristive computing refers to the utilization of the memristor, the fourth fundamental passive circuit element, in computational tasks. The existence of the memristor was theoretically predicted in 1971 by Leon O. Chua, but experimentally validated only in 2008 by HP Labs. A memristor is essentially a nonvolatile nanoscale programmable resistor — indeed, memory resistor — whose resistance, or memristance to be precise, is changed by applying a voltage across, or current through, the device. Memristive computing is a new area of research, and many of its fundamental questions still remain open. For example, it is yet unclear which applications would benefit the most from the inherent nonlinear dynamics of memristors. In any case, these dynamics should be exploited to allow memristors to perform computation in a natural way instead of attempting to emulate existing technologies such as CMOS logic. Examples of such methods of computation presented in this thesis are memristive stateful logic operations, memristive multiplication based on the translinear principle, and the exploitation of nonlinear dynamics to construct chaotic memristive circuits. This thesis considers memristive computing at various levels of abstraction. The first part of the thesis analyses the physical properties and the current-voltage behaviour of a single device. The middle part presents memristor programming methods, and describes microcircuits for logic and analog operations. The final chapters discuss memristive computing in largescale applications. In particular, cellular neural networks, and associative memory architectures are proposed as applications that significantly benefit from memristive implementation. The work presents several new results on memristor modeling and programming, memristive logic, analog arithmetic operations on memristors, and applications of memristors. The main conclusion of this thesis is that memristive computing will be advantageous in large-scale, highly parallel mixed-mode processing architectures. This can be justified by the following two arguments. First, since processing can be performed directly within memristive memory architectures, the required circuitry, processing time, and possibly also power consumption can be reduced compared to a conventional CMOS implementation. Second, intrachip communication can be naturally implemented by a memristive crossbar structure.
Resumo:
The major type of non-cellulosic polysaccharides (hemicelluloses) in softwoods, the partly acetylated galactoglucomannans (GGMs), which comprise about 15% of spruce wood, have attracted growing interest because of their potential to become high-value products with applications in many areas. The main objective of this work was to explore the possibilities to extract galactoglucomannans in native, polymeric form in high yield from spruce wood with pressurised hot-water, and to obtain a deeper understanding of the process chemistry involved. Spruce (Picea abies) chips and ground wood particles were extracted using an accelerated solvent extractor (ASE) in the temperature range 160 – 180°C. Detailed chemical analyses were done on both the water extracts and the wood residues. As much as 80 – 90% of the GGMs in spruce wood, i.e. about 13% based on the original wood, could be extracted from ground spruce wood with pure water at 170 – 180°C with an extraction time of 60 min. GGMs comprised about 75% of the extracted carbohydrates and about 60% of the total dissolved solids. Other substances in the water extracts were xylans, arabinogalactans, pectins, lignin and acetic acid. The yields from chips were only about 60% of that from ground wood. Both the GGMs and other non-cellulosic polysaccharides were extensively hydrolysed at severe extraction conditions when pH dropped to the level of 3.5. Addition of sodium bicarbonate increased the yields of polymeric GGMs at low additions, 2.5 – 5 mM, where the end pH remained around 3.9. However, at higher addition levels the yields decreased, mainly because the acetyl groups in GGMs were split off, leading to a low solubility of GGMs. Extraction with buffered water in the pH range 3.8 – 4.4 gave similar yields as with plain water, but gave a higher yield of polymeric GGMs. Moreover, at these pH levels the hydrolysis of acetyl groups in GGMs was significantly inhibited. It was concluded that hot-water extraction of polymeric GGMs in good yields (up to 8% of wood) demands appropriate control of pH, in a narrow range about 4. These results were supported by a study of hydrolysis of GGM at constant pH in the range of 3.8 – 4.2 where a kinetic model for degradation of GGM was developed. The influence of wood particle size on hot-water extraction was studied with particles in the range of 0.1 – 2 mm. The smallest particles (< 0.1 mm) gave 20 – 40% higher total yield than the coarsest particles (1.25 – 2 mm). The difference was greatest at short extraction times. The results indicated that extraction of GGMs and other polysaccharides is limited mainly by the mass transfer in the fibre wall, and for coarse wood particles also in the wood matrix. Spruce sapwood, heartwood and thermomechnical pulp were also compared, but only small differences in yields and composition of extracts were found. Two methods for isolation and purification of polymeric GGMs, i.e. membrane filtration and precipitation in ethanol-water, were compared. Filtration through a series of membranes with different pore sizes separated GGMs of different molar masses, from polymers to oligomers. Polysaccharides with molar mass higher than 4 kDa were precipitated in ethanol-water. GGMs comprised about 80% of the precipitated polysaccharides. Other polysaccharides were mainly arabinoglucuronoxylans and pectins. The ethanol-precipitated GGMs were by 13C NMR spectroscopy verified to be very similar to GGMs extracted from spruce wood in low yield at a much lower temperature, 90°C. The obtained large body of experimental data could be utilised for further kinetic and economic calculations to optimise technical hot-water extractionof softwoods.
Resumo:
Phaseolus lunatus protein concentrates and the proteases Alcalase(R) and Pepsin-Pancreatin were used for the production of protein hydrolysates that inhibit angiotensin-I converting enzyme (ACE). Protein concentrate obtained from germinated and ungerminated seeds flour was hydrolyzed with Alcalase(R) at enzyme/substrate ratio (E/S) 1/10 and during 0.5 and 2.0 h, respectively. On the other hand, protein concentrate obtained from ungerminated (E/S: 1/10) and germinated (E/S: 1/50) seeds flour was sequentially hydrolyzed with Pepsin-Pancreatin during 1.0 and 3.0 h, respectively. Peptide fractions with ACE inhibitory activity in a range of 0.9 to 3.8 µg/mL were obtained by G-50 gel filtration chromatography and high- performance liquid chromatography C18 reverse phase chromatography. The observed amino acid composition suggests a substantial contribution of hydrophobic residues to the peptides’ inhibitory potency, which potentially acts via blocking of angiotensin II production. These results show that P. lunatus seed proteins are a potential source of ACE inhibitory peptides when hydrolyzed with Alcalase(R) and Pepsin-Pancreatin.
Resumo:
La modélisation géométrique est importante autant en infographie qu'en ingénierie. Notre capacité à représenter l'information géométrique fixe les limites et la facilité avec laquelle on manipule les objets 3D. Une de ces représentations géométriques est le maillage volumique, formé de polyèdres assemblés de sorte à approcher une forme désirée. Certaines applications, tels que le placage de textures et le remaillage, ont avantage à déformer le maillage vers un domaine plus régulier pour faciliter le traitement. On dit qu'une déformation est \emph{quasi-conforme} si elle borne la distorsion. Cette thèse porte sur l’étude et le développement d'algorithmes de déformation quasi-conforme de maillages volumiques. Nous étudions ces types de déformations parce qu’elles offrent de bonnes propriétés de préservation de l’aspect local d’un solide et qu’elles ont été peu étudiées dans le contexte de l’informatique graphique, contrairement à leurs pendants 2D. Cette recherche tente de généraliser aux volumes des concepts bien maitrisés pour la déformation de surfaces. Premièrement, nous présentons une approche linéaire de la quasi-conformité. Nous développons une méthode déformant l’objet vers son domaine paramétrique par une méthode des moindres carrés linéaires. Cette méthode est simple d'implémentation et rapide d'exécution, mais n'est qu'une approximation de la quasi-conformité car elle ne borne pas la distorsion. Deuxièmement, nous remédions à ce problème par une approche non linéaire basée sur les positions des sommets. Nous développons une technique déformant le domaine paramétrique vers le solide par une méthode des moindres carrés non linéaires. La non-linéarité permet l’inclusion de contraintes garantissant l’injectivité de la déformation. De plus, la déformation du domaine paramétrique au lieu de l’objet lui-même permet l’utilisation de domaines plus généraux. Troisièmement, nous présentons une approche non linéaire basée sur les angles dièdres. Cette méthode définit la déformation du solide par les angles dièdres au lieu des positions des sommets du maillage. Ce changement de variables permet une expression naturelle des bornes de distorsion de la déformation. Nous présentons quelques applications de cette nouvelle approche dont la paramétrisation, l'interpolation, l'optimisation et la compression de maillages tétraédriques.
Resumo:
Die zunehmende Vernetzung der Informations- und Kommunikationssysteme führt zu einer weiteren Erhöhung der Komplexität und damit auch zu einer weiteren Zunahme von Sicherheitslücken. Klassische Schutzmechanismen wie Firewall-Systeme und Anti-Malware-Lösungen bieten schon lange keinen Schutz mehr vor Eindringversuchen in IT-Infrastrukturen. Als ein sehr wirkungsvolles Instrument zum Schutz gegenüber Cyber-Attacken haben sich hierbei die Intrusion Detection Systeme (IDS) etabliert. Solche Systeme sammeln und analysieren Informationen von Netzwerkkomponenten und Rechnern, um ungewöhnliches Verhalten und Sicherheitsverletzungen automatisiert festzustellen. Während signatur-basierte Ansätze nur bereits bekannte Angriffsmuster detektieren können, sind anomalie-basierte IDS auch in der Lage, neue bisher unbekannte Angriffe (Zero-Day-Attacks) frühzeitig zu erkennen. Das Kernproblem von Intrusion Detection Systeme besteht jedoch in der optimalen Verarbeitung der gewaltigen Netzdaten und der Entwicklung eines in Echtzeit arbeitenden adaptiven Erkennungsmodells. Um diese Herausforderungen lösen zu können, stellt diese Dissertation ein Framework bereit, das aus zwei Hauptteilen besteht. Der erste Teil, OptiFilter genannt, verwendet ein dynamisches "Queuing Concept", um die zahlreich anfallenden Netzdaten weiter zu verarbeiten, baut fortlaufend Netzverbindungen auf, und exportiert strukturierte Input-Daten für das IDS. Den zweiten Teil stellt ein adaptiver Klassifikator dar, der ein Klassifikator-Modell basierend auf "Enhanced Growing Hierarchical Self Organizing Map" (EGHSOM), ein Modell für Netzwerk Normalzustand (NNB) und ein "Update Model" umfasst. In dem OptiFilter werden Tcpdump und SNMP traps benutzt, um die Netzwerkpakete und Hostereignisse fortlaufend zu aggregieren. Diese aggregierten Netzwerkpackete und Hostereignisse werden weiter analysiert und in Verbindungsvektoren umgewandelt. Zur Verbesserung der Erkennungsrate des adaptiven Klassifikators wird das künstliche neuronale Netz GHSOM intensiv untersucht und wesentlich weiterentwickelt. In dieser Dissertation werden unterschiedliche Ansätze vorgeschlagen und diskutiert. So wird eine classification-confidence margin threshold definiert, um die unbekannten bösartigen Verbindungen aufzudecken, die Stabilität der Wachstumstopologie durch neuartige Ansätze für die Initialisierung der Gewichtvektoren und durch die Stärkung der Winner Neuronen erhöht, und ein selbst-adaptives Verfahren eingeführt, um das Modell ständig aktualisieren zu können. Darüber hinaus besteht die Hauptaufgabe des NNB-Modells in der weiteren Untersuchung der erkannten unbekannten Verbindungen von der EGHSOM und der Überprüfung, ob sie normal sind. Jedoch, ändern sich die Netzverkehrsdaten wegen des Concept drif Phänomens ständig, was in Echtzeit zur Erzeugung nicht stationärer Netzdaten führt. Dieses Phänomen wird von dem Update-Modell besser kontrolliert. Das EGHSOM-Modell kann die neuen Anomalien effektiv erkennen und das NNB-Model passt die Änderungen in Netzdaten optimal an. Bei den experimentellen Untersuchungen hat das Framework erfolgversprechende Ergebnisse gezeigt. Im ersten Experiment wurde das Framework in Offline-Betriebsmodus evaluiert. Der OptiFilter wurde mit offline-, synthetischen- und realistischen Daten ausgewertet. Der adaptive Klassifikator wurde mit dem 10-Fold Cross Validation Verfahren evaluiert, um dessen Genauigkeit abzuschätzen. Im zweiten Experiment wurde das Framework auf einer 1 bis 10 GB Netzwerkstrecke installiert und im Online-Betriebsmodus in Echtzeit ausgewertet. Der OptiFilter hat erfolgreich die gewaltige Menge von Netzdaten in die strukturierten Verbindungsvektoren umgewandelt und der adaptive Klassifikator hat sie präzise klassifiziert. Die Vergleichsstudie zwischen dem entwickelten Framework und anderen bekannten IDS-Ansätzen zeigt, dass der vorgeschlagene IDSFramework alle anderen Ansätze übertrifft. Dies lässt sich auf folgende Kernpunkte zurückführen: Bearbeitung der gesammelten Netzdaten, Erreichung der besten Performanz (wie die Gesamtgenauigkeit), Detektieren unbekannter Verbindungen und Entwicklung des in Echtzeit arbeitenden Erkennungsmodells von Eindringversuchen.
Resumo:
In several computer graphics areas, a refinement criterion is often needed to decide whether to go on or to stop sampling a signal. When the sampled values are homogeneous enough, we assume that they represent the signal fairly well and we do not need further refinement, otherwise more samples are required, possibly with adaptive subdivision of the domain. For this purpose, a criterion which is very sensitive to variability is necessary. In this paper, we present a family of discrimination measures, the f-divergences, meeting this requirement. These convex functions have been well studied and successfully applied to image processing and several areas of engineering. Two applications to global illumination are shown: oracles for hierarchical radiosity and criteria for adaptive refinement in ray-tracing. We obtain significantly better results than with classic criteria, showing that f-divergences are worth further investigation in computer graphics. Also a discrimination measure based on entropy of the samples for refinement in ray-tracing is introduced. The recursive decomposition of entropy provides us with a natural method to deal with the adaptive subdivision of the sampling region
Resumo:
Sota el títol Gestió i tractament d’aigües residuals trobem un llibre que pretén ser una guia útil per a la comunitat que es mou a l’entorn de la gestió i tractament d’aigües residuals. El document es troba estructurat en 5 capítols, el primer dels quals és una presentació de la problemàtica associada a les aigües residuals, així com de les possibles actuacions a portar a terme per a solucionar aquesta qüestió. Ja entrant en la matèria trobem els capítols 2 i 3 on es descriu en detall el sistema de clavegueram i les diferents tecnologies de depuració disponibles. No més important que el disseny d’un sistema de sanejament, és la seva gestió, i per aquest motiu en el capítol 4 s’hi recullen les pautes bàsiques d’operació i manteniment. Finalment, el darrer dels capítols contempla el destí final de les aigües ja depurades: el medi receptor o bé la reutilització d’aquestes
Resumo:
Sota el títol Gestió i tractament d’aigües residuals trobem un llibre que pretén ser una guia útil per a la comunitat que es mou a l’entorn de la gestió i tractament d’aigües residuals. El document es troba estructurat en 5 capítols, el primer dels quals és una presentació de la problemàtica associada a les aigües residuals, així com de les possibles actuacions a portar a terme per a solucionar aquesta qüestió. Ja entrant en la matèria trobem els capítols 2 i 3 on es descriu en detall el sistema de clavegueram i les diferents tecnologies de depuració disponibles. No més important que el disseny d’un sistema de sanejament, és la seva gestió, i per aquest motiu en el capítol 4 s’hi recullen les pautes bàsiques d’operació i manteniment. Finalment, el darrer dels capítols contempla el destí final de les aigües ja depurades: el medi receptor o bé la reutilització d’aquestes
Resumo:
Creació d'un entorn de treball per tal de visualitzar models tridimensionals en temps real amb dos objectius: proporcionar una interfície gràfica per poder visualitzar interactivament una escena, modificant-ne els seus elements i aconseguir un disseny que faci el projecte altament revisable i reutilitzable en el futur, i serveixi per tant de plataforma per provar altres projectes
Resumo:
Constatar si los profesores de EGB realizan o no una planificación o programación al preparar su tarea diaria. Conocer los niveles o formas de planificar. Confirmar las diferencias de planificación entre profesores de EGB con y sin experiencia. Comprender los elementos que caracterizan y diferencian los procesos de planificación, enseñanza e interacción en los profesores con y sin experiencia. Comprobar la validez de la utilización conjunta de técnicas de investigación cuantitativas y cualitativas. Las hipótesis son las siguientes: H1. Los profesores de EGB de Mallorca realizan una planificación o programación previa a su tarea docente. H2. Aquellos que planifican su tarea no siguen un modelo único. SH 2.1. Utilizan la planificación anual y/o trimestral. SH 2.2. Utilizan la planificación quincenal y-o semanal. H3. La planificación que realizan los profesores de EGB varía significativamente en función de los años de experiencia docente. SH 3.1. Varía el tipo de planificación. SH 3.2. Varía la elaboración en grupo. SH 3.3. Varían las finalidades atribuidas a la planificación anual y-o trimestral. SH 3.4. Varía la utilización de los objetivos educativos que recogen los programas renovados como fuente básica en la elaboración de la planificación anual y-o trimestral. SH 3.5. Varían los elementos que se incluyen en la planificación anual y-o trimestral. SH 3.6. Varía la finalidad básica de la planificación quincenal y-o semanal. SH 3.7. Varían los elementos que se incluyen en la planificación quincenal y-o semanal. SH 3.8. Varía la preparación diaria de la tarea docente. H4. La media del rendimiento de los alumnos de profesores con experiencia será más alta que la de los alumnos de profesores sin experiencia. Muestra primera: 301 profesores de EGB de las 50 escuelas seleccionadas al azar en el curso 87-88. Segunda muestra: dos grupos de 15 sujetos seleccionados en función de su experiencia docente y el tipo de centro. Tercera muestra: selección de dos aulas de quinto de EGB, 30 y 33 alumnos, con sus correspondientes maestros -uno con más experiencia que otro, uno centrado en el orden y adquisición de hábitos de estudio y el otro no. En el ámbito teórico se analizan las investigaciones producidas en el campo de la didáctica, diferenciando el paradigma proceso-producto, el mediacional y el ecológico. Con esta revisión se constata la validez de ciertas premisas conceptuales y metodológicas. Seguidamente, se realiza una reflexión sobre los elementos que conforman el currículum y se analiza la concreción de los distintos modelos en la planificación diaria del profesorado. El apartado experimental queda perfectamente reflejado en los demás apartados. Se utilizan conjuntamente instrumentos cuantitativos y cualitativos. A la primera muestra se le aplica un cuestionario para recoger información relativa a las tres primeras hipótesis. A la segunda muestra se le aplica una entrevista sobre la planificación que realizan los docentes. A la tercera muestra se le aplica una observación no participante de la planificación y enseñanza de una unidad didáctica de sociales para poder realizar un análisis cualitativo de los profesores con y sin experiencia. Posteriormente se realiza una prueba de rendimiento de los alumnos, test escrito de siete ítems, para poder valorar la última hipótesis. A los profesores se les insta a reflexionar mediante una entrevista en la que se escucha el registro auditivo de la explicación de la unidad didáctica para que así el profesor pueda verbalizar sus pensamientos y explicar las decisiones que ha tomado. Se dispone del paquete informático SPSSX para procesar los datos. Para las dos primeras hipótesis se utiliza el cálculo de los intervalos de confianza. Para las SH 3.1, 3.3, 3.5, 3.7 y 3.8 se utiliza la prueba de comparación de varias reparticiones observadas. El valor obtenido se compara con la ley de x2. Para las SH 3.2, 3.4 y 3.6 se utiliza la prueba de comparación de las dos proporciones observadas en grupos con datos independientes. Para la cuarta hipótesis se utiliza la prueba de comparación de dos medias observadas en muestras pequeñas con datos independientes. La contrastación se realiza con la ley de Student-Fisher. Se confirma la primera hipótesis al constatar que un 80 por ciento de los profesores de EGB realiza una programación o planificación previa. Se confirma la segunda hipótesis al existir diferentes modelos de planificación. La mayoría de planificaciones tienen un carácter anual y-o trimestral. Este tipo de programación cumple una finalidad organizativa, se elabora a partir de los programas renovados del MEC e incluye básicamente los objetivos de cada curso y el contenido básico de cada asignatura. Un 49,5 por ciento afirma que se encarga de su confección el equipo docente del mismo curso o ciclo. La programación quincenal y-o semanal tiene como finalidad primordial la selección de actividades de aprendizaje para los alumnos; varían los aspectos incluidos en su redacción. La tercera hipótesis queda rechazada al no variar excesivamente la planificación en función de los años de experiencia docente. Se rechaza la cuarta hipótesis ya que el rendimiento de los alumnos no depende de la experiencia docente de sus profesores. Urge incluir en los programas de formación del profesorado elementos instruccionales que propicien la reflexión sobre la propia tarea introduciendo un esquema de acción a tres niveles: dotar de herramientas y técnicas de investigación, planificación y observación; examinar críticamente la propia inserción profesional como profesor y propiciar un enfoque crítico a los futuros maestros. Respecto al apartado curricular, se puede proponer un modelo empírico adjuntando una nueva figura, la de diseñador y evaluador del currículum para que dinamice la relación teoría-práctica, posibilitando la reflexión sobre situaciones concretas del aula. Es necesario desarrollar nuevas investigaciones sobre el tema de carácter descriptivo, estadístico, experimental y cualitativo. Metodológicamente conviene investigar en equipo y tratar un solo problema a la vez. Se debe conocer el concepto funcional de profesor existente tras cada modelo de diseño curricular.