945 resultados para Advantages and disadvantages


Relevância:

100.00% 100.00%

Publicador:

Resumo:

This paper presents an experimental and systematic investigation about how geometric parameters on a biplane configuration have an influence on aerodynamic parameters. This experimental investigation has been developed in a two-dimensional approach. Theoretical studies about biplanes configurations have been developed in the past, but there is not enough information about experimental wind tunnel data at low Reynolds number. This two-dimensional study is a first step to further tridimensional investigations about the box wing configuration. The main objective of the study is to find the relationships between the geometrical parameters which present the best aerodynamic behavior: the highest lift, the lowest drag and the lowest slope of the pitching moment. A tridimensional wing-box model will be designed following the pattern of the two dimensional study conclusions. It will respond to the geometrical relationships that have been considered to show the better aerodynamic behavior. This box-wing model will be studied in the aim of comparing the advantages and disadvantages between this biplane configuration and the plane configuration, looking for implementing the box-wing in the UAV?s field. Although the box wing configuration has been used in a small number of existing UAV, prestigious researchers have found it as a field of high aerodynamic and structural potential.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El estudio de los ciclos del combustible nuclear requieren de herramientas computacionales o "códigos" versátiles para dar respuestas al problema multicriterio de evaluar los actuales ciclos o las capacidades de las diferentes estrategias y escenarios con potencial de desarrollo en a nivel nacional, regional o mundial. Por otra parte, la introducción de nuevas tecnologías para reactores y procesos industriales hace que los códigos existentes requieran nuevas capacidades para evaluar la transición del estado actual del ciclo del combustible hacia otros más avanzados y sostenibles. Brevemente, esta tesis se centra en dar respuesta a las principales preguntas, en términos económicos y de recursos, al análisis de escenarios de ciclos de combustible, en particular, para el análisis de los diferentes escenarios del ciclo del combustible de relativa importancia para España y Europa. Para alcanzar este objetivo ha sido necesaria la actualización y el desarrollo de nuevas capacidades del código TR_EVOL (Transition Evolution code). Este trabajo ha sido desarrollado en el Programa de Innovación Nuclear del CIEMAT desde el año 2010. Esta tesis se divide en 6 capítulos. El primer capítulo ofrece una visión general del ciclo de combustible nuclear, sus principales etapas y los diferentes tipos utilizados en la actualidad o en desarrollo para el futuro. Además, se describen las fuentes de material nuclear que podrían ser utilizadas como combustible (uranio y otros). También se puntualizan brevemente una serie de herramientas desarrolladas para el estudio de estos ciclos de combustible nuclear. El capítulo 2 está dirigido a dar una idea básica acerca de los costes involucrados en la generación de electricidad mediante energía nuclear. Aquí se presentan una clasificación de estos costos y sus estimaciones, obtenidas en la bibliografía, y que han sido evaluadas y utilizadas en esta tesis. Se ha incluido también una breve descripción del principal indicador económico utilizado en esta tesis, el “coste nivelado de la electricidad”. El capítulo 3 se centra en la descripción del código de simulación desarrollado para el estudio del ciclo del combustible nuclear, TR_EVOL, que ha sido diseñado para evaluar diferentes opciones de ciclos de combustibles. En particular, pueden ser evaluados las diversos reactores con, posiblemente, diferentes tipos de combustibles y sus instalaciones del ciclo asociadas. El módulo de evaluaciones económica de TR_EVOL ofrece el coste nivelado de la electricidad haciendo uso de las cuatro fuentes principales de información económica y de la salida del balance de masas obtenido de la simulación del ciclo en TR_EVOL. Por otra parte, la estimación de las incertidumbres en los costes también puede ser efectuada por el código. Se ha efectuado un proceso de comprobación cruzada de las funcionalidades del código y se descrine en el Capítulo 4. El proceso se ha aplicado en cuatro etapas de acuerdo con las características más importantes de TR_EVOL, balance de masas, composición isotópica y análisis económico. Así, la primera etapa ha consistido en el balance masas del ciclo de combustible nuclear actual de España. La segunda etapa se ha centrado en la comprobación de la composición isotópica del flujo de masas mediante el la simulación del ciclo del combustible definido en el proyecto CP-ESFR UE. Las dos últimas etapas han tenido como objetivo validar el módulo económico. De este modo, en la tercera etapa han sido evaluados los tres principales costes (financieros, operación y mantenimiento y de combustible) y comparados con los obtenidos por el proyecto ARCAS, omitiendo los costes del fin del ciclo o Back-end, los que han sido evaluado solo en la cuarta etapa, haciendo uso de costes unitarios y parámetros obtenidos a partir de la bibliografía. En el capítulo 5 se analizan dos grupos de opciones del ciclo del combustible nuclear de relevante importancia, en términos económicos y de recursos, para España y Europa. Para el caso español, se han simulado dos grupos de escenarios del ciclo del combustible, incluyendo estrategias de reproceso y extensión de vida de los reactores. Este análisis se ha centrado en explorar las ventajas y desventajas de reprocesado de combustible irradiado en un país con una “relativa” pequeña cantidad de reactores nucleares. Para el grupo de Europa se han tratado cuatro escenarios, incluyendo opciones de transmutación. Los escenarios incluyen los reactores actuales utilizando la tecnología reactor de agua ligera y ciclo abierto, un reemplazo total de los reactores actuales con reactores rápidos que queman combustible U-Pu MOX y dos escenarios del ciclo del combustible con transmutación de actínidos minoritarios en una parte de los reactores rápidos o en sistemas impulsados por aceleradores dedicados a transmutación. Finalmente, el capítulo 6 da las principales conclusiones obtenidas de esta tesis y los trabajos futuros previstos en el campo del análisis de ciclos de combustible nuclear. ABSTRACT The study of the nuclear fuel cycle requires versatile computational tools or “codes” to provide answers to the multicriteria problem of assessing current nuclear fuel cycles or the capabilities of different strategies and scenarios with potential development in a country, region or at world level. Moreover, the introduction of new technologies for reactors and industrial processes makes the existing codes to require new capabilities to assess the transition from current status of the fuel cycle to the more advanced and sustainable ones. Briefly, this thesis is focused in providing answers to the main questions about resources and economics in fuel cycle scenario analyses, in particular for the analysis of different fuel cycle scenarios with relative importance for Spain and Europe. The upgrade and development of new capabilities of the TR_EVOL code (Transition Evolution code) has been necessary to achieve this goal. This work has been developed in the Nuclear Innovation Program at CIEMAT since year 2010. This thesis is divided in 6 chapters. The first one gives an overview of the nuclear fuel cycle, its main stages and types currently used or in development for the future. Besides the sources of nuclear material that could be used as fuel (uranium and others) are also viewed here. A number of tools developed for the study of these nuclear fuel cycles are also briefly described in this chapter. Chapter 2 is aimed to give a basic idea about the cost involved in the electricity generation by means of the nuclear energy. The main classification of these costs and their estimations given by bibliography, which have been evaluated in this thesis, are presented. A brief description of the Levelized Cost of Electricity, the principal economic indicator used in this thesis, has been also included. Chapter 3 is focused on the description of the simulation tool TR_EVOL developed for the study of the nuclear fuel cycle. TR_EVOL has been designed to evaluate different options for the fuel cycle scenario. In particular, diverse nuclear power plants, having possibly different types of fuels and the associated fuel cycle facilities can be assessed. The TR_EVOL module for economic assessments provides the Levelized Cost of Electricity making use of the TR_EVOL mass balance output and four main sources of economic information. Furthermore, uncertainties assessment can be also carried out by the code. A cross checking process of the performance of the code has been accomplished and it is shown in Chapter 4. The process has been applied in four stages according to the most important features of TR_EVOL. Thus, the first stage has involved the mass balance of the current Spanish nuclear fuel cycle. The second stage has been focused in the isotopic composition of the mass flow using the fuel cycle defined in the EU project CP-ESFR. The last two stages have been aimed to validate the economic module. In the third stage, the main three generation costs (financial cost, O&M and fuel cost) have been assessed and compared to those obtained by ARCAS project, omitting the back-end costs. This last cost has been evaluated alone in the fourth stage, making use of some unit cost and parameters obtained from the bibliography. In Chapter 5 two groups of nuclear fuel cycle options with relevant importance for Spain and Europe are analyzed in economic and resources terms. For the Spanish case, two groups of fuel cycle scenarios have been simulated including reprocessing strategies and life extension of the current reactor fleet. This analysis has been focused on exploring the advantages and disadvantages of spent fuel reprocessing in a country with relatively small amount of nuclear power plants. For the European group, four fuel cycle scenarios involving transmutation options have been addressed. Scenarios include the current fleet using Light Water Reactor technology and open fuel cycle, a full replacement of the initial fleet with Fast Reactors burning U-Pu MOX fuel and two fuel cycle scenarios with Minor Actinide transmutation in a fraction of the FR fleet or in dedicated Accelerator Driven Systems. Finally, Chapter 6 gives the main conclusions obtained from this thesis and the future work foreseen in the field of nuclear fuel cycle analysis.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A nivel mundial, el cáncer de mama es el tipo de cáncer más frecuente además de una de las principales causas de muerte entre la población femenina. Actualmente, el método más eficaz para detectar lesiones mamarias en una etapa temprana es la mamografía. Ésta contribuye decisivamente al diagnóstico precoz de esta enfermedad que, si se detecta a tiempo, tiene una probabilidad de curación muy alta. Uno de los principales y más frecuentes hallazgos en una mamografía, son las microcalcificaciones, las cuales son consideradas como un indicador importante de cáncer de mama. En el momento de analizar las mamografías, factores como la capacidad de visualización, la fatiga o la experiencia profesional del especialista radiólogo hacen que el riesgo de omitir ciertas lesiones presentes se vea incrementado. Para disminuir dicho riesgo es importante contar con diferentes alternativas como por ejemplo, una segunda opinión por otro especialista o un doble análisis por el mismo. En la primera opción se eleva el coste y en ambas se prolonga el tiempo del diagnóstico. Esto supone una gran motivación para el desarrollo de sistemas de apoyo o asistencia en la toma de decisiones. En este trabajo de tesis se propone, se desarrolla y se justifica un sistema capaz de detectar microcalcificaciones en regiones de interés extraídas de mamografías digitalizadas, para contribuir a la detección temprana del cáncer demama. Dicho sistema estará basado en técnicas de procesamiento de imagen digital, de reconocimiento de patrones y de inteligencia artificial. Para su desarrollo, se tienen en cuenta las siguientes consideraciones: 1. Con el objetivo de entrenar y probar el sistema propuesto, se creará una base de datos de imágenes, las cuales pertenecen a regiones de interés extraídas de mamografías digitalizadas. 2. Se propone la aplicación de la transformada Top-Hat, una técnica de procesamiento digital de imagen basada en operaciones de morfología matemática. La finalidad de aplicar esta técnica es la de mejorar el contraste entre las microcalcificaciones y el tejido presente en la imagen. 3. Se propone un algoritmo novel llamado sub-segmentación, el cual está basado en técnicas de reconocimiento de patrones aplicando un algoritmo de agrupamiento no supervisado, el PFCM (Possibilistic Fuzzy c-Means). El objetivo es encontrar las regiones correspondientes a las microcalcificaciones y diferenciarlas del tejido sano. Además, con la finalidad de mostrar las ventajas y desventajas del algoritmo propuesto, éste es comparado con dos algoritmos del mismo tipo: el k-means y el FCM (Fuzzy c-Means). Por otro lado, es importante destacar que en este trabajo por primera vez la sub-segmentación es utilizada para detectar regiones pertenecientes a microcalcificaciones en imágenes de mamografía. 4. Finalmente, se propone el uso de un clasificador basado en una red neuronal artificial, específicamente un MLP (Multi-layer Perceptron). El propósito del clasificador es discriminar de manera binaria los patrones creados a partir de la intensidad de niveles de gris de la imagen original. Dicha clasificación distingue entre microcalcificación y tejido sano. ABSTRACT Breast cancer is one of the leading causes of women mortality in the world and its early detection continues being a key piece to improve the prognosis and survival. Currently, the most reliable and practical method for early detection of breast cancer is mammography.The presence of microcalcifications has been considered as a very important indicator ofmalignant types of breast cancer and its detection and classification are important to prevent and treat the disease. However, the detection and classification of microcalcifications continue being a hard work due to that, in mammograms there is a poor contrast between microcalcifications and the tissue around them. Factors such as visualization, tiredness or insufficient experience of the specialist increase the risk of omit some present lesions. To reduce this risk, is important to have alternatives such as a second opinion or a double analysis for the same specialist. In the first option, the cost increases and diagnosis time also increases for both of them. This is the reason why there is a great motivation for development of help systems or assistance in the decision making process. This work presents, develops and justifies a system for the detection of microcalcifications in regions of interest extracted fromdigitizedmammographies to contribute to the early detection of breast cancer. This systemis based on image processing techniques, pattern recognition and artificial intelligence. For system development the following features are considered: With the aim of training and testing the system, an images database is created, belonging to a region of interest extracted from digitized mammograms. The application of the top-hat transformis proposed. This image processing technique is based on mathematical morphology operations. The aim of this technique is to improve the contrast betweenmicrocalcifications and tissue present in the image. A novel algorithm called sub-segmentation is proposed. The sub-segmentation is based on pattern recognition techniques applying a non-supervised clustering algorithm known as Possibilistic Fuzzy c-Means (PFCM). The aim is to find regions corresponding to the microcalcifications and distinguish them from the healthy tissue. Furthermore,with the aim of showing themain advantages and disadvantages this is compared with two algorithms of same type: the k-means and the fuzzy c-means (FCM). On the other hand, it is important to highlight in this work for the first time the sub-segmentation is used for microcalcifications detection. Finally, a classifier based on an artificial neural network such as Multi-layer Perceptron is used. The purpose of this classifier is to discriminate froma binary perspective the patterns built from gray level intensity of the original image. This classification distinguishes between microcalcifications and healthy tissue.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Actualmente las redes VSAT (Very Small Aperture Terminal) están adquiriendo una mayor importancia en las comunicaciones por satélite debido a las nuevas aplicaciones que se están desarrollando tanto a nivel empresarial como a nivel de usuario final. El presente proyecto pretende hacer un estudio de este tipo de red para presentarla como una solución al problema de querer conectar estaciones dispersas, que por el perfil del terreno hace difícil la conexión de las mismas a través de las redes terrestres convencionales. Los nuevos estándares están haciendo que este tipo de redes proliferen muy deprisa ya que se consigue una mayor flexibilidad que con los estándares precedentes para este tipo de red. En concreto, en este proyecto se ha estudiado el estándar abierto DVB-S desarrollado por el grupo de trabajo DVB por ser uno de los más aceptado internacionalmente. Para comprender este sistema de comunicaciones, el proyecto está estructurado en dos partes. En la primera parte se hace una revisión de cómo han evolucionado las comunicaciones satelitales VSAT, indicando las ventajas y desventajas de su implementación y sobre todo la orientación que éstas muestran a la utilización de los estándares DVB. Posteriormente se realiza un estudio de los estándares DVB-S y DVBRCS en donde se profundiza en conceptos claves tales como el Multiplexado de Transporte MPEG-2, los mecanismos de envío de mensajes de señalización, etc. En la segunda parte del proyecto se presta atención a la seguridad de la red, analizando los mecanismos propios que presenta el estándar DVB así como los diferentes protocolos de seguridad existentes en las capas superiores para una protección adicional. Para concluir el proyecto se han creado dos aplicaciones, la primera como método didáctico para comprender mejor el comportamiento de las redes VSAT con el estándar DVB-S, y una segunda aplicación con carácter comercial para la transferencia de ficheros de manera segura con características específicas, enfocada particularmente en redes VSAT, aunque siendo posible su uso en otras redes. ABSTRACT. Nowadays VSAT networks (Very Small Aperture Terminal) are becoming more important in satellite communications, due to several new applications that are being developed both at company level and end user level. This project aims to make a study of this type of network to present it as a solution to the problem of wanting to connect scattered stations, because the terrain profile makes difficult to connect them via conventional terrestrial networks. New standards are making that such networks proliferate very quickly for the reason that a more flexibility than the previous standards for this type of network is achieved. Specifically, this project has studied the open standard DVB-S developed by the DVB workgroup as one of the most internationally accepted. To understand this communication system, this project is structured in two different parts: On one hand, in the first part a review about how VSAT satellite communications have evolved, indicating the advantages and disadvantages of its implementation and above all, the guidance that they show to the use of the DVB standards. Subsequently, a study of the DVB-S and DVB-RCS standards is developed, where delves into key concepts such as MPEG-2 Multiplexed Transport, mechanisms of transmission of signaling messages, etc. On the other hand, in the second part of the project, we focus on network security, analyzing the mechanisms presented by the DVB standard and various existing security protocols in the upper layers for an extra protection. To complete the project two different applications have been developed: the first one as a teaching method to better understand the behavior of VSAT networks in DVB-S standard, and the second one with a commercial basis for transferring files securely with specific features applications focused particularly in VSAT networks, although with a possible use on other networks.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En las últimas dos décadas, los productores han plantado olivares en seto para lograr la mecanización de la poda y en especial de la cosecha, reducir los costes de mano de obra y permitir intervenciones de manejo rápidas y oportunas. Los olivares se desarrollaron en ausencia del conocimiento científico, sobre el diseño óptimo de la estructura de la copa, necesario para incrementar la producción y calidad del aceite. En contraste, con los árboles muy espaciados y distribuidos uniformemente de las plantaciones tradicionales, en el olivar en seto hay una marcada variabilidad espacial y temporal de la radiación disponible en función del diseño de la plantación. Así, conocer la respuesta fisiológica y productiva del olivo a la radiación resulta fundamental en el olivar en seto. La orientación de las filas y el ancho de calle son aspectos que se deciden en el diseño de las plantaciones en seto. Ambos aspectos modifican la radiación interceptada por la canopia y, por lo tanto, pueden incidir en la productividad y calidad del aceite. Una vez realizada la plantación no pueden ser modificados, y así las ventajas o desventajas permanecerán fijas durante toda la vida productiva del olivar. A pesar de esto, el impacto de la orientación de las filas y el ancho de calle han recibido poca atención en olivos y en la mayoría de los frutales conducidos en seto. Por todo ello, los objetivos principales de esta tesis fueron, (i) evaluar el efecto de la orientación del seto y del ancho de calle, sobre la productividad y calidad del aceite, (ii) evaluar un modelo que estime la radiación dentro de la canopia. Este modelo permitirá cuantificar las relaciones entre la radiación y los componentes del rendimiento y calidad del aceite de olivares en setos con un amplio rango de estructuras y (iii) conocer la variabilidad en las características de las hojas (morfológicas y fisiológicas) y de los tejidos del fruto (tamaño y composición) en diferentes posiciones de la copa de los setos. Para ello, se dispuso de 3 ensayos de olivar en seto (cv. Arbequina) implantados en 2008 en el municipio de La Puebla de Montalbán, Toledo. La primera cosecha fue en 2010 y a partir del 2012 los setos formaron una copa continua. A partir de ese año, los setos se mantuvieron mediante poda, con similar ancho (~1 m) y altura (~2,5 m), acordes a las dimensiones de la cosechadora vendimiadora. En los años 2012 y 2013 se estudió en profundidad la respuesta de las plantas de estos ensayos. En el ensayo 1, los setos fueron plantados con cuatro orientaciones de filas: N–S, NE–SO, NO–SE y E–O y el mismo ancho de calle (4 m). En los otros dos ensayos, los setos fueron plantados con tres anchos de calle (5,0, 4,0 y 2,5 m), y con filas orientadas N–S (ensayo 2) y E–O (ensayo 3). La respuesta de la orientación de las filas se evaluó a nivel de seto y de estratos del seto (alturas y caras), a través de mediciones del crecimiento de brotes, componentes reproductivos, características y temperatura del fruto, estado hídrico del suelo y de las plantas, fotosíntesis neta de las hojas y contenido de ácidos grasos. Los setos orientados NE–SO (2,7 t/ha) lograron la mayor producción de aceite, que fue significativamente más alta que la de los setos E–O (2,3 t/ha). La producción de aceite de los setos E–O no se diferenció estadísticamente de los setos N–S (2,5 t/ha). Las diferencias productivas entre orientaciones fueron explicadas por el número de frutos en cosecha, a su vez la variación en el número de frutos estuvo asociada al efecto de la orientación de las filas sobre el número de yemas desarrolladas y el porcentaje de inflorescencias fértiles. Las hojas en las caras iluminadas de los setos NE–SO y N–S presentaron mayor tasa fotosintética a la mañana (~10.0 h) que los setos E–O, en el año 2012, pero no en 2013. La orientación de las filas no tuvo un efecto significativo en el contenido de ácidos grasos de los aceites extraídos, esto ocurrió a pesar de variaciones en la temperatura interna de los frutos (3 °C) y de la radiación (40%) entre las distintas caras de los setos. La orientación del seto afectó significativamente al contenido relativo de agua del suelo, donde setos E–O presentaron valores más altos (12%) que setos N–S durante el verano y otoño. Sin embargo, el potencial hídrico de tallo fue similar entre orientaciones. En los ensayos 2 y 3, se evaluó el efecto que produce, a nivel de seto y de estratos (caras y alturas), reducir el ancho de calle de 5,0 a 4,0 y 2,5 m, en un seto orientado N–S y otro E–O, respectivamente. La relación entre altura/ancho de calle libre aumentó 0,6 a 0,8 y 1,6, al reducir 5,0, 4,0 y 2,5 m el ancho de calle, mientras la longitud de seto y el volumen de copa por hectárea incrementó 100% al reducir de 5,0 a 2,5 m, el ancho de calle. En los setos orientados N–S, la producción de aceite por ha acumulada en 4 campañas, incrementó significativamente un 52 %, al reducir de 5,0 a 2,5 m el ancho de calle. Los setos N–S con calle más estrecha (2,5 m) tuvieron un 19% menos frutos que los setos con calle más ancha (5,0 m) y a su vez el 60% de los mismos se localizaron los estratos altos de la canopia de los setos con calles estrecha en comparación al 40% en setos con calle de 5,0 m. En los estratos más bajos de los setos con calles de 2,5m hubo menor crecimiento de los brotes y los frutos tuvieron menor peso seco, contenido de aceite y madurez, que los frutos en los estratos bajos de los setos a 5,0 m. Los componentes del rendimiento y características de los frutos (agua y madurez) fueron similares entre la caras E y O, independientemente del ancho de calle. En los setos orientados E–O, la producción de aceite por ha acumulada en 4 campañas, no respondió significativamente al ancho de calle, debido a una disminución significativa en el número de frutos y producción de aceite por m de seto, al reducir de 5,0 a 2,5 m, el ancho de calle. En los setos orientados E–O, con calles de 5,0 m, los frutos presentaron similar peso seco, contenido de aceite y agua, en las caras S y N, sin embargo, cuando la calle fue reducida a 2,5, los frutos de la cara S fueron más pesado y maduros que en la cara N. Independientemente del ancho de calle y de la orientación del seto, el aceite presentó mayor contenido de ácidos palmitoleico, palmítico, esteárico y linoleico en los frutos del estrato más alto de la canopia disminuyendo hacia la base. En contraste, el contenido de ácido oleico aumentó desde el estrato más alto hacia la base de los setos. Las diferencias en el contenido de ácidos grasos entre la parte alta y baja de los setos, incrementó al reducir el ancho de calle en los setos N–S, pero no en los E-O. En conclusión, en olivares en seto, reducir el ancho de calle permite incrementar la producción de aceite, en setos orientados N–S, pero no en E–O. Un modelo que estima la cantidad y distribución de la radiación en toda la copa del seto, fue utilizado para estimar la radiación interceptada en distintos estratos del seto. El modelo requiere un valor del coeficiente de extinción (k) para estimar la transmisión de radiación a través de la copa, el cual fue obtenido experimentalmente (k=1,2). Utilizando los datos del ensayo 1, un único modelo lineal relacionó el peso seco y el rendimiento graso de setos con la radiación interceptada por los distintos estratos de setos con cuatro orientaciones de filas. La densidad de frutos fue también relacionada con la radiación, pero más débilmente. En los setos orientados N–S, plantados con tres anchos de calles, (ensayo 2) el contenido de ácidos palmitoleico y linoleico del aceite incrementó linealmente con el incremento de la radiación interceptada, mientras el contenido ácido oleico disminuyó linealmente con el incremento de la radiación. El contenido de ácidos grasos del aceite no estuvo relacionado con la radiación interceptada en setos orientados E–O (Ensayo 3). En los setos N–S y E–O, plantados con anchos de calle de 2,5 m, se estudiaron las interacciones entre la radiación y características de las hojas, número de fruto, tamaño y composición de los frutos a nivel de órgano, tejido y células. Independientemente de la orientación del seto, el área y el contenido de clorofila de las hojas incrementaron significativamente en los estratos más bajos de los setos. Mientras, las hojas de los estratos medios del seto presentaron mayor capacidad fotosintética que en los estratos bajos y alto de los setos. Los estratos del seto que interceptaron más radiación produjeron frutos con mayor tamaño y contenido de aceite en el mesocarpo, sin efectos sobre el tamaño y composición del endocarpo. A nivel celular, los frutos expuestos a mayor nivel de radiación desarrollaron en el mesocarpo células de mayor tamaño en comparación a frutos menos expuestos, mientras el número de células no fue afectado. Adicionalmente, el número y tamaño de las células estuvo relacionado con la composición del mesocarpo en términos de aceite, agua y peso seco menos aceite. Esta tesis, contribuye, desde una perspectiva integral del cultivo del olivo, a cuantificar el impacto de la orientación y ancho de calle sobre la producción y calidad del aceite en olivares conducidos en setos. El análisis y discusión de la relación entre la radiación y los componentes del rendimiento y calidad del aceite, puede ayudar a diseñar plantaciones en seto con dimensiones óptimas para la intercepción de la radiación. ABSTRACT In the last two decades, olive hedgerow system has been established by commercial growers to allow continuous mechanized pruning and especially harvest, reduce costs of manual labour and allow more rapid and timely management interventions. The adoption of hedgerow was done in the absence of adequate scientific knowledge of the impact of this orchard structure and associated mechanization on tree response, yield and quality, after centuries in low-density orchards and open-formed trees. The row orientation and width alley are fundamental aspects in the hedgerow design and have been scarcely studied in olive. Both aspects modify the radiation intercepted by the canopy, and consequently the productivity and oil quality, and once defined in orchard planting cannot be changed, so advantages and disadvantages remain fixed for the lifespan of the orchard. The main objectives of this thesis were to (i) evaluate the impact of the row orientation and width alley on productivity and oil quality by the measurements of profile of the determining processes of shoot growth, fruit temperature, yield components and fruit and oil characteristics on opposite sides of olive hedgerows. Additionally, the effect of row orientation on the plant water status was also evaluated; (ii) evaluate a mathematical model for estimating the radiation within the canopy and quantify the relationships between the radiation estimated and yield components and oil quality in olive hedgerows under wide range of structures and; (iii) determine the variability in the characteristics of the leaves (morphological and physiological) and fruit tissues (size and composition) in different positions of the hedgerows canopy. Three plots of olive hedgerows (cv. Arbequina) planted in 2008 in La Puebla de Montalbán, Toledo were evaluated during the 2012 and 2013 seasons. The hedgerows were maintained by lateral pruning and topping with the same width (1 m) and height (2.5 m) compatible with the intended harvester. In a plot (experiment 1), the hedgerows were planted with the same width alley (4 m) and four row orientations: N–S, NE–SW, NW–SE and E–W. Other two plots (Experiments 2 and 3) separated by approximately 100 m were planted with N–S and E–O oriented rows and three alley widths in each orientation: 5.0, 4.0 and 2.5 m. In the exp. 1, maximum fruit yield were achieved by NE–SW and NW–SW (15.7 t/ha). Of these, NE–SW achieved the highest oil yield (2.7 t/ha). There were no differences in fruit or oil yield between N–S (2.5 t oil/ha) and E–W (2.3 t oil/ha) orientations. Fruit number was the most important component to explain these differences, by previous influence on number of bud developed and percentage of fertile inflorescences. Fruit maturity and oil quality on both sides of the hedgerows were not affected by row orientation. This occurred despite significant variations in the internal fruit temperature, which was closely related to the irradiance received by the canopy and the time of day. Additionally, row orientation significantly affected the relative water content of the soil, where E–W oriented hedgerows showed consistently higher values than N–S during summer-autumn season. The stem water potential at midday, however, was similar between orientations, revealing possible lower water consumption of E–W than N–S oriented hedgerows. In the exp. 2, regardless of row orientation, reduction of row spacing from 5.0 to 4.0 and 2.5 m increases the ratio of canopy depth to free alley width (Al/An) from 0.6 to 0.8 and 1.6, respectively, and ads 25 and 100 % more hedgerow length per ha. In N–S oriented hedgerows, oil production per ha increased significantly by 14 and 52 % in 4.0 m and 2.5 m relative to 5.0 m row spacing, the effect being proportionally less than the increase in hedgerow length per ha. Hedgerows spaced 2.5 m with Al/An = 1.6 produced relatively fewer fruits per unit length than did wider spacings and were preferentially distributed in upper layers. Fruits located at the bottom of the canopy were smaller, with lower oil content and were less mature. In E–W oriented hedgerows, oil production per ha did not respond significantly to row spacing, despite the doubling of row length from the 5.0 to the 2.5 m row spacing. The explanation was found in fewer fruit per unit length of hedgerow and smaller oil content at 2.5 m than 5.0 m row spacing, averaged over the experimental period. In E–W hedgerows spaced at 5.0 m with Al/An = 0.6, the vertical profiles of fruit characteristics (mass, oil and water contents, and maturity) were similar between opposing sides, but at 4.0 m (Al/An= 0.8) and 2.5 m (Al/An=1.6) spacings, fruits on the S side were heavier and more mature than on N side. The oil extracted from fruits harvested at different heights of N–S and E–W oriented hedgerows showed higher palmitoleic, palmitic, stearic and linoleic contents at the canopy top decreasing toward base. The oleic content was reverse, increased from top to base. In N–S hedgerows, vertical gradients increased by reducing the alley width, but not in the E–W oriented hedgerows. The simulation of internal canopy irradiance was related in a single relationship (R2 = 0.63) to the vertical profiles of fruit weight and oil content of olive hedgerows with wide range of structures. The density of fruits was also associated with the irradiance but more weakly (R2 = 0.27), and revealed a more complex response involving changes in the vegetative structure by canopy management (topping) and the effect of radiation on the previous sequence that defines the number of fruits. The vertical profiles of oil quality traits were closely associated to canopy irradiance, but only when the N–S oriented hedgerows were considered. The contents of palmitoleic and linoleic acid in the oil increased linearly when intercepted irradiance increased from 9 to 19 mol PAR/m2. In contrast, oleic content decreased linearly in this irradiance range. Additionally, we advanced knowledge regarding the interactions among irradiance and leaf, fruit number, size and composition at organ-, tissue- and cellular- levels. The irradiance received at different positions in the canopy strongly affected the leaf area and chlorophyll content, and mesocarp size and composition (water and oil), without effects on endocarp size and composition. At the cellular level, light-exposed fruit developed larger mesocarp cells than shaded fruits, but cell number was not affected. Our results indicate that cell number and size are related to mesocarp composition in term of oil, water, and dry weight menus oil, although the specific manner in which they interact remains to be determined. This research contributes from an integral perspective of olive growing to quantify the impact of row orientation and width alley on productivity and oil quality in hedgerows systems. The analysis and discussion of the relationships between radiation and yield components and oil quality can help understand the impact of design olive hedgerows in general and in a wide range of environmental conditions.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Las normativas que regulan la seguridad de las presas en España han recogido la necesidad de conocer los desplazamientos y deformaciones de sus estructuras y cimientos. A día de hoy, son muchas las presas en explotación que no cuentan con un sistema de auscultación adecuado para controlar este tipo de variables, ya que la instalación de métodos clásicos de precisión en las mismas podría no ser viable técnicamente y, de serlo, supondría un coste económico importante y una dudosa garantía del proceso de ejecución de la obra civil correspondiente. Con el desarrollo de las nuevas tecnologías, la informática y las telecomunicaciones, han surgido nuevos sistemas de auscultación de desplazamientos. Los sistemas GPS actuales, diseñados para el control de estructuras, guiado de maquinaria, navegación y topografía, estabilidad de taludes, subsidencias, etc. permiten alcanzar precisiones centimétricas. El sistema de control de movimientos basado en la tecnología DGPS (GPS diferencial) combinada con un filtro estadístico con el que se alcanzan sensibilidades de hasta ±1 mm en el sistema, suficientes para una auscultación normal de presas según los requerimientos de la normativa actual. Esta exactitud se adapta a los desplazamientos radiales de las presas, donde son muy comunes valores de amplitudes en coronación de hasta 15 mm en las de gravedad y de hasta 45 mm en el caso de las presas bóveda o arco. La presente investigación tiene por objetivo analizar la viabilidad del sistema DGPS en el control de movimientos de presas de hormigón comparando los diferentes sistemas de auscultación y su correlación con las variables físicas y las vinculadas al propio sistema GPS diferencial. Ante la necesidad de dar respuesta a estas preguntas y de validar e incorporar a la mencionada tecnología en la ingeniería civil en España, se ha llevado a cabo un estudio de caso en La Aceña (Ávila). Esta es una de las pocas presas españolas que se está controlando con dicha tecnología y de forma simultánea con los sistemas clásicos de auscultación y algunos otros de reciente aplicación La presente investigación se ha organizado con idea de dar respuesta a varias preguntas que el explotador de presas se plantea y que no se analizan en el estado del arte de la técnica: cómo hacer la configuración espacial del sistema y cuáles son los puntos necesarios que se deben controlar, qué sistemas de comunicaciones son los más fiables, cuáles son los costes asociados, calibración del software, vida útil y mantenimientos requeridos, así como la posibilidad de telecontrolar los datos. Entre las ventajas del sistema DGPS, podemos señalar su bajo coste de implantación y posibilidad de controlarlo de forma remota, así como la exactitud y carácter absoluto de los datos. Además, está especialmente indicado para presas aisladas o mal comunicadas y para aquellas otras en las que el explotador no tiene referencia alguna de la magnitud de los desplazamientos o deformaciones propias de la presa en toda su historia. Entre los inconvenientes de cualquier sistema apoyado en las nuevas tecnologías, destaca la importancia de las telecomunicaciones ya sea en el nivel local en la propia presao desde su ubicación hasta el centro de control de la explotación. Con la experiencia alcanzada en la gestión de la seguridad de presas y sobre la base de la reciente implantación de los nuevos métodos de auscultación descritos, se ha podido analizar cada una de sus ventajas e inconvenientes. En el capítulo 5, se presenta una tabla de decisión para el explotador que servirá como punto de partida para futuras inversiones. El impacto de esta investigación se ha visto reflejado en la publicación de varios artículos en revistas indexadas y en el debate suscitado entre gestores y profesionales del sector en los congresos nacionales e internacionales en los que se han presentado resultados preliminares. All regulations on the safety of dams in Spain have collected the need to know the displacements and deformations of the structure and its foundation. Today there are many dams holding not have an adequate system of auscultation to control variables such as the installation of classical methods of precision in the same might not be technically feasible, and if so, would cost important economic and guarantee the implementation process of the dubious civil works. With the development of new technologies, computing and telecommunications, new displacements auscultation systems have emerged. Current GPS systems designed to control structures, machine guidance, navigation and topography, slope stability, subsidence, etc, allow to reach centimeter-level accuracies. The motion control system based on DGPS technology applies a statistical filter that sensitivities are achieved in the system to ± 1 mm, sufficient for normal auscultation of dams as required by current regulations. This accuracy is adapted to the radial displacement of dams, which are common values in coronation amplitudes up to 15 mm in gravity dams and up to 45 mm in arch or arc dams. This research aims to analyze the feasibility of DGPS system in controlling movements of concrete dams, comparing the different systems auscultation and its correlation with physical variables and linked to differential GPS system itself. Given the need to answer this question and to validate and incorporate this technology to civil engineering in Spain, has conducted a case study in real time at the dam La Aceña (Ávila). This dam is one of the few Spanish companies, which are controlling with this technology and simultaneously with the classic auscultation systems and some other recent application. This research has been organized with a view to responding to questions that the dam operator arises and in the state of the art technique not discussed: how to make spatial configuration of the system and what are the necessary control points what communication systems are the most reliable, what are the associated costs, calibration software, service life and maintenance requirements, possibility of monitoring, etc. Among the advantages we can point to its low cost of implementation, the possibility of remote, high accuracy and absolute nature of the data. It could also be suitable for those isolated or poorly communicated dams and those in which the operator has no reference to the magnitude of displacements or deformations own prey in its history. The disadvantages of any system based on the new technologies we highlight the importance of telecommunications, either locally or from this dam control center of the farm. With the experience gained in the management of dam safety and based on the recent introduction of new methods of auscultation described, it has been possible to analyze each of their advantages and disadvantages. A decision table for the operator, which will serve as a starting point for future investments is presented. The impact of research, has been reflected in the publication of several articles in refereed journals and discussion among managers and professionals in national and international conferences in which they participated.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta Tesis trata sobre el desarrollo y crecimiento -mediante tecnología MOVPE (del inglés: MetalOrganic Vapor Phase Epitaxy)- de células solares híbridas de semiconductores III-V sobre substratos de silicio. Esta integración pretende ofrecer una alternativa a las células actuales de III-V, que, si bien ostentan el récord de eficiencia en dispositivos fotovoltaicos, su coste es, a día de hoy, demasiado elevado para ser económicamente competitivo frente a las células convencionales de silicio. De este modo, este proyecto trata de conjugar el potencial de alta eficiencia ya demostrado por los semiconductores III-V en arquitecturas de células fotovoltaicas multiunión con el bajo coste, la disponibilidad y la abundancia del silicio. La integración de semiconductores III-V sobre substratos de silicio puede afrontarse a través de diferentes aproximaciones. En esta Tesis se ha optado por el desarrollo de células solares metamórficas de doble unión de GaAsP/Si. Mediante esta técnica, la transición entre los parámetros de red de ambos materiales se consigue por medio de la formación de defectos cristalográficos (mayoritariamente dislocaciones). La idea es confinar estos defectos durante el crecimiento de sucesivas capas graduales en composición para que la superficie final tenga, por un lado, una buena calidad estructural, y por otro, un parámetro de red adecuado. Numerosos grupos de investigación han dirigido sus esfuerzos en los últimos años en desarrollar una estructura similar a la que aquí proponemos. La mayoría de éstos se han centrado en entender los retos asociados al crecimiento de materiales III-V, con el fin de conseguir un material de alta calidad cristalográfica. Sin embargo, prácticamente ninguno de estos grupos ha prestado especial atención al desarrollo y optimización de la célula inferior de silicio, cuyo papel va a ser de gran relevancia en el funcionamiento de la célula completa. De esta forma, y con el fin de completar el trabajo hecho hasta el momento en el desarrollo de células de III-V sobre silicio, la presente Tesis se centra, fundamentalmente, en el diseño y optimización de la célula inferior de silicio, para extraer su máximo potencial. Este trabajo se ha estructurado en seis capítulos, ordenados de acuerdo al desarrollo natural de la célula inferior. Tras un capítulo de introducción al crecimiento de semiconductores III-V sobre Si, en el que se describen las diferentes alternativas para su integración; nos ocupamos de la parte experimental, comenzando con una extensa descripción y caracterización de los substratos de silicio. De este modo, en el Capítulo 2 se analizan con exhaustividad los diferentes tratamientos (tanto químicos como térmicos) que deben seguir éstos para garantizar una superficie óptima sobre la que crecer epitaxialmente el resto de la estructura. Ya centrados en el diseño de la célula inferior, el Capítulo 3 aborda la formación de la unión p-n. En primer lugar se analiza qué configuración de emisor (en términos de dopaje y espesor) es la más adecuada para sacar el máximo rendimiento de la célula inferior. En este primer estudio se compara entre las diferentes alternativas existentes para la creación del emisor, evaluando las ventajas e inconvenientes que cada aproximación ofrece frente al resto. Tras ello, se presenta un modelo teórico capaz de simular el proceso de difusión de fosforo en silicio en un entorno MOVPE por medio del software Silvaco. Mediante este modelo teórico podemos determinar qué condiciones experimentales son necesarias para conseguir un emisor con el diseño seleccionado. Finalmente, estos modelos serán validados y constatados experimentalmente mediante la caracterización por técnicas analíticas (i.e. ECV o SIMS) de uniones p-n con emisores difundidos. Uno de los principales problemas asociados a la formación del emisor por difusión de fósforo, es la degradación superficial del substrato como consecuencia de su exposición a grandes concentraciones de fosfina (fuente de fósforo). En efecto, la rugosidad del silicio debe ser minuciosamente controlada, puesto que éste servirá de base para el posterior crecimiento epitaxial y por tanto debe presentar una superficie prístina para evitar una degradación morfológica y cristalográfica de las capas superiores. En este sentido, el Capítulo 4 incluye un análisis exhaustivo sobre la degradación morfológica de los substratos de silicio durante la formación del emisor. Además, se proponen diferentes alternativas para la recuperación de la superficie con el fin de conseguir rugosidades sub-nanométricas, que no comprometan la calidad del crecimiento epitaxial. Finalmente, a través de desarrollos teóricos, se establecerá una correlación entre la degradación morfológica (observada experimentalmente) con el perfil de difusión del fósforo en el silicio y por tanto, con las características del emisor. Una vez concluida la formación de la unión p-n propiamente dicha, se abordan los problemas relacionados con el crecimiento de la capa de nucleación de GaP. Por un lado, esta capa será la encargada de pasivar la subcélula de silicio, por lo que su crecimiento debe ser regular y homogéneo para que la superficie de silicio quede totalmente pasivada, de tal forma que la velocidad de recombinación superficial en la interfaz GaP/Si sea mínima. Por otro lado, su crecimiento debe ser tal que minimice la aparición de los defectos típicos de una heteroepitaxia de una capa polar sobre un substrato no polar -denominados dominios de antifase-. En el Capítulo 5 se exploran diferentes rutinas de nucleación, dentro del gran abanico de posibilidades existentes, para conseguir una capa de GaP con una buena calidad morfológica y estructural, que será analizada mediante diversas técnicas de caracterización microscópicas. La última parte de esta Tesis está dedicada al estudio de las propiedades fotovoltaicas de la célula inferior. En ella se analiza la evolución de los tiempos de vida de portadores minoritarios de la base durante dos etapas claves en el desarrollo de la estructura Ill-V/Si: la formación de la célula inferior y el crecimiento de las capas III-V. Este estudio se ha llevado a cabo en colaboración con la Universidad de Ohio, que cuentan con una gran experiencia en el crecimiento de materiales III-V sobre silicio. Esta tesis concluye destacando las conclusiones globales del trabajo realizado y proponiendo diversas líneas de trabajo a emprender en el futuro. ABSTRACT This thesis pursues the development and growth of hybrid solar cells -through Metal Organic Vapor Phase Epitaxy (MOVPE)- formed by III-V semiconductors on silicon substrates. This integration aims to provide an alternative to current III-V cells, which, despite hold the efficiency record for photovoltaic devices, their cost is, today, too high to be economically competitive to conventional silicon cells. Accordingly, the target of this project is to link the already demonstrated efficiency potential of III-V semiconductor multijunction solar cell architectures with the low cost and unconstrained availability of silicon substrates. Within the existing alternatives for the integration of III-V semiconductors on silicon substrates, this thesis is based on the metamorphic approach for the development of GaAsP/Si dual-junction solar cells. In this approach, the accommodation of the lattice mismatch is handle through the appearance of crystallographic defects (namely dislocations), which will be confined through the incorporation of a graded buffer layer. The resulting surface will have, on the one hand a good structural quality; and on the other hand the desired lattice parameter. Different research groups have been working in the last years in a structure similar to the one here described, being most of their efforts directed towards the optimization of the heteroepitaxial growth of III-V compounds on Si, with the primary goal of minimizing the appearance of crystal defects. However, none of these groups has paid much attention to the development and optimization of the bottom silicon cell, which, indeed, will play an important role on the overall solar cell performance. In this respect, the idea of this thesis is to complete the work done so far in this field by focusing on the design and optimization of the bottom silicon cell, to harness its efficiency. This work is divided into six chapters, organized according to the natural progress of the bottom cell development. After a brief introduction to the growth of III-V semiconductors on Si substrates, pointing out the different alternatives for their integration; we move to the experimental part, which is initiated by an extensive description and characterization of silicon substrates -the base of the III-V structure-. In this chapter, a comprehensive analysis of the different treatments (chemical and thermal) required for preparing silicon surfaces for subsequent epitaxial growth is presented. Next step on the development of the bottom cell is the formation of the p-n junction itself, which is faced in Chapter 3. Firstly, the optimization of the emitter configuration (in terms of doping and thickness) is handling by analytic models. This study includes a comparison between the different alternatives for the emitter formation, evaluating the advantages and disadvantages of each approach. After the theoretical design of the emitter, it is defined (through the modeling of the P-in-Si diffusion process) a practical parameter space for the experimental implementation of this emitter configuration. The characterization of these emitters through different analytical tools (i.e. ECV or SIMS) will validate and provide experimental support for the theoretical models. A side effect of the formation of the emitter by P diffusion is the roughening of the Si surface. Accordingly, once the p-n junction is formed, it is necessary to ensure that the Si surface is smooth enough and clean for subsequent phases. Indeed, the roughness of the Si must be carefully controlled since it will be the basis for the epitaxial growth. Accordingly, after quantifying (experimentally and by theoretical models) the impact of the phosphorus on the silicon surface morphology, different alternatives for the recovery of the surface are proposed in order to achieve a sub-nanometer roughness which does not endanger the quality of the incoming III-V layers. Moving a step further in the development of the Ill-V/Si structure implies to address the challenges associated to the GaP on Si nucleation. On the one hand, this layer will provide surface passivation to the emitter. In this sense, the growth of the III-V layer must be homogeneous and continuous so the Si emitter gets fully passivated, providing a minimal surface recombination velocity at the interface. On the other hand, the growth should be such that the appearance of typical defects related to the growth of a polar layer on a non-polar substrate is minimized. Chapter 5 includes an exhaustive study of the GaP on Si nucleation process, exploring different nucleation routines for achieving a high morphological and structural quality, which will be characterized by means of different microscopy techniques. Finally, an extensive study of the photovoltaic properties of the bottom cell and its evolution during key phases in the fabrication of a MOCVD-grown III-V-on-Si epitaxial structure (i.e. the formation of the bottom cell; and the growth of III-V layers) will be presented in the last part of this thesis. This study was conducted in collaboration with The Ohio State University, who has extensive experience in the growth of III-V materials on silicon. This thesis concludes by highlighting the overall conclusions of the presented work and proposing different lines of work to be undertaken in the future.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nondestructive techniques are widely used to assess existing timber structures. The models proposed for these methods are usually performed in the laboratory using small clear wood specimens. But in real situations many anomalies, defects and biological damage are found in wood. In these cases the existing models only indicate that the values are outside normality without providing any other information. To solve this problem, a study of non-destructive probing methods for wood was performed, testing the behaviour of four different techniques (penetration resistance, pullout resistance, drill resistance and chip drill extraction) on wood samples with different biological damage, simulating an in-situ test. The wood samples were obtained from existing Spanish timber structures with biotic damage caused by borer insects, termites, brown rot and white rot. The study concludes that all of the methods offer more or less detailed information about the degree of deterioration of wood, but that the first two methods (penetration and pullout resistance) cannot distinguish between pathologies. On the other hand, drill resistance and chip drill extraction make it possible to differentiate pathologies and even to identify species or damage location. Finally, the techniques used were compared to characterize their advantages and disadvantages.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este proyecto está centrado en investigar la utilización de los frameworks de Java Spring,Hibernate y JSF en el desarrollo de aplicaciones web. Para poder analizar sus ventajas e inconvenientes, he realizado un caso práctico, una aplicación web llamada “Votación de Product Box”. Las primeras dos secciones de este proyecto son este resumen del proyecto y un abstract, es decir, este mismo resumen, en inglés. En la introducción (sección tercera), definiré los objetivos del proyecto, luego en la cuarta sección explicaré las características principales de cada framework, destacando sus ventajas. Una vez presentados los frameworks, paso a explicar el caso práctico, definiendo los requisitos de la aplicación Web y sus casos de uso en la quinta sección. Describo el entorno de desarrollo, las herramientas utilizadas y la razón por las cuales las he elegido en la sexta sección. Ahora explico cómo he realizado la integración de los tres frameworks en la aplicación (sección séptima) y la relaciono por medio de diagramas de clase y de entidad-relación (sección octava). Por último he realizado un tutorial de uso de la aplicación Web (sección novena), he sacado las conclusiones de haber trabajado con estos frameworks, qué ventajas e inconvenientes he encontrado y qué he aprendido a lo largo de este proyecto (sección décima),y he referenciado una bibliografía por si se quiere profundizar en el estudio de estos frameworks (sección undécima). ABSTRACT This project focuses on investigating the use of Java frameworks Spring, JSF and Hibernate on the development of Web applications. To analyze their advantages and disadvantages, I have made a practical example, a website called “Votación de Product Box”. The first two sections of this project are the project summary and abstract (the same summary in English). In the introduction (section three), I define the project goals, and then, in the fourth section, I explain the main features of each framework, emphasizing on its advantages. After introducing the frameworks, I explain the study case, I gather requirements and I make use cases in the fifth section. I describe the development environment, the tools used and the reason why I have chosen them in the sixth section. So I can explain how I made the integration of the three frameworks in the application (section seventh) and relate through class diagrams and entity relationship (section eight). Finally I make a tutorial to use the Web application (Section ninth), I draw to the conclusions of working with these frameworks, which advantages and disadvantages I have found, and I what things I learned through this project (tenth section) and I have a referenced bibliography just in case you want to find out some more about these frameworks (section eleven).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Los sistemas microinformáticos se componen principalmente de hardware y software, con el paso del tiempo el hardware se degrada, se deteriora y en ocasiones se avería. El software evoluciona, requiere un mantenimiento, de actualización y en ocasiones falla teniendo que ser reparado o reinstalado. A nivel hardware se analizan los principales componentes que integran y que son comunes en gran parte estos sistemas, tanto en equipos de sobre mesa como portátiles, independientes del sistema operativo, además de los principales periféricos, también se analizan y recomiendan algunas herramientas necesarias para realizar el montaje, mantenimiento y reparación de estos equipos. Los principales componentes hardware internos son la placa base, memoria RAM, procesador, disco duro, carcasa, fuente de alimentación y tarjeta gráfica. Los periféricos más destacados son el monitor, teclado, ratón, impresora y escáner. Se ha incluido un apartado donde se detallan los distintos tipos de BIOS y los principales parámetros de configuración. Para todos estos componentes, tanto internos como periféricos, se ha realizado un análisis de las características que ofrecen y los detalles en los que se debe prestar especial atención en el momento de seleccionar uno frente a otro. En los casos que existen diferentes tecnologías se ha hecho una comparativa entre ambas, destacando las ventajas y los inconvenientes de unas frente a otras para que sea el usuario final quien decida cual se ajusta mejor a sus necesidades en función de las prestaciones y el coste. Un ejemplo son las impresoras de inyección de tinta frente a las laser o los discos duros mecánicos en comparación con y los discos de estado sólido (SSD). Todos estos componentes están relacionados, interconectados y dependen unos de otros, se ha dedicado un capítulo exclusivamente para estudiar cómo se ensamblan estos componentes, resaltando los principales fallos que se suelen cometer o producir y se han indicado unas serie tareas de mantenimiento preventivo que se pueden realizar para prolongar la vida útil del equipo y evitar averías por mal uso. Los mantenimientos se pueden clasificar como predictivo, perfectivo, adaptativo, preventivo y correctivo. Se ha puesto el foco principalmente en dos tipos de mantenimiento, el preventivo descrito anteriormente y en el correctivo, tanto software como hardware. El mantenimiento correctivo está enfocado al análisis, localización, diagnóstico y reparación de fallos y averías hardware y software. Se describen los principales fallos que se producen en cada componente, cómo se manifiestan o qué síntomas presentan para poder realizar pruebas específicas que diagnostiquen y acoten el fallo. En los casos que es posible la reparación se detallan las instrucciones a seguir, en otro caso se recomienda la sustitución de la pieza o componente. Se ha incluido un apartado dedicado a la virtualización, una tecnología en auge que resulta muy útil para realizar pruebas de software, reduciendo tiempos y costes en las pruebas. Otro aspecto interesante de la virtualización es que se utiliza para montar diferentes servidores virtuales sobre un único servidor físico, lo cual representa un importante ahorro en hardware y costes de mantenimiento, como por ejemplo el consumo eléctrico. A nivel software se realiza un estudio detallado de los principales problemas de seguridad y vulnerabilidades a los que está expuesto un sistema microinformático enumerando y describiendo el comportamiento de los distintos tipos de elementos maliciosos que pueden infectar un equipo, las precauciones que se deben tomar para minimizar los riesgos y las utilidades que se pueden ejecutar para prevenir o limpiar un equipo en caso de infección. Los mantenimientos y asistencias técnicas, en especial las de tipo software, no siempre precisan de la atención presencial de un técnico cualificado, por ello se ha dedicado un capítulo a las herramientas de asistencia remota que se pueden utilizar en este ámbito. Se describen algunas de las más populares y utilizadas en el mercado, su funcionamiento, características y requerimientos. De esta forma el usuario puede ser atendido de una forma rápida, minimizando los tiempos de respuesta y reduciendo los costes. ABSTRACT Microcomputer systems are basically made up of pieces of hardware and software, as time pass, there’s a degradation of the hardware pieces and sometimes failures of them. The software evolves, new versions appears and requires maintenance, upgrades and sometimes also fails having to be repaired or reinstalled. The most important hardware components in a microcomputer system are analyzed in this document for a laptop or a desktop, with independency of the operating system they run. In addition to this, the main peripherals and devices are also analyzed and a recommendation about the most proper tools necessary for maintenance and repair this kind of equipment is given as well. The main internal hardware components are: motherboard, RAM memory, microprocessor, hard drive, housing box, power supply and graphics card. The most important peripherals are: monitor, keyboard, mouse, printer and scanner. A section has been also included where different types of BIOS and main settings are listed with the basic setup parameters in each case. For all these internal components and peripherals, an analysis of their features has been done. Also an indication of the details in which special attention must be payed when choosing more than one at the same time is given. In those cases where different technologies are available, a comparison among them has been done, highlighting the advantages and disadvantages of selecting one or another to guide the end user to decide which one best fits his needs in terms of performance and costs. As an example, the inkjet vs the laser printers technologies has been faced, or also the mechanical hard disks vs the new solid state drives (SSD). All these components are interconnected and are dependent one to each other, a special chapter has been included in order to study how they must be assembled, emphasizing the most often mistakes and faults that can appear during that process, indicating different tasks that can be done as preventive maintenance to enlarge the life of the equipment and to prevent damage because of a wrong use. The different maintenances can be classified as: predictive, perfective, adaptive, preventive and corrective. The main focus is on the preventive maintains, described above, and in the corrective one, in software and hardware. Corrective maintenance is focused on the analysis, localization, diagnosis and repair of hardware and software failures and breakdowns. The most typical failures that can occur are described, also how they can be detected or the specific symptoms of each one in order to apply different technics or specific tests to diagnose and delimit the failure. In those cases where the reparation is possible, instructions to do so are given, otherwise, the replacement of the component is recommended. A complete section about virtualization has also been included. Virtualization is a state of the art technology that is very useful especially for testing software purposes, reducing time and costs during the tests. Another interesting aspect of virtualization is the possibility to have different virtual servers on a single physical server, which represents a significant savings in hardware inversion and maintenance costs, such as electricity consumption. In the software area, a detailed study has been done about security problems and vulnerabilities a microcomputer system is exposed, listing and describing the behavior of different types of malicious elements that can infect a computer, the precautions to be taken to minimize the risks and the tools that can be used to prevent or clean a computer system in case of infection. The software maintenance and technical assistance not always requires the physical presence of a qualified technician to solve the possible problems, that’s why a complete chapter about the remote support tools that can be used to do so has been also included. Some of the most popular ones used in the market are described with their characteristics and requirements. Using this kind of technology, final users can be served quickly, minimizing response times and reducing costs.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Determinar con buena precisión la posición en la que se encuentra un terminal móvil, cuando éste se halla inmerso en un entorno de interior (centros comerciales, edificios de oficinas, aeropuertos, estaciones, túneles, etc), es el pilar básico sobre el que se sustentan un gran número de aplicaciones y servicios. Muchos de esos servicios se encuentran ya disponibles en entornos de exterior, aunque los entornos de interior se prestan a otros servicios específicos para ellos. Ese número, sin embargo, podría ser significativamente mayor de lo que actualmente es, si no fuera necesaria una costosa infraestructura para llevar a cabo el posicionamiento con la precisión adecuada a cada uno de los hipotéticos servicios. O, igualmente, si la citada infraestructura pudiera tener otros usos distintos, además del relacionado con el posicionamiento. La usabilidad de la misma infraestructura para otros fines distintos ofrecería la oportunidad de que la misma estuviera ya presente en las diferentes localizaciones, porque ha sido previamente desplegada para esos otros usos; o bien facilitaría su despliegue, porque el coste de esa operación ofreciera un mayor retorno de usabilidad para quien lo realiza. Las tecnologías inalámbricas de comunicaciones basadas en radiofrecuencia, ya en uso para las comunicaciones de voz y datos (móviles, WLAN, etc), cumplen el requisito anteriormente indicado y, por tanto, facilitarían el crecimiento de las aplicaciones y servicios basados en el posicionamiento, en el caso de poderse emplear para ello. Sin embargo, determinar la posición con el nivel de precisión adecuado mediante el uso de estas tecnologías, es un importante reto hoy en día. El presente trabajo pretende aportar avances significativos en este campo. A lo largo del mismo se llevará a cabo, en primer lugar, un estudio de los principales algoritmos y técnicas auxiliares de posicionamiento aplicables en entornos de interior. La revisión se centrará en aquellos que sean aptos tanto para tecnologías móviles de última generación como para entornos WLAN. Con ello, se pretende poner de relieve las ventajas e inconvenientes de cada uno de estos algoritmos, teniendo como motivación final su aplicabilidad tanto al mundo de las redes móviles 3G y 4G (en especial a las femtoceldas y small-cells LTE) como al indicado entorno WLAN; y teniendo siempre presente que el objetivo último es que vayan a ser usados en interiores. La principal conclusión de esa revisión es que las técnicas de triangulación, comúnmente empleadas para realizar la localización en entornos de exterior, se muestran inútiles en los entornos de interior, debido a efectos adversos propios de este tipo de entornos como la pérdida de visión directa o los caminos múltiples en el recorrido de la señal. Los métodos de huella radioeléctrica, más conocidos bajo el término inglés “fingerprinting”, que se basan en la comparación de los valores de potencia de señal que se están recibiendo en el momento de llevar a cabo el posicionamiento por un terminal móvil, frente a los valores registrados en un mapa radio de potencias, elaborado durante una fase inicial de calibración, aparecen como los mejores de entre los posibles para los escenarios de interior. Sin embargo, estos sistemas se ven también afectados por otros problemas, como por ejemplo los importantes trabajos a realizar para ponerlos en marcha, y la variabilidad del canal. Frente a ellos, en el presente trabajo se presentan dos contribuciones originales para mejorar los sistemas basados en los métodos fingerprinting. La primera de esas contribuciones describe un método para determinar, de manera sencilla, las características básicas del sistema a nivel del número de muestras necesarias para crear el mapa radio de la huella radioeléctrica de referencia, junto al número mínimo de emisores de radiofrecuencia que habrá que desplegar; todo ello, a partir de unos requerimientos iniciales relacionados con el error y la precisión buscados en el posicionamiento a realizar, a los que uniremos los datos correspondientes a las dimensiones y realidad física del entorno. De esa forma, se establecen unas pautas iniciales a la hora de dimensionar el sistema, y se combaten los efectos negativos que, sobre el coste o el rendimiento del sistema en su conjunto, son debidos a un despliegue ineficiente de los emisores de radiofrecuencia y de los puntos de captura de su huella. La segunda contribución incrementa la precisión resultante del sistema en tiempo real, gracias a una técnica de recalibración automática del mapa radio de potencias. Esta técnica tiene en cuenta las medidas reportadas continuamente por unos pocos puntos de referencia estáticos, estratégicamente distribuidos en el entorno, para recalcular y actualizar las potencias registradas en el mapa radio. Un beneficio adicional a nivel operativo de la citada técnica, es la prolongación del tiempo de usabilidad fiable del sistema, bajando la frecuencia en la que se requiere volver a capturar el mapa radio de potencias completo. Las mejoras anteriormente citadas serán de aplicación directa en la mejora de los mecanismos de posicionamiento en interiores basados en la infraestructura inalámbrica de comunicaciones de voz y datos. A partir de ahí, esa mejora será extensible y de aplicabilidad sobre los servicios de localización (conocimiento personal del lugar donde uno mismo se encuentra), monitorización (conocimiento por terceros del citado lugar) y seguimiento (monitorización prolongada en el tiempo), ya que todos ellas toman como base un correcto posicionamiento para un adecuado desempeño. ABSTRACT To find the position where a mobile is located with good accuracy, when it is immersed in an indoor environment (shopping centers, office buildings, airports, stations, tunnels, etc.), is the cornerstone on which a large number of applications and services are supported. Many of these services are already available in outdoor environments, although the indoor environments are suitable for other services that are specific for it. That number, however, could be significantly higher than now, if an expensive infrastructure were not required to perform the positioning service with adequate precision, for each one of the hypothetical services. Or, equally, whether that infrastructure may have other different uses beyond the ones associated with positioning. The usability of the same infrastructure for purposes other than positioning could give the opportunity of having it already available in the different locations, because it was previously deployed for these other uses; or facilitate its deployment, because the cost of that operation would offer a higher return on usability for the deployer. Wireless technologies based on radio communications, already in use for voice and data communications (mobile, WLAN, etc), meet the requirement of additional usability and, therefore, could facilitate the growth of applications and services based on positioning, in the case of being able to use it. However, determining the position with the appropriate degree of accuracy using these technologies is a major challenge today. This paper provides significant advances in this field. Along this work, a study about the main algorithms and auxiliar techniques related with indoor positioning will be initially carried out. The review will be focused in those that are suitable to be used with both last generation mobile technologies and WLAN environments. By doing this, it is tried to highlight the advantages and disadvantages of each one of these algorithms, having as final motivation their applicability both in the world of 3G and 4G mobile networks (especially in femtocells and small-cells of LTE) and in the WLAN world; and having always in mind that the final aim is to use it in indoor environments. The main conclusion of that review is that triangulation techniques, commonly used for localization in outdoor environments, are useless in indoor environments due to adverse effects of such environments as loss of sight or multipaths. Triangulation techniques used for external locations are useless due to adverse effects like the lack of line of sight or multipath. Fingerprinting methods, based on the comparison of Received Signal Strength values measured by the mobile phone with a radio map of RSSI Recorded during the calibration phase, arise as the best methods for indoor scenarios. However, these systems are also affected by other problems, for example the important load of tasks to be done to have the system ready to work, and the variability of the channel. In front of them, in this paper we present two original contributions to improve the fingerprinting methods based systems. The first one of these contributions describes a method for find, in a simple way, the basic characteristics of the system at the level of the number of samples needed to create the radio map inside the referenced fingerprint, and also by the minimum number of radio frequency emitters that are needed to be deployed; and both of them coming from some initial requirements for the system related to the error and accuracy in positioning wanted to have, which it will be joined the data corresponding to the dimensions and physical reality of the environment. Thus, some initial guidelines when dimensioning the system will be in place, and the negative effects into the cost or into the performance of the whole system, due to an inefficient deployment of the radio frequency emitters and of the radio map capture points, will be minimized. The second contribution increases the resulting accuracy of the system when working in real time, thanks to a technique of automatic recalibration of the power measurements stored in the radio map. This technique takes into account the continuous measures reported by a few static reference points, strategically distributed in the environment, to recalculate and update the measurements stored into the map radio. An additional benefit at operational level of such technique, is the extension of the reliable time of the system, decreasing the periodicity required to recapture the radio map within full measurements. The above mentioned improvements are directly applicable to improve indoor positioning mechanisms based on voice and data wireless communications infrastructure. From there, that improvement will be also extensible and applicable to location services (personal knowledge of the location where oneself is), monitoring (knowledge by other people of your location) and monitoring (prolonged monitoring over time) as all of them are based in a correct positioning for proper performance.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El objetivo de esta tesis es el estudio de la respuesta estructural de los gasoductos sometidas a solicitaciones estáticas y dinámicas, enfocando prioritariamente en la respuesta sísmica. Los gasoductos, como las tuberías en general, se utilizan principalmente para la transportación de fluidos, como agua, gas o petróleo, de ahí la importancia de que el diseño y la estructura se realicen adecuadamente. La tubería debe ser capaz de soportar tanto los efectos de cargas estáticas como las debidas al peso propio o de la presión de la tierra, así como los diferentes tipos de cargas dinámicas ocurridas durante un evento sísmico, como los debidos a las ondas o el desplazamiento de fallas. En la primera parte de la tesis se describen aspectos generales de la tubería y su uso, y se da una breve historia de uso en la industria y las redes de abastecimiento urbano. Aparte de otros aspectos, se discuten las ventajas y desventajas de los diferentes materiales de las tuberías. En la segunda parte de la tesis se desarrollan las ecuaciones de equilibrio de una sección transversal de la tubería bajo cargas estáticas, tales como la presión interna, peso propio, presión de la tierra y las cargas externas. Un número de diferentes combinaciones de carga es analizado por medio de programas codificados como Matlab, los cuales se han desarrollado específicamente para este propósito. Los resultados se comparan con los obtenidos en Ansys utilizando un código de elementos finitos. En la tercera parte se presenta la respuesta dinámica de las tuberías, que abarca los efectos de las ondas y los desplazamientos de fallas. Se presentan las características relevantes del suelo como las velocidades de ondas, así como los métodos para estimar el desplazamiento máximo de las fallas. Un estudio paramétrico se emplea para ilustrar la influencia de estos parámetros en la respuesta estructural de la tubería. Con este fin se han utilizado dos métodos, el Pseudoestático y el Simplificado. En la última parte de la tesis son desarrollados los modelos de elementos finitos que permiten simular adecuadamente el comportamiento no lineal del suelo y la tubería. Los resultados se comparan con los obtenidos por un método simplificado utilizado con frecuencia que fue propuesto por Kennedy en 1977. Estudios paramétricos se presentan con el fin de examinar la validez de las hipótesis del método de Kennedy. La tesis concluye con recomendaciones que indican en qué casos los resultados obtenidos por el método de Kennedy son conservadores y cuando es preferible utilizar modelos de elementos finitos para estimar la respuesta de las tuberías durante los terremotos. ABSTRACT The subject of this thesis is the study of the structural response of pipelines subjected to static and dynamic loads with special attention to seismic design loads. Pipelines, as pipes in general, are used primarily for the transportation of fluids like water, gas or oil, hence the importance of an adequate design and structural behaviour. The pipe must be able to withstand both the effects of static loads like those due to self-weight or earth pressure as well as the different types of dynamic loads during a seismic event like those due to wave passing or fault displacements. In the first part of the thesis general aspects of pipelines and their use are described and a brief history of their usage in industry and for urban supply networks is given. Apart from other aspects, the advantages and disadvantages of different pipe materials are discussed. In the second part of the thesis the equilibrium equations of a transverse section of the pipe under static loads such as internal pressure, self-weight, earth pressure and external loads are developed. A number of different load combinations is analysed by means of programs coded in Matlab that have been specifically developed for this purpose. The results are compared to those obtained with the commercial Finite Element code Ansys. In the third part the dynamic response of pipelines during earthquakes is presented, covering the effects of passing waves and fault displacements. Relevant soil characteristics like wave propagation velocities as well as methods to estimate the maximum fault displacements are presented. A parametric study is employed to illustrate the influences of these parameters on the structural response of the pipe. To this end two methods have been used, the Pseudostatic and the Simplified method. In the last part of the thesis Finite Element models are developed which allow to adequately simulate the nonlinear behaviour of the soil and the pipe. The results are compared to those obtained by a frequently used simplified method which was proposed by Kennedy in 1977. Parametric studies are presented in order to examine the validity of the hypotheses Kennedys’ method is based on. The thesis concludes with recommendations indicating in which cases the results obtained by Kennedy’s method are conservative and when it is preferable to use Finite Element models to estimate the response of pipelines during earthquakes.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La legislación existente en nuestro país, el Real Decreto 1620/200, de 7 de diciembre, por el que se establece el régimen jurídico de la reutilización de las aguas depuradas, no ha sido modificada en estos últimos años a pesar de las opiniones de expertos y operadores en el sentido que merece una revisión y mejora. Por ello se ha realizado un análisis pormenorizado de toda la legislación existente a nivel país y de otros países con amplia experiencia en reutilización para proponer mejoras o cambios en base a la información recopilada, tanto en estudios específicos de investigación como de los datos obtenidos de operadores y/o explotadores de estaciones regeneradoras de aguas residuales en España. Del estudio surgen algunas propuestas claras que se ponen a consideración de las autoridades. Se ha comprobado que no existen estudios suficientes relacionados a tipos de controles en estaciones de tratamiento terciario de aguas residuales en cada uno de los pasos de la línea de proceso, que permitan conocer las garantías de funcionamiento de dichas etapas y del proceso en su conjunto. De éste modo se podrían analizar todas las etapas por separado y comprobar si el funcionamiento en las condiciones previstas de diseño es apropiado, o si es posible mejorar la eficiencia a partir de estos datos intermedios, en lugar de los controles normales efectuados en la entrada y la salida realizados por los explotadores de las plantas existentes en el país. Existen, sin embargo, investigaciones y datos de casi todas las tecnologías existentes en el mercado relacionadas con la regeneración, lo cual ha permitido identificar sus ventajas e inconvenientes. La aplicación de un proceso de APPCC (Análisis de Peligros y Puntos de Control Críticos) a una planta existente ha permitido comprobar que es una herramienta práctica que permite gestionar la seguridad de un proceso de producción industrial como es el caso de un sistema de reutilización, por lo que se considera conveniente recomendar su aplicación siempre que sea posible. The existing legislation in our country, Royal Decree 1620/2007, of 7th December, establishing the legal regime for the reuse of treated water has not been modified in recent years despite expert and operators opinions in the sense that it deserves review and improvement. Therefore it has been conducted a detailed analysis of all existing legislation at country level and of other countries with extensive experience in water reuse to propose improvements or changes based on the information gathered both in specific research studies and the data obtained from operators and/or operators of regenerative sewage stations in Spain. As a result of these studies, some clear proposals are made to be considered by the authorities. It has been found that there are not enough studies related to types of controls in tertiary wastewater treatment plants, in each step of the process line, that provide insight into the performance guarantees of the mention stages and of the whole process. In this manner all stages could be analyzed separately and check if the operation in the design conditions envisaged is appropriate, or whether it is possible to improve efficiency taking in account these intermediate data, instead to the normal checks at entry and exit carried out by operators in existing plants in the country. There are, however, research and data from almost all technologies existing in the market related to regeneration, which has allowed identified its advantages and disadvantages. The application of a process of HACCP (hazard analysis and critical control points) to an existing plant has shown that it is a practical tool for managing the security of a process of industrial production as is the case of a water reuse system, so it is considered appropriate to recommend application whenever possible.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Durante la realización de este trabajo de fin de grado se realizará el diseño y desarrollo de un juego orientado a niños con necesidades específicas de apoyo educativo. Este grupo de usuarios repercute en el diseño de los elementos del juego los cuales han de ser simples, sin distracciones, textos de ayuda claros y bien definidos, alto contraste en los elementos, ayuda textual y visual, selección de colores evitando referencias conocidas (rojo como referencia a peligro); y una serie de patrones más, que se han tenido que tener en cuenta. El juego es compatible con distintos dispositivos (teclado, pantalla táctil y Kinect), por lo que, como parte del análisis previo, se ha tenido que ver el trabajo realizado anteriormente referente a estos dispositivos (un reconocedor de gestos de pantalla táctil y un reconocedor de gestos de Kinect), que realizaron otros alumnos. En este sentido y como parte de este y otros proyectos, se han tenido que mejorar o complementar las implementaciones de estos reconocedores. Además se han tenido que definir los distintos gestos o teclas, que producirán respuestas en el juego. Como parte de la interacción de los usuarios con el juego mediante los distintos dispositivos, el juego se ha diseñado de tal forma, que es capaz de capturar ciertos datos de forma automática (precisión al realizar un gesto en pantalla, realización de un gesto incorrecto, etc.). Además como soporte adicional a la obtención de datos con el juego, se han planteado distintos formularios (según el dispositivo), los cuales aportan información que el juego no es capaz de recoger de forma automática, y que serán capturados por el pedagogo. Toda esta información recogida será parte de un modelo de datos el cual, en un futuro, servirá para analizar el comportamiento de este grupo de usuarios frente a los distintos dispositivos analizados. Viendo sus ventajas y desventajas tanto en tiempo de respuesta, curva de aprendizaje, dificultad de realización de los gestos, etc.---ABSTRACT---This thesis project will showcase the design and development of a game oriented towards children with special educational needs. This group impacts the design of the game elements, which have to be simple and avoid distractions. There must be clear and well defined help text, high contrast in the elements, text and visual help, color selection that avoids known references (red as a reference to danger), and more series of patterns. The game is compatible with various devices (keyboard, touchscreen and Kinect), by which, as part of the preliminary analysis, the work previously conducted by other students concerning these devices was researched (a touch screen gesture recognizer and a Kinect gesture recognizer). In this regard, and as part of this and other projects, the use of these recognizers must be improved or complemented. In addition the different gestures or keys that will produce answers in the game must be defined. As part of the users’ interaction with the game through the various devices, the game is designed in such a way that it is able to capture certain data automatically (precision making a gesture to the screen, making an improper gesture, etc.). Also as additional support to obtain data with the game, different forms were used (depending on the device), which provide information that the game is not able to pick up automatically, and that will be caught by the teacher. The information collected will be part of a data model which, in the future, will serve to analyze the behavior of this user group with the various devices analyzed. Seeing their advantages and disadvantages both in response time, learning curve and difficulty of making gestures, etc.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Trata-se de um estudo descritivo e exploratório, com abordagem qualitativa dos dados. Objetivou-se analisar a percepção da equipe de enfermagem sobre as condições geradoras de absenteísmo e suas implicações na assistência nas unidades de Urgência e Emergência (UE) das cinco distritais de saúde no município de Ribeirão Preto/SP. Os sujeitos foram profissionais da equipe de enfermagem (enfermeiro, auxiliar e técnico de enfermagem) que atuam nestas unidades. Foram selecionados 2 profissionais de cada categoria, a partir dos critérios de inclusão do estudo, sem considerar sexo, faixa etária e tempo de trabalho no serviço, totalizando 30 participantes. Os dados foram coletados por meio de entrevistas individuais semiestruturadas, conduzidas a partir de um roteiro norteador composto pelas variáveis (Processo de Gestão de Recursos Humanos (RH); Condição de Trabalho em Equipe e Qualidade do Cuidado Prestado) abordadas no estudo. Para análise dos dados utilizou-se análise de conteúdo, modalidade temática. Após análise dos dados, as categorias encontradas foram: TEMA 1 - Gerenciamento, organização e enfrentamento para a operacionalização do trabalho de enfermagem (Subtema 1 - Operacionalização da escala de trabalho frente ao desafio do quantitativo da equipe de enfermagem na unidade de UE; Subtema 2 - Reorganização do trabalho e a perspectiva dos trabalhadores frente à mudança para as 30h/semanais e a terceirização do serviço; Subtema 3 - Tempo de permanência do profissional no serviço; Subtema 4 - Comunicação como ferramenta para desenvolver o trabalho em equipe e gerenciar conflitos); TEMA 2 - Condições impostas ao trabalhador e sua influência no desenvolvimento do trabalho (Subtema 1 - Plano de carreira e salário como estimulantes para desenvolvimento do trabalho; Subtema 2 - Vínculo empregatício: vantagens e desvantagens; Subtema 3 - Educação permanente e sua importância para desenvolvimento do trabalho; Subtema 4 - Influência da estrutura física, materiais e equipamentos no cuidado) e TEMA 3 - Avaliação do serviço e da assistência prestada. No que diz respeito ao quantitativo de enfermagem disposto nas unidades, todos os entrevistados relatam que é um quantitativo razoável e que, em alguns momentos, se sentem sobrecarregados quando ocorrem ausências não previstas. Ao se tratar da terceirização das unidades estatutárias, relata-se que não houve comunicação prévia do evento e é visível a insegurança e frustração por parte dos entrevistados. Ressalta-se que a unidade terceirizada não sofreu mudanças em sua rotina. A rotatividade é presente nestas unidades de UE, sendo maior em determinada unidade e ocorre por inúmeros motivos, dentre eles, aposentadoria, transferência para Unidade Básica de Saúde (UBS), conflitos na equipe e/ou com pacientes, dentre outros. Todos os entrevistados sugerem que a comunicação é fundamental para o desenvolvimento do trabalho em equipe e é através dela que os conflitos possam vir a ser resolvidos. Neste momento, percebe-se, a partir das falas, que a comunicação é diferente entre as unidades e, portanto, existem níveis diferentes de conflitos entre as unidades. O município não possui um plano de carreira efetivo, portanto os entrevistados demonstram desmotivação para buscar novos conhecimentos. Quanto ao salário, estes têm a visão de que é razoável, sendo considerado elevado em relação às demais instituições de saúde do município, porém, defasado em relação à categoria profissional. Os profissionais terceirizados relatam uma certa insatisfação por trabalhar da mesma forma que os estatutários, recebendo um menor salário e sem os mesmos benefícios, o que nos leva à categoria vínculo empregatício, onde a estabilidade é abordada com visões positivas e negativas. Ao se tratar da visão negativa, os entrevistados sugerem que muitos colegas não sabem lidar com esse benefício, se ausentando do trabalho ou trabalhando de uma forma não adequada, prejudicando a rotina do serviço. No que tange à educação permanente, temos a diferença mais gritante do estudo, visto que os entrevistados estatutários relatam que não possuem a disponibilização, através da prefeitura, de cursos de atualização, capacitação e constante aprendizado enquanto que os terceirizados relatam atualizações constantes e apoio por parte da instituição com a qual eles estão vinculados. É unânime que todos os entrevistados consideram que a estrutura física, materiais e equipamentos interferem diretamente no cuidado. Ao serem questionados em relação à avaliação do cuidado prestado, eles o consideram bom, podendo ser melhor caso fossem disponibilizadas condições de trabalho mais adequadas. Considera-se o estudo como um possível instrumento de avaliação dos serviços prestados em unidade de UE, bem como das condições de trabalho fornecidas ao trabalhador e sua satisfação profissional