988 resultados para Diseños factoriales
Resumo:
Las entrevistas son las técnicas de elicitación más utilizadas en la Ingeniería de Requisitos (IR). Sin embargo, existen pocos trabajos de investigación centrados en estas técnicas y aún menos estudios experimentales. Recientemente hemos experimentado para analizar la efectividad de las entrevistas estructuradas y no estructuradas. Los resultados se combinaron con otros de estudios experimentales realizados en el campo de Sistemas de Información. Para ello se aplicó el meta-análisis, con el objetivo de desarrollar directrices para usar las entrevistas en IR. Sin embargo, se han obtenido pocas debido a la diversidad, en términos de variables respuesta, de los estudios primarios. Aunque los estudios meta-analizados parecen similares según sus diseños, fijándonos en las amenazas a la validez se identifican más diferencias que similitudes. El análisis de estas amenazas puede ser un medio para comprender cómo mejorar el diseño de futuras replicaciones, ejecutadas para generar nuevas evidencias y mejorar resultados de los metaanálisis.
Resumo:
La escalera mecánica lleva más de un siglo entre nosotros, sin apenas variar su diseño de forma notoria. La simulación mecánica de este sistema multicuerpo, asignatura pendiente en la actualidad, ahorrará tiempo y dinero frente a los experimentos tradicionales. En esta línea, CITEF está desarrollando una serie herramientas de mejora del diseño basadas en modelos estáticos, cinemáticos y dinámicos para la simulación del comportamiento de la escalera mecánica convencional así como para el desarrollo y análisis de nuevos diseños. Estas herramientas permitirán el estudio de variables como son la velocidad y la aceleración del peldaño, así como los valores de tensión de la cadena y de reacción de los rodillos. Con los resultados obtenidos se podrán inferir mejoras que supongan una disminución del coste del conjunto de la escalera y del coste de mantenimiento, así como un aumento del confort del usuario.
Resumo:
Esta Tesis aborda el diseño e implementación de aplicaciones en el campo de procesado de señal, utilizando como plataforma los dispositivos reconfigurables FPGA. Esta plataforma muestra una alta capacidad de lógica, e incorpora elementos orientados al procesado de señal, que unido a su relativamente bajo coste, la hacen ideal para el desarrollo de aplicaciones de procesado de señal cuando se requiere realizar un procesado intensivo y se buscan unas altas prestaciones. Sin embargo, el coste asociado al desarrollo en estas plataformas es elevado. Mientras que el aumento en la capacidad lógica de los dispositivos FPGA permite el desarrollo de sistemas completos, los requisitos de altas prestaciones obligan a que en muchas ocasiones se deban optimizar operadores a muy bajo nivel. Además de las restricciones temporales que imponen este tipo de aplicaciones, también tienen asociadas restricciones de área asociadas al dispositivo, lo que obliga a evaluar y verificar entre diferentes alternativas de implementación. El ciclo de diseño e implementación para estas aplicaciones se puede prolongar tanto, que es normal que aparezcan nuevos modelos de FPGA, con mayor capacidad y mayor velocidad, antes de completar el sistema, y que hagan a las restricciones utilizadas para el diseño del sistema inútiles. Para mejorar la productividad en el desarrollo de estas aplicaciones, y con ello acortar su ciclo de diseño, se pueden encontrar diferentes métodos. Esta Tesis se centra en la reutilización de componentes hardware previamente diseñados y verificados. Aunque los lenguajes HDL convencionales permiten reutilizar componentes ya definidos, se pueden realizar mejoras en la especificación que simplifiquen el proceso de incorporar componentes a nuevos diseños. Así, una primera parte de la Tesis se orientará a la especificación de diseños basada en componentes predefinidos. Esta especificación no sólo busca mejorar y simplificar el proceso de añadir componentes a una descripción, sino que también busca mejorar la calidad del diseño especificado, ofreciendo una mayor posibilidad de configuración e incluso la posibilidad de informar de características de la propia descripción. Reutilizar una componente ya descrito depende en gran medida de la información que se ofrezca para su integración en un sistema. En este sentido los HDLs convencionales únicamente proporcionan junto con la descripción del componente la interfaz de entrada/ salida y un conjunto de parámetros para su configuración, mientras que el resto de información requerida normalmente se acompaña mediante documentación externa. En la segunda parte de la Tesis se propondrán un conjunto de encapsulados cuya finalidad es incorporar junto con la propia descripción del componente, información que puede resultar útil para su integración en otros diseños. Incluyendo información de la implementación, ayuda a la configuración del componente, e incluso información de cómo configurar y conectar al componente para realizar una función. Finalmente se elegirá una aplicación clásica en el campo de procesado de señal, la transformada rápida de Fourier (FFT), y se utilizará como ejemplo de uso y aplicación, tanto de las posibilidades de especificación como de los encapsulados descritos. El objetivo del diseño realizado no sólo mostrará ejemplos de la especificación propuesta, sino que también se buscará obtener una implementación de calidad comparable con resultados de la literatura. Para ello, el diseño realizado se orientará a su implementación en FPGA, aprovechando tanto los elementos lógicos generalistas como elementos específicos de bajo nivel disponibles en estos dispositivos. Finalmente, la especificación de la FFT obtenida se utilizará para mostrar cómo incorporar en su interfaz información que ayude para su selección y configuración desde fases tempranas del ciclo de diseño. Abstract This PhD. thesis addresses the design and implementation of signal processing applications using reconfigurable FPGA platforms. This kind of platform exhibits high logic capability, incorporates dedicated signal processing elements and provides a low cost solution, which makes it ideal for the development of signal processing applications, where intensive data processing is required in order to obtain high performance. However, the cost associated to the hardware development on these platforms is high. While the increase in logic capacity of FPGA devices allows the development of complete systems, high-performance constraints require the optimization of operators at very low level. In addition to time constraints imposed by these applications, Area constraints are also applied related to the particular device, which force to evaluate and verify a design among different implementation alternatives. The design and implementation cycle for these applications can be tedious and long, being therefore normal that new FPGA models with a greater capacity and higher speed appear before completing the system implementation. Thus, the original constraints which guided the design of the system become useless. Different methods can be used to improve the productivity when developing these applications, and consequently shorten their design cycle. This PhD. Thesis focuses on the reuse of hardware components previously designed and verified. Although conventional HDLs allow the reuse of components already defined, their specification can be improved in order to simplify the process of incorporating new design components. Thus, a first part of the PhD. Thesis will focus on the specification of designs based on predefined components. This specification improves and simplifies the process of adding components to a description, but it also seeks to improve the quality of the design specified with better configuration options and even offering to report on features of the description. Hardware reuse of a component for its integration into a system largely depends on the information it offers. In this sense the conventional HDLs only provide together with the component description, the input/output interface and a set of parameters for its configuration, while other information is usually provided by external documentation. In the second part of the Thesis we will propose a formal way of encapsulation which aims to incorporate with the component description information that can be useful for its integration into other designs. This information will include features of the own implementation, but it will also support component configuration, and even information on how to configure and connect the component to carry out a function. Finally, the fast Fourier transform (FFT) will be chosen as a well-known signal processing application. It will be used as case study to illustrate the possibilities of proposed specification and encapsulation formalisms. The objective of the FFT design is not only to show practical examples of the proposed specification, but also to obtain an implementation of a quality comparable to scientific literature results. The design will focus its implementation on FPGA platforms, using general logic elements as base of the implementation, but also taking advantage of low-level specific elements available on these devices. Last, the specification of the obtained FFT will be used to show how to incorporate in its interface information to assist in the selection and configuration process early in the design cycle.
Resumo:
El presente trabajo trata sobre la evolución de las construcciones rurales en una de las mayores regiones españolas, La Mancha. Se analizan básicamente tres puntos: a) Los materiales y sistemas de ejecución. b) Los diseños. c) Como síntesis de las dos anteriores. Las tipologías. Los materiales se estudian por periodos de tiempo, y los diseños por tipo de edificación agraria. Se ha deducido que los edificios más interesantes por su evolución son las bodegas, harineras y almazaras. SUMMARY The present work deals on evolution suffered by rural buildings in one of the larger spanish región, La Mancha. Three different points have been analysed: a) Materials and carrying out systems. b) Designs. c) As a synthesis of the both above, typologys. Materials have been studied by periods of time, designs by type of rural buildings. It has been thought the most interesting buildings, in terms of evolution, are wineries, flour milis and olive-oil milis.
Resumo:
Las FPAA´s son dispositivos analógicos programables. Estos dispositivos se basan en el uso de condensadores conmutados junto con amplificadores operacionales. Este tipo de tecnología presenta una serie de ventajas, ya que combinan las ventajas de dispositivos digitales, como la reprogramación en función de las variables del entorno que los rodean, con la diferencia de ser dispositivos analógicos, permitiendo la realización de una amplia gama de diseños analógicos en un solo chip. En este proyecto se ha realizado un estudio sobre el funcionamiento de los condensadores conmutados y su uso en el dispositivo AN221E04 del fabricante Anadigm. Una vez descrita la arquitectura del AN221E04 y explicadas las bases del funcionamiento de los condensadores conmutados, utilizando como ejemplo los modelos facilitados por Anadigm, se desarrolla un modelo de amplificador de instrumentación teórico y se describe la metodología para su implementación en un AN221E04 con el software Anadigm Designer 2. Una vez implementado este modelo de amplificador de instrumentación se han efectuado una serie de pruebas con el objetivo de estudiar la capacidad de estos dispositivos. Dichas pruebas ponen de manifiesto que las FPAA´s tienen una serie de ventajas a tener en cuenta a la hora de realizar diseños analógicos. La precisión obtenida por el modelo de amplificador de instrumentación realizado es más que aceptable, llegando a obtener errores de ganancia inferiores al 1% con ganancias de 200V/V sin tener la necesidad de realizar grandes ajustes. En las conclusiones de este estudio se exponen tanto ventajas como inconvenientes de la utilización de FPAA´s en diseños analógicos. La principal ventaja de este uso es el ahorro de costes, ya que una vez desarrollada una plataforma de diseño, la capacidad de reconfiguración permite utilizar dicha plataforma para un amplio abanico de aplicaciones, reduciendo el número de componentes y simplificando las etapas de diseño. Como desventaja, las FPAA´s tienen una serie de limitaciones qué hay que tener en cuenta en ciertos casos pudiendo hacer irrealizable un diseño concreto; como puede ser el valor máximo o mínimo de ganancia. The FPAA's are programmable analog devices. These devices rely on the use of switched capacitors together with operational amplifiers. This type of technology has a number of advantages, because they combine the advantages of digital devices such as the reprogramming function of the variables of the surrounding environment, with the difference being analog devices, allowing the realization of a wide range of designs analog on a single chip. This project has conducted a study on the operation of the switched capacitor and its use in the device AN221E04 from Anadigm. Having described the architecture of AN221E04 and explained the basis for the operation of the switched capacitor, using the example models provided by Anadigm is developing an instrumentation amplifier theory model and describes the methodology for implementation in a AN221E04 with the Anadigm Designer 2 software. Once implemented this instrumentation amplifier model, have made a series of tests in order to study the ability of these devices. These tests show that the FPAA's have a number of advantages to take into account when making analog designs. The accuracy obtained by the instrumentation amplifier model is made more than acceptable, earning gain errors of less than 1% with gains of 200V / V without the need for major adjustments. The conclusions of this study are presented both advantages and disadvantages of using FPAA's in analog designs. The main advantage of this application is the cost savings, because once developed a platform for design, reconfiguration capability allows you to use this platform for a wide range of applications, reducing component count and simplifying design stages. As a disadvantage, the FPAA's have a number of limitations which must be taken into account in certain cases may make impossible a specific design, such as the maximum or minimum gain, or the magnitude of the possible settings.
Resumo:
En este se estudia diseños y e implementaciones de paradigmas visuales para observar la ejecución de programas lógicos con restricciones, enfocados hacia la depuración, optimización y enseñanza. Nos centraremos en la representación de datos en ejecuciones CLP, donde perseguimos la representación de variables con restricciones y de las restricciones en sí mismas. Se han implementado dos herramientas, VIFID y TRIFID, que utilizan dichas representaciones y que se usan para mostrar la utilidad de las visualizaciones desarrolladas.
Resumo:
El objetivo de la presente tesis doctoral es el desarrollo de un nuevo concepto de biosensor óptico sin marcado, basado en una combinación de técnicas de caracterización óptica de interrogación vertical y estructuras sub-micrométricas fabricadas sobre chips de silicio. Las características más importantes de dicho dispositivo son su simplicidad, tanto desde el punto de vista de medida óptica como de introducción de las muestras a medir en el área sensible, aspectos que suelen ser críticos en la mayoría de sensores encontrados en la literatura. Cada uno de los aspectos relacionados con el diseño de un biosensor, que son fundamentalmente cuatro (diseño fotónico, caracterización óptica, fabricación y fluídica/inmovilización química) son desarrollados en detalle en los capítulos correspondientes. En la primera parte de la tesis se hace una introducción al concepto de biosensor, en qué consiste, qué tipos hay y cuáles son los parámetros más comunes usados para cuantificar su comportamiento. Posteriormente se realiza un análisis del estado del arte en la materia, enfocado en particular en el área de biosensores ópticos sin marcado. Se introducen también cuáles son las reacciones bioquímicas a estudiar (inmunoensayos). En la segunda parte se describe en primer lugar cuáles son las técnicas ópticas empleadas en la caracterización: Reflectometría, Elipsometría y Espectrometría; además de los motivos que han llevado a su empleo. Posteriormente se introducen diversos diseños de las denominadas "celdas optofluídicas", que son los dispositivos en los que se va a producir la interacción bioquímica. Se presentan cuatro dispositivos diferentes, y junto con ellos, se proponen diversos métodos de cálculo teórico de la respuesta óptica esperada. Posteriormente se procede al cálculo de la sensibilidad esperada para cada una de las celdas, así como al análisis de los procesos de fabricación de cada una de ellas y su comportamiento fluídico. Una vez analizados todos los aspectos críticos del comportamiento del biosensor, se puede realizar un proceso de optimización de su diseño. Esto se realiza usando un modelo de cálculo simplificado (modelo 1.5-D) que permite la obtención de parámetros como la sensibilidad y el límite de detección de un gran número de dispositivos en un tiempo relativamente reducido. Para este proceso se escogen dos de las celdas optofluídicas propuestas. En la parte final de la tesis se muestran los resultados experimentales obtenidos. En primer lugar, se caracteriza una celda basada en agujeros sub-micrométricos como sensor de índice de refracción, usando para ello diferentes líquidos orgánicos; dichos resultados experimentales presentan una buena correlación con los cálculos teóricos previos, lo que permite validar el modelo conceptual presentado. Finalmente, se realiza un inmunoensayo químico sobre otra de las celdas propuestas (pilares nanométricos de polímero SU-8). Para ello se utiliza el inmunoensayo de albumina de suero bovino (BSA) y su anticuerpo (antiBSA). Se detalla el proceso de obtención de la celda, la funcionalización de la superficie con los bioreceptores (en este caso, BSA) y el proceso de biorreconocimiento. Este proceso permite dar una primera estimación de cuál es el límite de detección esperable para este tipo de sensores en un inmunoensayo estándar. En este caso, se alcanza un valor de 2.3 ng/mL, que es competitivo comparado con otros ensayos similares encontrados en la literatura. La principal conclusión de la tesis es que esta tipología de dispositivos puede ser usada como inmunosensor, y presenta ciertas ventajas respecto a los actualmente existentes. Estas ventajas vienen asociadas, de nuevo, a su simplicidad, tanto a la hora de medir ópticamente, como dentro del proceso de introducción de los bioanalitos en el área sensora (depositando simplemente una gota sobre la micro-nano-estructura). Los cálculos teorícos realizados en los procesos de optimización sugieren a su vez que el comportamiento del sensor, medido en magnitudes como límite de detección biológico puede ser ampliamente mejorado con una mayor compactación de pilares, alcanzandose un valor mínimo de 0.59 ng/mL). The objective of this thesis is to develop a new concept of optical label-free biosensor, based on a combination of vertical interrogation optical techniques and submicron structures fabricated over silicon chips. The most important features of this device are its simplicity, both from the point of view of optical measurement and regarding to the introduction of samples to be measured in the sensing area, which are often critical aspects in the majority of sensors found in the literature. Each of the aspects related to the design of biosensors, which are basically four (photonic design, optical characterization, fabrication and fluid / chemical immobilization) are developed in detail in the relevant chapters. The first part of the thesis consists of an introduction to the concept of biosensor: which elements consists of, existing types and the most common parameters used to quantify its behavior. Subsequently, an analysis of the state of the art in this area is presented, focusing in particular in the area of label free optical biosensors. What are also introduced to study biochemical reactions (immunoassays). The second part describes firstly the optical techniques used in the characterization: reflectometry, ellipsometry and spectrometry; in addition to the reasons that have led to their use. Subsequently several examples of the so-called "optofluidic cells" are introduced, which are the devices where the biochemical interactions take place. Four different devices are presented, and their optical response is calculated by using various methods. Then is exposed the calculation of the expected sensitivity for each of the cells, and the analysis of their fabrication processes and fluidic behavior at the sub-micrometric range. After analyzing all the critical aspects of the biosensor, it can be performed a process of optimization of a particular design. This is done using a simplified calculation model (1.5-D model calculation) that allows obtaining parameters such as sensitivity and the detection limit of a large number of devices in a relatively reduced time. For this process are chosen two different optofluidic cells, from the four previously proposed. The final part of the thesis is the exposition of the obtained experimental results. Firstly, a cell based sub-micrometric holes is characterized as refractive index sensor using different organic fluids, and such experimental results show a good correlation with previous theoretical calculations, allowing to validate the conceptual model presented. Finally, an immunoassay is performed on another typology of cell (SU-8 polymer pillars). This immunoassay uses bovine serum albumin (BSA) and its antibody (antiBSA). The processes for obtaining the cell surface functionalization with the bioreceptors (in this case, BSA) and the biorecognition (antiBSA) are detailed. This immunoassay can give a first estimation of which are the expected limit of detection values for this typology of sensors in a standard immunoassay. In this case, it reaches a value of 2.3 ng/mL, which is competitive with other similar assays found in the literature. The main conclusion of the thesis is that this type of device can be used as immunosensor, and has certain advantages over the existing ones. These advantages are associated again with its simplicity, by the simpler coupling of light and in the process of introduction of bioanalytes into the sensing areas (by depositing a droplet over the micro-nano-structure). Theoretical calculations made in optimizing processes suggest that the sensor Limit of detection can be greatly improved with higher compacting of the lattice of pillars, reaching a minimum value of 0.59 ng/mL).
Resumo:
Classical imaging optics has been developed over centuries in many areas, such as its paraxial imaging theory and practical design methods like multi-parametric optimization techniques. Although these imaging optical design methods can provide elegant solutions to many traditional optical problems, there are more and more new design problems, like solar concentrator, illumination system, ultra-compact camera, etc., that require maximum energy transfer efficiency, or ultra-compact optical structure. These problems do not have simple solutions from classical imaging design methods, because not only paraxial rays, but also non-paraxial rays should be well considered in the design process. Non-imaging optics is a newly developed optical discipline, which does not aim to form images, but to maximize energy transfer efficiency. One important concept developed from non-imaging optics is the “edge-ray principle”, which states that the energy flow contained in a bundle of rays will be transferred to the target, if all its edge rays are transferred to the target. Based on that concept, many CPC solar concentrators have been developed with efficiency close to the thermodynamic limit. When more than one bundle of edge-rays needs to be considered in the design, one way to obtain solutions is to use SMS method. SMS stands for Simultaneous Multiple Surface, which means several optical surfaces are constructed simultaneously. The SMS method was developed as a design method in Non-imaging optics during the 90s. The method can be considered as an extension to the Cartesian Oval calculation. In the traditional Cartesian Oval calculation, one optical surface is built to transform an input wave-front to an out-put wave-front. The SMS method however, is dedicated to solve more than 1 wave-fronts transformation problem. In the beginning, only 2 input wave-fronts and 2 output wave-fronts transformation problem was considered in the SMS design process for rotational optical systems or free-form optical systems. Usually “SMS 2D” method stands for the SMS procedure developed for rotational optical system, and “SMS 3D” method for the procedure for free-form optical system. Although the SMS method was originally employed in non-imaging optical system designs, it has been found during this thesis that with the improved capability to design more surfaces and control more input and output wave-fronts, the SMS method can also be applied to imaging system designs and possesses great advantage over traditional design methods. In this thesis, one of the main goals to achieve is to further develop the existing SMS-2D method to design with more surfaces and improve the stability of the SMS-2D and SMS-3D algorithms, so that further optimization process can be combined with SMS algorithms. The benefits of SMS plus optimization strategy over traditional optimization strategy will be explained in details for both rotational and free-form imaging optical system designs. Another main goal is to develop novel design concepts and methods suitable for challenging non-imaging applications, e.g. solar concentrator and solar tracker. This thesis comprises 9 chapters and can be grouped into two parts: the first part (chapter 2-5) contains research works in the imaging field, and the second part (chapter 6-8) contains works in the non-imaging field. In the first chapter, an introduction to basic imaging and non-imaging design concepts and theories is given. Chapter 2 presents a basic SMS-2D imaging design procedure using meridian rays. In this chapter, we will set the imaging design problem from the SMS point of view, and try to solve the problem numerically. The stability of this SMS-2D design procedure will also be discussed. The design concepts and procedures developed in this chapter lay the path for further improvement. Chapter 3 presents two improved SMS 3 surfaces’ design procedures using meridian rays (SMS-3M) and skew rays (SMS-1M2S) respectively. The major improvement has been made to the central segments selections, so that the whole SMS procedures become more stable compared to procedures described in Chapter 2. Since these two algorithms represent two types of phase space sampling, their image forming capabilities are compared in a simple objective design. Chapter 4 deals with an ultra-compact SWIR camera design with the SMS-3M method. The difficulties in this wide band camera design is how to maintain high image quality meanwhile reduce the overall system length. This interesting camera design provides a playground for the classical design method and SMS design methods. We will show designs and optical performance from both classical design method and the SMS design method. Tolerance study is also given as the end of the chapter. Chapter 5 develops a two-stage SMS-3D based optimization strategy for a 2 freeform mirrors imaging system. In the first optimization phase, the SMS-3D method is integrated into the optimization process to construct the two mirrors in an accurate way, drastically reducing the unknown parameters to only few system configuration parameters. In the second optimization phase, previous optimized mirrors are parameterized into Qbfs type polynomials and set up in code V. Code V optimization results demonstrates the effectiveness of this design strategy in this 2-mirror system design. Chapter 6 shows an etendue-squeezing condenser optics, which were prepared for the 2010 IODC illumination contest. This interesting design employs many non-imaging techniques such as the SMS method, etendue-squeezing tessellation, and groove surface design. This device has theoretical efficiency limit as high as 91.9%. Chapter 7 presents a freeform mirror-type solar concentrator with uniform irradiance on the solar cell. Traditional parabolic mirror concentrator has many drawbacks like hot-pot irradiance on the center of the cell, insufficient use of active cell area due to its rotational irradiance pattern and small acceptance angle. In order to conquer these limitations, a novel irradiance homogenization concept is developed, which lead to a free-form mirror design. Simulation results show that the free-form mirror reflector has rectangular irradiance pattern, uniform irradiance distribution and large acceptance angle, which confirm the viability of the design concept. Chapter 8 presents a novel beam-steering array optics design strategy. The goal of the design is to track large angle parallel rays by only moving optical arrays laterally, and convert it to small angle parallel output rays. The design concept is developed as an extended SMS method. Potential applications of this beam-steering device are: skylights to provide steerable natural illumination, building integrated CPV systems, and steerable LED illumination. Conclusion and future lines of work are given in Chapter 9. Resumen La óptica de formación de imagen clásica se ha ido desarrollando durante siglos, dando lugar tanto a la teoría de óptica paraxial y los métodos de diseño prácticos como a técnicas de optimización multiparamétricas. Aunque estos métodos de diseño óptico para formación de imagen puede aportar soluciones elegantes a muchos problemas convencionales, siguen apareciendo nuevos problemas de diseño óptico, concentradores solares, sistemas de iluminación, cámaras ultracompactas, etc. que requieren máxima transferencia de energía o dimensiones ultracompactas. Este tipo de problemas no se pueden resolver fácilmente con métodos clásicos de diseño porque durante el proceso de diseño no solamente se deben considerar los rayos paraxiales sino también los rayos no paraxiales. La óptica anidólica o no formadora de imagen es una disciplina que ha evolucionado en gran medida recientemente. Su objetivo no es formar imagen, es maximazar la eficiencia de transferencia de energía. Un concepto importante de la óptica anidólica son los “rayos marginales”, que se pueden utilizar para el diseño de sistemas ya que si todos los rayos marginales llegan a nuestra área del receptor, todos los rayos interiores también llegarán al receptor. Haciendo uso de este principio, se han diseñado muchos concentradores solares que funcionan cerca del límite teórico que marca la termodinámica. Cuando consideramos más de un haz de rayos marginales en nuestro diseño, una posible solución es usar el método SMS (Simultaneous Multiple Surface), el cuál diseña simultáneamente varias superficies ópticas. El SMS nació como un método de diseño para óptica anidólica durante los años 90. El método puede ser considerado como una extensión del cálculo del óvalo cartesiano. En el método del óvalo cartesiano convencional, se calcula una superficie para transformar un frente de onda entrante a otro frente de onda saliente. El método SMS permite transformar varios frentes de onda de entrada en frentes de onda de salida. Inicialmente, sólo era posible transformar dos frentes de onda con dos superficies con simetría de rotación y sin simetría de rotación, pero esta limitación ha sido superada recientemente. Nos referimos a “SMS 2D” como el método orientado a construir superficies con simetría de rotación y llamamos “SMS 3D” al método para construir superficies sin simetría de rotación o free-form. Aunque el método originalmente fue aplicado en el diseño de sistemas anidólicos, se ha observado que gracias a su capacidad para diseñar más superficies y controlar más frentes de onda de entrada y de salida, el SMS también es posible aplicarlo a sistemas de formación de imagen proporcionando una gran ventaja sobre los métodos de diseño tradicionales. Uno de los principales objetivos de la presente tesis es extender el método SMS-2D para permitir el diseño de sistemas con mayor número de superficies y mejorar la estabilidad de los algoritmos del SMS-2D y SMS-3D, haciendo posible combinar la optimización con los algoritmos. Los beneficios de combinar SMS y optimización comparado con el proceso de optimización tradicional se explican en detalle para sistemas con simetría de rotación y sin simetría de rotación. Otro objetivo importante de la tesis es el desarrollo de nuevos conceptos de diseño y nuevos métodos en el área de la concentración solar fotovoltaica. La tesis está estructurada en 9 capítulos que están agrupados en dos partes: la primera de ellas (capítulos 2-5) se centra en la óptica formadora de imagen mientras que en la segunda parte (capítulos 6-8) se presenta el trabajo del área de la óptica anidólica. El primer capítulo consta de una breve introducción de los conceptos básicos de la óptica anidólica y la óptica en formación de imagen. El capítulo 2 describe un proceso de diseño SMS-2D sencillo basado en los rayos meridianos. En este capítulo se presenta el problema de diseñar un sistema formador de imagen desde el punto de vista del SMS y se intenta obtener una solución de manera numérica. La estabilidad de este proceso se analiza con detalle. Los conceptos de diseño y los algoritmos desarrollados en este capítulo sientan la base sobre la cual se realizarán mejoras. El capítulo 3 presenta dos procedimientos para el diseño de un sistema con 3 superficies SMS, el primero basado en rayos meridianos (SMS-3M) y el segundo basado en rayos oblicuos (SMS-1M2S). La mejora más destacable recae en la selección de los segmentos centrales, que hacen más estable todo el proceso de diseño comparado con el presentado en el capítulo 2. Estos dos algoritmos representan dos tipos de muestreo del espacio de fases, su capacidad para formar imagen se compara diseñando un objetivo simple con cada uno de ellos. En el capítulo 4 se presenta un diseño ultra-compacto de una cámara SWIR diseñada usando el método SMS-3M. La dificultad del diseño de esta cámara de espectro ancho radica en mantener una alta calidad de imagen y al mismo tiempo reducir drásticamente sus dimensiones. Esta cámara es muy interesante para comparar el método de diseño clásico y el método de SMS. En este capítulo se presentan ambos diseños y se analizan sus características ópticas. En el capítulo 5 se describe la estrategia de optimización basada en el método SMS-3D. El método SMS-3D calcula las superficies ópticas de manera precisa, dejando sólo unos pocos parámetros libres para decidir la configuración del sistema. Modificando el valor de estos parámetros se genera cada vez mediante SMS-3D un sistema completo diferente. La optimización se lleva a cabo variando los mencionados parámetros y analizando el sistema generado. Los resultados muestran que esta estrategia de diseño es muy eficaz y eficiente para un sistema formado por dos espejos. En el capítulo 6 se describe un sistema de compresión de la Etendue, que fue presentado en el concurso de iluminación del IODC en 2010. Este interesante diseño hace uso de técnicas propias de la óptica anidólica, como el método SMS, el teselado de las lentes y el diseño mediante grooves. Este dispositivo tiene un límite teórica en la eficiencia del 91.9%. El capítulo 7 presenta un concentrador solar basado en un espejo free-form con irradiancia uniforme sobre la célula. Los concentradores parabólicos tienen numerosas desventajas como los puntos calientes en la zona central de la célula, uso no eficiente del área de la célula al ser ésta cuadrada y además tienen ángulos de aceptancia de reducido. Para poder superar estas limitaciones se propone un novedoso concepto de homogeneización de la irrandancia que se materializa en un diseño con espejo free-form. El análisis mediante simulación demuestra que la irradiancia es homogénea en una región rectangular y con mayor ángulo de aceptancia, lo que confirma la viabilidad del concepto de diseño. En el capítulo 8 se presenta un novedoso concepto para el diseño de sistemas afocales dinámicos. El objetivo del diseño es realizar un sistema cuyo haz de rayos de entrada pueda llegar con ángulos entre ±45º mientras que el haz de rayos a la salida sea siempre perpendicular al sistema, variando únicamente la posición de los elementos ópticos lateralmente. Las aplicaciones potenciales de este dispositivo son varias: tragaluces que proporcionan iluminación natural, sistemas de concentración fotovoltaica integrados en los edificios o iluminación direccionable con LEDs. Finalmente, el último capítulo contiene las conclusiones y las líneas de investigación futura.
Resumo:
Plantación de lúpulo en Mabegondo. En ella se detalla todas las labores, instalaciones, cálculos, diseños u otras actividades necesarias para el establecimiento de una plantación de lúpulo en unas condiciones determinadas.
Resumo:
Es importante disponer de una herramienta con la cual diseñar dispositivos de uso industrial y comercial que trabajen con metales líquidos (fuentes de neutrones de alta intensidad, núcleos de sistemas de transmutación nuclear, reactores de fisión de nueva generación, instalaciones de irradiación de materiales o reactores de fusión nuclear). Los códigos CFD (Computational Fluid Dynamics) son una de esas herramientas, y la manera de llevar a cabo su validación es la simulación de experimentos existentes. La turbulencia y la presencia de dos o más fases, son los dos principales problemas a los que tiene que hacer frente un código CFD. La mayoría de los modelos de turbulencia presentes en los códigos CFD se basan en considerar la proporcionalidad directa entre el transporte de cantidad de movimiento turbulento y el transporte turbulento de calor. Precisamente, el coeficiente de difusión del calor turbulento, se asume que sea proporcional a la viscosidad turbulenta a través de una constante empírica, llamada número de Prandtl turbulento. El valor de este número, en los códigos comerciales está entre 0,9 y 0,85 dependiendo del modelo de turbulencia, lo cual significa que en los códigos se asume que el transporte turbulento tanto de cantidad de movimiento como de calor, son prácticamente equivalentes. Esta asunción no es cierta en los flujos de metales líquidos, donde se demuestra que la transmisión de calor por turbulencia es pequeña frente a la transmisión de calor molecular. La solución pasa por aumentar el número de Prandtl turbulento, o abandonar la analogía de Reynolds, en el tratamiento de la turbulencia. Por otro lado, en los metales líquidos la capa límite térmica es más ancha que la de velocidad, y las funciones de pared incluidas en los códigos no satisfacen adecuadamente los flujos turbulentos de los fluidos con bajo número de Prantdl (los metales líquidos). Sí serían adecuados, si el mallado es tal, que la celda más cercana a la pared, está dentro de la subcapa laminar, en la cual la propiedad dominante es la conductividad molecular. En la simulación de flujo multifase los códigos se encuentran con una serie de dificultades, que en el caso de que las densidades de los fluidos que intervienen sean muy diferentes entre sí (como ocurre con los metales líquidos y los gases), serán aún mayores. La modelización de la interfase gas metal líquido, así como el encontrar una correlación válida para los coeficientes de resistencia y sustentación para el movimiento de las burbujas en el seno del metal líquido, son dos de los principales retos en la simulación de este tipo de flujos. Las dificultades no se limitan sólo a la simulación mediante CFD, las medidas experimentales de velocidad de las burbujas y del metal líquido también son complicadas. Hay parámetros que no se pueden definir bien: la trayectoria y la forma de las burbujas entre ellos. En el campo de aplicación industrial de los metales líquidos, los altos valores de los coeficientes de expansión volumétrica y de conductividad térmica hacen que estos fluidos sean muy atractivos en la refrigeración por convección libre en dispositivos de alta densidad de potencia. Tomando como base uno de los diseños de ADS (Accelerator Driven System), y teniendo en cuenta la dificultad que conlleva el uso de múltiples modelos físicos, los cálculos realizados muestran cómo, en caso de fallo eléctrico, la operación de la instalación puede continuar de forma segura. Para la validación de los códigos CFD en su uso como herramienta de diseño, uno de los fenómenos donde cuantitativamente más dificultades encuentran los códigos es en los que aparecen en la modelización de las superficies libres. Un buen ajuste de los modelos multifase y de turbulencia es imprescindible en este tipo de simulaciones. Efectivamente, en la instalación de irradiación de materiales IFMIF, la formación de ondas en la superficie libre del flujo de Litio, es un fenómeno que hay que tratar de evitar, y además se requiere predecir las temperaturas, para ver si hay peligro de ebullición del metal líquido. La simulación llevada a cabo se enfoca al análisis termohidráulico. Variando la velocidad de inyección de Litio desde 10 hasta 20 m/s, se comprueba que las temperaturas máximas quedan alejadas del punto de ebullición del Litio, debido al aumento de presión producido por la fuerza centrífuga. Una de las cuestiones más críticas que se presentan en las fuentes de neutrones sería la refrigeración de la ventana metálica sobre la que incide el haz de protones. La simulación de experimentos como MEGAPIE y TS-1, permite la “visualización” de recirculación en el flujo, de los puntos de estancamiento, de los puntos calientes, etc, y da una fotografía de las zonas críticas del diseño.
Resumo:
La presente tesis comprende un estudio de metales líquidos, Li, Pb y eutéctico Li17Pb en el ámbito de la tecnología de fusión nuclear. Uno de los problemas fundamentales en futuros reactores de fusión es la producción y extracción de tritio en la denominada envoltura regeneradora (blanket en inglés). Dicho blanket tendrá dos propósitos, la extracción del calor generado por las reacciones de fusión para su posterior conversión en energía eléctrica así como la producción de tritio para realimentar el proceso. Dicha producción se realizará mediante el “splitting” del Li con los neutrones provenientes de la fusión. Esta reacción produce tritio y helio por lo que la interacción del T y el He con el metal líquido, con los materiales estructurales así como con el He es un problema fundamental aun no bien entendido y de gran importancia para futuros diseños. Los capítulos 1 2 y 3 presentan una introducción a dichos problemas. El capítulo 1 introduce al lector en la tecnología de fusión nuclear. El segundo capítulo explica en mayor detalle el uso de metales líquidos en reactores de fusión, no solo en blankets sino también como primera pared, divertor etc, lo que se denomina en general “plasma facing materials”. Por último se ofrece una breve introducción a las técnicas de dinámica molecular clásica (CMD) y un breve resumen de los potenciales más usados. El estudio se ha llevado a cabo utilizando simulación atomística mediante potenciales semi-empíricos del tipo átomo embebido (EAM). La Tesis consta de 4 partes bien definidas. En primer lugar se verificó la idoneidad de los potenciales tipo EAM para simular las propiedades de los metales Li y Pb en fase líquida. Dicho estudio se detalla en el Capítulo 4 y en su extensión, el Apéndice 1, en el que se estudia los límites de validez de esta aproximación. Los resultados de dicho estudio han sido publicados y presentados en diversos congresos internacionales. Un resumen de la metodología seguida fue publicado como capítulo de libro en Technofusión 2011. Los resultados se presentaron en diversos congresos internacionales, entre ellos ICENES 2011, (Artículo en ICENES Proceedings) ICOPS-SOFE 2011, en una presentación oral etc. El trabajo ha sido aceptado recientemente en Journal of Nuclear Materiales (Fraile et al 2012). La segunda parte y más importante comprende el desarrollo de un potencial para el estudio de la mezcla de ambos metales. Éste es el trabajo más novedoso e importante dado que no existía en la literatura un potencial semejante. Se estudiaron dos aproximaciones distintas al problema, un potencial tipo EAM/cd y un potencial EAM/alloy. Ambos potenciales dan resultados satisfactorios para la simulación del eutéctico (y concentraciones de Li menores que el 17%). Sin embargo el sistema LiPb en todas las concentraciones es un sistema que se aparta enormemente de una solución ideal y dicho potencial no daba buenos resultados para mezclas PbLi con concentraciones de Li grandes. Este problema fue solventado mediante el desarrollo de un segundo potencial, esta vez tipo EAM/alloy (segunda parte del Capítulo 5). Dicho trabajo será enviado a Physical Review Letters o a Phys. Rev. B, y una extensión junto con un estudio detallado de las propiedades del eutéctico de acuerdo con nuestras simulaciones se enviará a continuación a Phys. Rev. B. En tercer lugar se estudió el problema de la difusividad del H en metales líquidos aprovechando distintos potenciales existentes en la literatura. El problema del H en metales líquidos es importante en metalurgia. En dicho capítulo se estudió la difusividad del H en Pd, Ni y Al con potenciales tipo EAM, y también con un potencial más sofisticado que tiene en cuenta la dependencia angular de las interacciones (ADP por sus siglas en inglés). De este modo disponemos de un estudio detallado del problema con diferentes modelos y diferentes metales. La conclusión apunta a que si se compara con los resultados experimentales (muy escasos) los resultados obtenidos mediante CMD dan valores bajos de la difusividad del H. Las razones de dicho desacuerdo entre simulación y experimentos se detallan en el Capítulo 6. Este trabajo ha sido presentado en una presentación oral en el reciente congreso internacional “Trends on Nanothecnology” TNT 2012 celebrado en Madrid. El trabajo será publicado en un futuro próximo. Por último, como se dijo anteriormente, el estudio del He, la formación de burbujas en metales líquidos, su difusión nucleación y cavitación es otro problema deseable de ser estudiado mediante técnicas atomísticas. Para ello es necesario el desarrollo de diversos potenciales, He-Li, He-Pb y un potencial ternario Pb-Li-He. Para ello se han realizado simulación ab initio de los sistemas Pb+He y Li+He. Dicho estudio pretende calcular las fuerzas entre los átomos del metal (Pb o Li) con intersticiales de He. De este modo aplicaremos el “force matching method” (FMM) para el desarrollo de dichos potenciales. En el Capítulo 7 se detallan los resultados obtenidos referidos a las posiciones más favorables de las impurezas de He dentro de redes cristalinas de Pb y Li así como el efecto de tener en cuenta el acoplo spin-orbita (SOC en inglés). El análisis de los resultados en términos de transferencia de carga y análisis de las densidades electrónicas, así como la creación de los potenciales mencionados está en progreso. En conjunto la tesis presenta un estudio de los diversos problemas relacionados con el uso de metales líquidos en reactores de fusión y representa un primer paso en la determinación de parámetros de gran importancia para el diseño de blankets y sistemas de primera pared. Con la simulación MD de dichos problemas mediante, importante, potenciales realistas, valores de difusión, solubilidad etc de especies ligeras, H (o sus isotopos) y He en metales líquidos podrá ser calculada complementando así la base de datos que presenta enormes incertidumbres.
Resumo:
En este trabajo se han cubierto diferentes asuntos del diseño neutrónico de los aspectos radiológicos de las dos instalaciones del proyecto HiPER. El proyecto HiPER es un proyecto europeo concebido en el marco del programa ESFRI (European Scientific Facilities Research Infrastructure). Está destinado al desarrollo de la energía de fusión nuclear inercial mediante el uso de láseres y el esquema iluminación directa. Consecuentemente, se trata de una instalación con fines exclusivamente civiles. Se divide en dos fases, correspondientes con dos instalaciones: HiPER Engineering y HiPER Reactor. La instalación HiPER Engineering desarrollará las tecnologías implicadas en la ignición de alta repetición de cápsulas de DT por iluminación directa. El HiPER Reactor será una planta demostradora que produzca electricidad haciendo uso de las tecnologías desarrolladas durante la fase HiPER Engineering. El HiPER Engineering se centrará en las tecnologías relevantes para las igniciones a alta repetición de cápsulas de DT usando la iluminación directa. El principal esfuerzo de desarrollo tecnológico se hará en todos los asuntos directamente relacionados con la ignición: láseres, óptica, inyector, y fabricación masiva de cápsulas entre otros. Se espera una producción de entre 5200 MJ/año y 120000 MJ/año dependiendo del éxito de la instalación. Comparado con la energía esperada en NIF, 1200 MJ/año, se trata de un reto y un paso más allá en la protección radiológica. En este trabajo se ha concebido una instalación preliminar. Se ha evaluado desde el punto de vista de la protección radiológica, siendo las personas y la óptica el objeto de protección de este estudio. Se ha establecido una zonificación durante la operación y durante el mantenimiento de la instalación. Además, se ha llevado a cabo una evaluación de la selección de materiales para la cámara de reacción desde el punto de vista de gestión de residuos radiactivos. El acero T91 se ha seleccionado por, siendo un acero comercial, presentar el mismo comportamiento que el acero de baja activación EUROFER97 al evaluarse como residuo con el nivel de irradiación de HiPER Engineering. Teniendo en cuenta los resultados obtenidos para la instalación preliminar y las modificaciones de la instalación motivadas en otros campos, se ha propuesto una instalación avanzada también en este trabajo. Un análisis más profundo de los aspectos radiológicos, así como una evaluación completa de la gestión de todos los residuos radiactivos generados en la instalación se ha llevado a cabo. La protección radiológica se ha incrementado respecto de la instalación preliminar, y todos los residuos pueden gestionarse en un plazo de 30 sin recurrir al enterramiento de residuos. El HiPER Reactor sera una planta demostradora que produzca electricidad basada en las tecnologías de ignición desarrolladas durante la fase HiPER Engineering. El esfuerzo de desarrollo tecnológico se llevará a cabo en los sistemas relacionados con la generación de electricidad en condiciones económicas: manto reproductor de tritio, ciclos de potencia, vida y mantenimiento de componentes, o sistemas de recuperación de tritio entre otros. En este trabajo la principal contribución a HiPER Reactor está relacionada con el diseño de la cámara de reacción y sus extensiones en la planta. La cámara de reacción es la isla nuclear más importante de la planta, donde la mayoría de las reacciones nucleares tienen lugar. Alberga la primera pared, el manto reproductor de tritio y la vasija de vacío. Todo el trabajo realizado aquí ha pivotado en torno al manto reproductor de tritio y sus interacciones con el resto de componentes de la planta. Tras una revisión profunda de la bibliografía de los diseños recientes de cámaras de reacción con características similares a HiPER Reactor, se ha propuesto y justificado un esquema tecnológico innovador para el manto reproductor de tritio. El material fértil selecconado es el eutéctico 15.7 at.% Litio – 84.3 at.% Plomo, LiPb, evitando el uso de berilio como multiplicador neutrónico mientras se garantiza el ajuste online de la tasa de reproducción de tritio mediante el ajuste en el enriquecimiento en 6Li. Aunque se podría haber elegido Litio purom el LiPb evita problemas relacionados con la reactividad química. El precio a pagar es un reto materializado como inventario radiactivo de Z alto en el lazo de LiPb que debe controlarse. El material estructural seleccionado es el acero de baja activación EUROFER97, que estará en contacto directo con le LiPb fluyendo a alta velocidad. En este esquema tecnológico, el LiPb asegurará la autosuficiente de tritio de la planta mientras el propio LiPb extrae del manto el calor sobre él depositado por los neutrones. Este esquema recibe el nombre de manto de Litio-Plomo auto-refrigerado (SCLL por sus siglas en inglés). Respecto de los conceptos SCLL previos, es destacable que nos e requieren componentes del SiC, puesto que no hay campos magnéticos en la cámara de reacción. Consecuentemente, el manto SCLL propuesto para HiPER presenta riesgo tecnológicos moderados, similares a otros dispositivos de fusión magnética, como el HCLL, e incluso inferiores a los del DCLL, puesto que no se require SiC. Los retos que se deben afrontar son el control del inventario de Z alto así como las tasas de corrosión derivadas de la interacción del LiPb con el EUROFE97. En este trabajo se abordan ambos aspectos, y se presentan los respectivos análisis, junto con otros aspectos neutrónicos y de activación, tales como la protección de la vasija de vacío por parte del material fértil para garantizar la resoldabilidad de por vida en la cara externa de la vasija. También se propone y se estudio un ciclo de potencia de Brayton de Helio para dos configuraciones diferentes de refrigeración del sistema primera pared-manto reproductor. Las principales conclusiones de estos estudios son: i) el inventario de Z alto puede controlarse y es comparable al que se encuentra en dispositivos de fusión similares, ii)la vasija de vacío requiere una mayor protección frente a la radiación neutrónica y iii) las tasas de corrosión son demasiado altas y la temperatura media de salida del LiPb es demasiado baja. Tiendo en cuenta estos resultados juntos con otras consideraciones relacionadas con el mantenimiento de componentes y la viabilidad constructiva, se ha propuesto una evolución de la cámara de reacción. Las evoluciones más destacables son la introducción de un reflector neutrónico de grafito, la modificación de la configuración de la óptica final, la forma y el tamaño de la cámara de vacío y una nueva subdivisión modular del manto. Se ha evaluado desde el punto de vista neutrónico, y su análisis y posterior evolución queda fuera del objeto de este trabajo. Los códigos utilizados en este trabajo son: CATIA para la generación de geometrías 3D complejas MCAM para la traducción de archivos de CATIA a formato de input de MCNP MCNP para el transporte de la radiación (neutrones y gammas) y sus respuestas asociadas ACAB para la evolución del inventario isotópico y sus respuestas asociadas MC2ACAB para acoplar MCNP y ACAB para el cómputo de dosis en parada usando la metodología R2S basada en celda. Moritz para visualizar los reultados de MCNP FLUENT para llevar a cabo cálculos de fluido-dinámica Para llevar a cabo este trabajo, han sido necesarias unas destrezas computacionales. Las más relevantes utilizadas son: generación de geometrás 3D complejas y transmisión a MCNP, diferentes tñecnica de reducción de varianza como importancia por celdas y weight windows basado en malla, metodología Rigorous-two-Steps basada en celdas para el cálculo de dosis en parada y la modificación del código ACAB para el cálculos con múltiples espectros en la misma simulación. Como resumen, la contribución de este trabajo al proyecto HiPER son dos diseños conceptuales de instalación: una para HiPER Engineering y otra para HiPER Reactor. La primera se ha estudio en profundidad desde el punto de vista de protección radiológica y gestión de residuos, mientras que la segunda se ha estudiado desde el punto de vista de operación: seguridad, comportamiento, vida y mantenimiento de componentes y eficiencia del ciclo de potencia.
Resumo:
El olivar en seto adaptado a la recolección con vendimiadora modificada, supone una alternativa viable a los olivares preparados para la recolección con vibrador de tronco. Presenta como principales ventajas: altas producciones en los primeros años, bajo coste de recolección, menor mano de obra y recolección rápida en el momento óptimo. Sin embargo, estas características sólo son posibles con estructuras óptimas, mantenidas en el tiempo. La intercepción de la radiación solar es el factor determinante de la producción de aceite, así la estructura óptima del seto deberá tender a maximizar la iluminación de la copa. Debido a que el olivar en seto es de reciente implantación, se desconoce la respuesta de la producción y calidad de aceite en setos de diferentes tamaños en distintas localidades. Las simulaciones de producción y calidad de aceite para distintos diseños serán útiles para el sector a la hora de decidir la estructura óptima. En este artículo describimos los avances realizados en este sentido y los retos que, agricultores e investigadores, deberemos ir resolviendo.
Resumo:
Este documento desarrolla todas las consideraciones, decisiones y acciones que se han llevado a cabo para diseñar y construir desde cero un sintetizador musical analógico y modular, similar en comportamiento al primer sintetizador existente (Moog Modular) pero aprovechando las ventajas de los nuevos componentes electrónicos y circuitos integrados, con el fin de mejorar las características, rendimiento y tamaño del producto final. El proyecto repasará los conceptos básicos de síntesis musical y las distinta partes (módulos) que conforman un sistema de estas características, a continuación empieza la toma de decisiones necesarias en cualquier proyecto electrónico, con el fin de poner limitaciones al comportamiento de cada parte y del sistema en conjunto, obteniendo un objetivo a cumplir. Una vez decidido ese objetivo se procederá al diseño electrónico del interior del aparato. Se complementa el documento con capítulos adicionales en los que se desglosan los resultados obtenidos en distintas medidas y un posible presupuesto de construcción. Se incluyen además anexos con los resultados de algunos de los resultados intermedios obtenidos (placas de circuito impreso y diseños de los frontales) para ser usados en el caso de que este proyecto sea continuado en el futuro.
Resumo:
El proyecto consiste en la construcción de una nave industrial con el objetivo de almacenamiento de alimentos antes de su distribución en los comercios. Las motivaciones del Promotor son aprovechar la creciente demanda de productos alimenticios y trabajar en la logística del sector agroalimentario con un producto consolidado en el mercado español y que goza de gran prestigio por parte de los consumidores. Para tal fin se decide disponer de una nave de almacenamiento en el Polígono Industrial Las Nieves, parcela 18, situado en el Término Municipal de Móstoles, que aumente las utilidades de la empresa del Promotor al integrar sus funciones de almacenaje a las de ventas, compras, control de inventarios, producción y distribución. En conjunto se llevan a cabo estas funciones: 1. Recibir para su cuidado y protección todos los materiales y suministros: en este caso productos ya terminados, listos para ser distribuidos. 2. Proporcionar suministros, mediante solicitudes autorizadas, a los departamentos que los requieran. 3. Mantener el almacén limpio y en orden, teniendo un lugar para cada cosa y manteniendo cada cosa en su lugar, es decir, en los lugares destinados según los sistemas aprobados para clasificación y localización. 4. Custodiar fielmente todo lo que se le ha dado a guardar, tanto su cantidad como su buen estado, controlando los productos para su posterior destino. 5. Realizar los movimientos de recibo, almacenamiento y despacho con el mínimo de tiempo y costo posible. 6. Llevar registros al día de sus existencias. La nave está situada en un polígono industrial ya conformado, reduciendo el impacto de construcción y servicio, y a tan sólo 20 kilómetros de Madrid por la autovía Madrid-Extremadura A-5. Ello la convierte en un punto estratégico que cuenta con todas las grandes infraestructuras de transporte necesarias para el desarrollo de la actividad del sector industrial y logístico, a unos precios muy competitivos. Serán objeto de estudio los fundamentos de las sucesivas operaciones básicas de la línea de elaboración, el diseño de la obra civil y de las instalaciones e infraestructura, la división de espacios, los medios de almacenamiento y manejo de productos, los diseños más indicados de estantería, y muy especialmente los procedimientos que han de normar el funcionamiento económico y eficiente del sistema. En la redacción y cálculos realizados se tendrán en cuenta las disposiciones y preceptos contenidos en la legislación vigente y se prestará especial atención al medio ambiente y al entorno circundante a la planta. Igualmente, se pretende obtener el mejor equilibrio posible entre la funcionalidad de las instalaciones proyectadas y su estética, optimizando todos aquellos factores y agentes que intervienen, con el objetivo de producir un producto de alta calidad y rentable al mismo tiempo. En una primera fase se realizará un Estudio Previo de Soluciones, que recogerá las informaciones básicas de las distintas posibilidades que pueden surgir a la hora de elaborar un proyecto de estas características. Se analizarán los criterios que permitan decidir cuál es el óptimo de construcción, y una vez decidida una solución en concreto, se pasará a realizar el Proyecto de Construcción.