20 resultados para Cabina luminosa


Relevância:

20.00% 20.00%

Publicador:

Resumo:

En la estación de radiación solar e iluminación de alta calidad del International Daylight Measurement Program (IDMP) en Madrid, ubicada en la Escuela Técnica Superior de Arquitectura de la Universidad Politécnica de Madrid (40º 25’ N, 3º 41’ W) se ha realizado un estudio detallado sobre la e-cacia luminosa de la radiación global, difusa y directa en super¬cies horizontales para todo tipo de cielos (despejados, cubiertos y parcialmente cubiertos). La parte experimental ha consistido en tomar medidas durante 5 segundos cada 15 minutos, diariamente, de iluminancias e irradiancias globales y difusas durante 15 meses, a partir de las cuales se han deducido modelos para determinar iluminancias, irradiancias y e¬cacias luminosas de la radiación solar para todo tipo de cielos en función de la altitud solar, considerando pequeños intervalos de 2,5º. El principal resultado obtenido es constatar que es posible deducir un modelo de e¬cacia luminosa a partir de modelos de iluminancia e irradiancia obtenidos previamente, muy útiles para estimar los niveles de iluminación en la edi¬cación

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A novel structure , based on a wedge shaped configuration, is presented . This structure , previously used in one of his forms,for refraction index measurements is analysed in this paper. The results obtained give the possibility of his use in electro snd magneto-optical modulation and deflection.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A menudo, la fase del vuelo en ruta sobre áreas de baja densidad de tráfico, se desarrollan en espacios aéreos de alta cota, en los que el servicio de vigilancia es deficiente o simplemente no existente. En este tipo de espacio aéreo garantizar las separaciones entre aeronaves desde el segmento terrestre requiere de procedimientos adecuados a los medios disponibles y que, en general, desembocan en la utilización de unas mínimas de separación muy grandes. En este tipo de espacio aéreo, se ha planteado desde distintos organismos la posibilidad de delegar la responsabilidad de la separación a la aeronave, desarrollando ésta las funciones necesarias para poder asumir tal responsabilidad sin disminuir los umbrales de seguridad. Para que la aeronave pueda asumir la responsabilidad de la separación es necesario dotar a las tripulaciones de nuevos medios técnicos y procedimientos operacionales, los cuales trabajando de forma continua y automática permitan el desarrollo seguro del vuelo en esas circunstancias. El planteamiento de algunos de estos sistemas embarcados así como su validación desde el punto de vista de su aceptación por las tripulaciones es el objetivo del trabajo de investigación realizado y cuyos resultados se presentan en esta tesis. El sistema que se propone trata de resolver los riesgos con los tráficos circundantes garantizando la auto‐separación en vuelo de crucero, evitando y resolviendo conflictos. La aeronave que detecta un riesgo/conflicto negocia una propuesta de solución con la aeronave “intrusa”, una vez la propuesta ha sido negociada, el piloto confirma la maniobra a realizar por la aeronave, la aeronave radiodifunde un mensaje con las intenciones de la maniobra, seguidamente el piloto automático maniobra el avión para implementar la solución y el director de vuelo muestra al piloto la maniobra que se está realizando. ABSTRACT The flight in route phase over areas of low traffic density is usually performed in high altitude airspace, in which the surveillance system is deficient or simply nonexistent. In this type of airspace, to guarantee the separation between aircrafts from the ground, adequate procedures are required to be used with the available systems, and this generally leads to the use of high separation minima. Also, in this type of airspace, it has been discussed by several organizations the possibility of delegating the responsibility of the aircraft separation to the aircraft itself, it carrying out the necessary functions to take on such responsibility without lowering the safety threshold. In order for the aircraft to take on the responsibility of the separation, it is necessary to provide the crew with new technical means and operational procedures, which will result in safe flight under those circumstances. The discussion of some of these systems and their validation from the point of view of acceptance by the crews is the objective of this achieved research work, the findings of which are presented here. The proposed system assists in the surveillance providing the autopilot with information to guarantee the self‐separation with the surrounding in flight traffic, avoiding and solving conflicts. The aircraft which detects the risk/conflict starts a negotiation with the intruder aircraft for finding a conflict resolution, then the pilot of the aircraft approves the solution maneuver and the aircraft broadcasts a message with the maneuver which will be executed. The autopilot maneuvers the aircraft to execute the solution, the evolution of which is shown in the proposed system display and the flight director.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

carriles de carreteras, autovías o autopistas, en todo tiempo meteorológico, hace que se plantee, entre otros, el estudio de una señalización luminosa adecuada de las mimas. Un claro ejemplo de este tipo de señalización luminosa para condiciones adversas de visibilidad son los sistemas de luces aeronáuticas de superficie utilizadas para el movimiento de aeronaves en los aeródromos. En esta comunicación se presenta un estudio de viabilidad para el uso de este tipo de luces, y su tecnología asociada, en la señalización luminosa de las calzadas de autovías y autopistas, basándose en la experiencia y criterios de carácter aeronáutico. El estudio comprende: la definición de los parámetros de configuración y dimensionamiento de las bandas de circulación, arcenes y carriles de una autovía; el análisis de las condiciones meteorológicas previstas más adversas, tipo de meteoro que se presenta: neblina, niebla, niebla densa, etc. y evaluación del alcance de la luz para una determinada intensidad luminosa; la cuantificación del alcance visual de las luces, para establecer posteriormente la posición y espaciado de las mismas; la valoración del un número mínimo de luces que se han de observar para predecir la configuración de la banda de circulación en tramos rectos y curvos; el análisis de los tipos de luces de guiado en superficie instaladas en los aeródromos para seleccionar las más adecuadas para este propósito en base a su emplazamiento, características luminosas de la luz en cuanto a color, intensidad de la luz y la distribución de su haz. Como la situación de visibilidad es cambiante, será necesaria la adecuación de la intensidad de las luces en cada momento para que sean visibles en unos casos y no deslumbre en otros. Los valores de la visibilidad meteorológica (MOR) se obtendrá mediante equipos específicos, que incluyen transmisómetros y medidores de luminancia de fondo, situados en los lugares adecuados. Mediante los datos proporcionados por estos dispositivos se controlarán las unidades de alimentación de las luces regulando su nivel de brillo de acuerdo a las condiciones meteorológicas del momento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las hojas representan el centro básico de la actividad de la vid, en ellas se realizan múltiples funciones que van desde las funciones fisiológicas más conocidas entre las que destaca la fotosíntesis, a través de la cual las hojas captan de la atmosfera la energía luminosa, que trasforman en energía química para trasformar el anhídrido carbónico (CO2) atmosférico en hidratos de carbono, en azúcares, que son el primer eslabón de todas las cadenas metabólicas de la planta, azúcares que la vid utilizará para edificar los diferentes tejidos y órganos, que empleará como fuente de energía para las diferentes funciones de crecimiento y metabolismo, azúcares que acumula como reserva en frutos o en los o en otras partes de las plantas (hojas, tallos o raíces); con el concurso de los azúcares las plantas obtienen los restantes compuestos orgánicos, desde las proteínas, las hormonas o los ácidos orgánicos tienen su origen en los azucares.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El conjunto de actividades ligadas al transporte aéreo se ha convertido, a nivel global, en una importante fuente de recursos económicos, generación de empleo e incremento de la calidad de vida de los ciudadanos. Sin embargo, la situación crónica de saturación del espacio aéreo y de los propios aeropuertos limita enormemente el potencial crecimiento económico mundial basado en este sector estratégico del transporte. Como efecto colateral de esta saturación, se producen graves daños medioambientales debidos fundamentalmente, a la emisión directa a la atmósfera de mucha mayor cantidad de gases de efecto invernadero de la estrictamente necesaria. La solución al problema no es abordable exclusivamente a través de la construcción de nuevas infraestructuras aeroportuarias o la ampliación de las ya existentes. Los organismos mundiales relacionados con la aviación civil han diagnosticado que la forma anacrónica en la que actualmente se está gestionando la información aeronáutica (IA) impide que los proveedores de servicios de navegación aérea puedan tratar de forma eficiente y segura un mayor volumen de tránsito aéreo en el mismo espacio y lapso de tiempo. En definitiva, se advierte que la actual falta de eficiencia de la gestión de IA constriñe de forma notable el verdadero potencial del sistema aéreo mundial. Para solucionar este problema, se encuentra en marcha un ambicioso programa de trabajo que pretende mejorar la situación actual, dando respuesta a la necesidad de una interoperabilidad mundial desde un punto de vista análogo al que promueven las IDE en otros campos temáticos. Denominado genéricamente transición de AIS (Servicios de Información Aeronáutica) a AIM (Gestión de la Información Aeronáutica), este proceso está liderado por la Organización de Aviación Civil Internacional (OACI), encargada de su tutela y coordinación con los estados para evitar en lo posible evoluciones divergentes. Basada en la futura puesta en marcha de un modelo mundial de intercambio de datos aeronáuticos normalizados, el avance de esta iniciativa está obligando a los servicios AIS a replantearse la forma en la que, hasta el momento, publican y difunden el contenido de las denominadas Publicaciones de Información Aeronáutica (AIP). Todavía hoy (mediados de 2011), las AIS publican su cartografía en formato papel y estos mapas son de uso obligatorio en todos los vuelos de transporte de pasajeros que realicen las compañías aéreas. Aunque nada impide que los pilotos puedan llevar otra información adicional en instrumentos electrónicos propios (ordenadores portátiles, teléfonos, tabletas tipo iPad, y otros), el uso de los mapas en papel sigue siendo obligatorio. Esto arrastra algunas consecuencias relacionadas con su manejo (la cabina del piloto es muy pequeña), con la lectura de los mapas (hay cada vez más información en los mapas), con su actualización (hay que versionar constantemente los mapas para incorporar novedades con el gasto de impresión y distribución que supone) y con otros aspectos que pueden ser fácilmente mejorables por medio de las tecnologías emergentes, como por ejemplo el acceso ubicuo a la información espacial más actual. Entre los cambios que impulsará la iniciativa del cambio de AIS a AIM, está el que los mapas usados por los pilotos y otros técnicos de IA, dejarán de concebirse como productos terminales y cerrados para evolucionar hacia el conocido formato de datos distribuidos e interoperables que auspician las IDE, logrando con ello integrar la información, contenida en la definición de diferentes flujos de trabajo dentro del campo aeronáutico, de forma directa, transparente y eficiente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este proyecto, titulado “Caracterización de colectores para concentración fotovoltaica”, consiste en una aplicación en Labview para obtener las características de los elementos ópticos utilizados en sistemas de concentración fotovoltaica , atendiendo a la distribución espacial del foco de luz concentrado que generan. Un sistema de concentración fotovoltaica utiliza un sistema óptico para transmitir la radiación luminosa a la célula solar aumentando la densidad de potencia luminosa. Estos sistemas ópticos están formados por espejos o lentes para recoger la radiación incidente en ellos y concentrar el haz de luz en una superficie mucho menor. De esta manera se puede reducir el área de material semiconductor necesario, lo que conlleva una importante reducción del coste del sistema. Se pueden distinguir diferentes sistemas de concentración dependiendo de la óptica que emplee, la estructura del receptor o el rango de concentración. Sin embargo, ya que el objetivo es analizar la distribución espacial, diferenciaremos dos tipos de concentradores dependiendo de la geometría que presenta el foco de luz. El concentrador lineal o cilíndrico que enfoca sobre una línea, y el concentrador de foco puntual o circular que enfoca la luz sobre un punto. Debido a esta diferencia el análisis en ambos casos se realizará de forma distinta. El análisis se realiza procesando una imagen del foco tomada en el lugar del receptor, este método se llama LS-CCD (Difusión de luz y captura con CCD). Puede utilizarse en varios montajes dependiendo si se capta la imagen por reflexión o por transmisión en el receptor. En algunos montajes no es posible captar la imagen perpendicular al receptor por lo que la aplicación realizará un ajuste de perspectiva para obtener el foco con su forma original. La imagen del foco ofrece información detallada acerca de la uniformidad del foco mediante el mapa de superficie, que es una representación en 3D de la imagen pero que resulta poco manejable. Una representación más sencilla y útil es la que ofrecen los llamados “perfiles de intensidad”. El perfil de intensidad o distribución de la irradiancia que representa la distribución de la luz para cada distancia al centro, y el perfil acumulado o irradiancia acumulada que representa la luz contenida en relación también al centro. Las representaciones de estos perfiles en el caso de un concentrador lineal y otro circular son distintas debido a su diferente geometría. Mientras que para un foco lineal se expresa el perfil en función de la semi-anchura del receptor, para uno circular se expresa en función del radio. En cualquiera de los casos ofrecen información sobre la uniformidad y el tamaño del foco de luz necesarios para diseñar el receptor. El objetivo de este proyecto es la creación de una aplicación software que realice el procesado y análisis de las imágenes obtenidas del foco de luz de los sistemas ópticos a caracterizar. La aplicación tiene una interfaz sencilla e intuitiva para que pueda ser empleada por cualquier usuario. Los recursos necesarios para realizar el proyecto son: un PC con sistema operativo Windows, el software Labview 8.6 Professional Edition y los módulos NI Vision Development Module (para trabajar con imágenes) y NI Report Generation Toolkit (para realizar reportes y guardar datos de la aplicación). ABSTRACT This project, called “Characterization of collectors for concentration photovoltaic systems”, consists in a Labview application to obtain the characteristics of the optical elements used in photovoltaic concentrator, taking into account the spatial distribution of concentrated light source generated. A concentrator photovoltaic system uses an optical system to transmit light radiation to the solar cell by increasing the light power density. This optical system are formed by mirrors or lenses to collect the radiation incident on them and focus the beam of light in a much smaller surface area. In this way you can reduce the area of semiconductor material needed, which implies a significant reduction in system cost. There are different concentration systems depending on the optics used, receptor structure or concentration range. However, as the aim is to analyze the spatial distribution, distinguish between two types of concentrators depending on the geometry that has the light focus. The linear or cylindrical concentrator that focused on a line, and the circular concentrator that focused light onto a point. Because this difference in both cases the analysis will be carried out differently. The analysis is performed by processing a focus image taken at the receiver site, this method is called “LS-CCD” (Light Scattering and CCD recording). Can be used in several mountings depending on whether the image is captured by reflection or transmission on the receiver. In some mountings it is not possible to capture the image perpendicular to the receivers so that the application makes an adjustment of perspective to get the focus to its original shape. The focus image provides detail information about the uniformity of focus through the surface map, which is a 3D image representation but it is unwieldy. A simple and useful representation is provided by so called “intensity profiles”. The intensity profile or irradiance distribution which represents the distribution of light to each distance to the center. The accumulated profile or accumulated irradiance that represents the cumulative light contained in relation also to the center. The representation of these profiles in the case of a linear and a circular concentrator are different due to their distinct geometry. While for a line focus profile is expressed in terms of semi-width of the receiver, for a circular concentrator is expressed in terms of radius. In either case provides information about the uniformity and size of focus needed to design the receiver. The objective of this project is the creation of a software application to perform processing and analysis of images obtained from light source of optical systems to characterize.The application has a simple and a intuitive interface so it can be used for any users. The resources required for the project are: a PC with Windows operating system, LabVIEW 8.6 Professional Edition and the modules NI Vision Development Module (for working with images) and NI Report Generation Toolkit (for reports and store application data .)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo de esta Tesis ha sido la consecución de simulaciones en tiempo real de vehículos industriales modelizados como sistemas multicuerpo complejos formados por sólidos rígidos. Para el desarrollo de un programa de simulación deben considerarse cuatro aspectos fundamentales: la modelización del sistema multicuerpo (tipos de coordenadas, pares ideales o impuestos mediante fuerzas), la formulación a utilizar para plantear las ecuaciones diferenciales del movimiento (coordenadas dependientes o independientes, métodos globales o topológicos, forma de imponer las ecuaciones de restricción), el método de integración numérica para resolver estas ecuaciones en el tiempo (integradores explícitos o implícitos) y finalmente los detalles de la implementación realizada (lenguaje de programación, librerías matemáticas, técnicas de paralelización). Estas cuatro etapas están interrelacionadas entre sí y todas han formado parte de este trabajo. Desde la generación de modelos de una furgoneta y de camión con semirremolque, el uso de tres formulaciones dinámicas diferentes, la integración de las ecuaciones diferenciales del movimiento mediante métodos explícitos e implícitos, hasta el uso de funciones BLAS, de técnicas de matrices sparse y la introducción de paralelización para utilizar los distintos núcleos del procesador. El trabajo presentado en esta Tesis ha sido organizado en 8 capítulos, dedicándose el primero de ellos a la Introducción. En el Capítulo 2 se presentan dos formulaciones semirrecursivas diferentes, de las cuales la primera está basada en una doble transformación de velocidades, obteniéndose las ecuaciones diferenciales del movimiento en función de las aceleraciones relativas independientes. La integración numérica de estas ecuaciones se ha realizado con el método de Runge-Kutta explícito de cuarto orden. La segunda formulación está basada en coordenadas relativas dependientes, imponiendo las restricciones por medio de penalizadores en posición y corrigiendo las velocidades y aceleraciones mediante métodos de proyección. En este segundo caso la integración de las ecuaciones del movimiento se ha llevado a cabo mediante el integrador implícito HHT (Hilber, Hughes and Taylor), perteneciente a la familia de integradores estructurales de Newmark. En el Capítulo 3 se introduce la tercera formulación utilizada en esta Tesis. En este caso las uniones entre los sólidos del sistema se ha realizado mediante uniones flexibles, lo que obliga a imponer los pares por medio de fuerzas. Este tipo de uniones impide trabajar con coordenadas relativas, por lo que la posición del sistema y el planteamiento de las ecuaciones del movimiento se ha realizado utilizando coordenadas Cartesianas y parámetros de Euler. En esta formulación global se introducen las restricciones mediante fuerzas (con un planteamiento similar al de los penalizadores) y la estabilización del proceso de integración numérica se realiza también mediante proyecciones de velocidades y aceleraciones. En el Capítulo 4 se presenta una revisión de las principales herramientas y estrategias utilizadas para aumentar la eficiencia de las implementaciones de los distintos algoritmos. En primer lugar se incluye una serie de consideraciones básicas para aumentar la eficiencia numérica de las implementaciones. A continuación se mencionan las principales características de los analizadores de códigos utilizados y también las librerías matemáticas utilizadas para resolver los problemas de álgebra lineal tanto con matrices densas como sparse. Por último se desarrolla con un cierto detalle el tema de la paralelización en los actuales procesadores de varios núcleos, describiendo para ello el patrón empleado y las características más importantes de las dos herramientas propuestas, OpenMP y las TBB de Intel. Hay que señalar que las características de los sistemas multicuerpo problemas de pequeño tamaño, frecuente uso de la recursividad, y repetición intensiva en el tiempo de los cálculos con fuerte dependencia de los resultados anteriores dificultan extraordinariamente el uso de técnicas de paralelización frente a otras áreas de la mecánica computacional, tales como por ejemplo el cálculo por elementos finitos. Basándose en los conceptos mencionados en el Capítulo 4, el Capítulo 5 está dividido en tres secciones, una para cada formulación propuesta en esta Tesis. En cada una de estas secciones se describen los detalles de cómo se han realizado las distintas implementaciones propuestas para cada algoritmo y qué herramientas se han utilizado para ello. En la primera sección se muestra el uso de librerías numéricas para matrices densas y sparse en la formulación topológica semirrecursiva basada en la doble transformación de velocidades. En la segunda se describe la utilización de paralelización mediante OpenMP y TBB en la formulación semirrecursiva con penalizadores y proyecciones. Por último, se describe el uso de técnicas de matrices sparse y paralelización en la formulación global con uniones flexibles y parámetros de Euler. El Capítulo 6 describe los resultados alcanzados mediante las formulaciones e implementaciones descritas previamente. Este capítulo comienza con una descripción de la modelización y topología de los dos vehículos estudiados. El primer modelo es un vehículo de dos ejes del tipo chasis-cabina o furgoneta, perteneciente a la gama de vehículos de carga medianos. El segundo es un vehículo de cinco ejes que responde al modelo de un camión o cabina con semirremolque, perteneciente a la categoría de vehículos industriales pesados. En este capítulo además se realiza un estudio comparativo entre las simulaciones de estos vehículos con cada una de las formulaciones utilizadas y se presentan de modo cuantitativo los efectos de las mejoras alcanzadas con las distintas estrategias propuestas en esta Tesis. Con objeto de extraer conclusiones más fácilmente y para evaluar de un modo más objetivo las mejoras introducidas en la Tesis, todos los resultados de este capítulo se han obtenido con el mismo computador, que era el top de la gama Intel Xeon en 2007, pero que hoy día está ya algo obsoleto. Por último los Capítulos 7 y 8 están dedicados a las conclusiones finales y las futuras líneas de investigación que pueden derivar del trabajo realizado en esta Tesis. Los objetivos de realizar simulaciones en tiempo real de vehículos industriales de gran complejidad han sido alcanzados con varias de las formulaciones e implementaciones desarrolladas. ABSTRACT The objective of this Dissertation has been the achievement of real time simulations of industrial vehicles modeled as complex multibody systems made up by rigid bodies. For the development of a simulation program, four main aspects must be considered: the modeling of the multibody system (types of coordinates, ideal joints or imposed by means of forces), the formulation to be used to set the differential equations of motion (dependent or independent coordinates, global or topological methods, ways to impose constraints equations), the method of numerical integration to solve these equations in time (explicit or implicit integrators) and the details of the implementation carried out (programming language, mathematical libraries, parallelization techniques). These four stages are interrelated and all of them are part of this work. They involve the generation of models for a van and a semitrailer truck, the use of three different dynamic formulations, the integration of differential equations of motion through explicit and implicit methods, the use of BLAS functions and sparse matrix techniques, and the introduction of parallelization to use the different processor cores. The work presented in this Dissertation has been structured in eight chapters, the first of them being the Introduction. In Chapter 2, two different semi-recursive formulations are shown, of which the first one is based on a double velocity transformation, thus getting the differential equations of motion as a function of the independent relative accelerations. The numerical integration of these equations has been made with the Runge-Kutta explicit method of fourth order. The second formulation is based on dependent relative coordinates, imposing the constraints by means of position penalty coefficients and correcting the velocities and accelerations by projection methods. In this second case, the integration of the motion equations has been carried out by means of the HHT implicit integrator (Hilber, Hughes and Taylor), which belongs to the Newmark structural integrators family. In Chapter 3, the third formulation used in this Dissertation is presented. In this case, the joints between the bodies of the system have been considered as flexible joints, with forces used to impose the joint conditions. This kind of union hinders to work with relative coordinates, so the position of the system bodies and the setting of the equations of motion have been carried out using Cartesian coordinates and Euler parameters. In this global formulation, constraints are introduced through forces (with a similar approach to the penalty coefficients) are presented. The stabilization of the numerical integration is carried out also by velocity and accelerations projections. In Chapter 4, a revision of the main computer tools and strategies used to increase the efficiency of the implementations of the algorithms is presented. First of all, some basic considerations to increase the numerical efficiency of the implementations are included. Then the main characteristics of the code’ analyzers used and also the mathematical libraries used to solve linear algebra problems (both with dense and sparse matrices) are mentioned. Finally, the topic of parallelization in current multicore processors is developed thoroughly. For that, the pattern used and the most important characteristics of the tools proposed, OpenMP and Intel TBB, are described. It needs to be highlighted that the characteristics of multibody systems small size problems, frequent recursion use and intensive repetition along the time of the calculation with high dependencies of the previous results complicate extraordinarily the use of parallelization techniques against other computational mechanics areas, as the finite elements computation. Based on the concepts mentioned in Chapter 4, Chapter 5 is divided into three sections, one for each formulation proposed in this Dissertation. In each one of these sections, the details of how these different proposed implementations have been made for each algorithm and which tools have been used are described. In the first section, it is shown the use of numerical libraries for dense and sparse matrices in the semirecursive topological formulation based in the double velocity transformation. In the second one, the use of parallelization by means OpenMP and TBB is depicted in the semi-recursive formulation with penalization and projections. Lastly, the use of sparse matrices and parallelization techniques is described in the global formulation with flexible joints and Euler parameters. Chapter 6 depicts the achieved results through the formulations and implementations previously described. This chapter starts with a description of the modeling and topology of the two vehicles studied. The first model is a two-axle chassis-cabin or van like vehicle, which belongs to the range of medium charge vehicles. The second one is a five-axle vehicle belonging to the truck or cabin semi-trailer model, belonging to the heavy industrial vehicles category. In this chapter, a comparative study is done between the simulations of these vehicles with each one of the formulations used and the improvements achieved are presented in a quantitative way with the different strategies proposed in this Dissertation. With the aim of deducing the conclusions more easily and to evaluate in a more objective way the improvements introduced in the Dissertation, all the results of this chapter have been obtained with the same computer, which was the top one among the Intel Xeon range in 2007, but which is rather obsolete today. Finally, Chapters 7 and 8 are dedicated to the final conclusions and the future research projects that can be derived from the work presented in this Dissertation. The objectives of doing real time simulations in high complex industrial vehicles have been achieved with the formulations and implementations developed.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo de este proyecto es el de determinar, a través de una serie de medidas, los tiempos de vida y causas de fallo de diodos LED. Para ello, se someterá a los dispositivos a condiciones extremas de temperatura y humedad dentro de una cámara climática, con el objetivo de acelerar su edad, su tiempo de uso, hecho que provocará la aparición de los fallos mucho antes que en condiciones normales de funcionamiento. Se tomarán medidas tanto de su tensión y corriente para el análisis de las gráficas I-V, dentro y fuera de la cámara, como de las potencias luminosas de cada uno de ellos. Estas medidas se realizarán en dos ocasiones al día, en intervalos de no menos de 6 horas. Para las medidas de tensión y corriente se utilizará un programa desarrollado en el entorno de LabView, tanto para las medidas en el interior de la cámara, lo que nos permite un seguimiento específico del estado de los dispositivos en cada momento, como para las medidas fuera de ella. Para las medidas de la potencia luminosa de cada LED se utilizará un medidor de potencia óptica. Cada ensayo constará de 15 dispositivos LED, que se evaluarán en las mismas condiciones de temperatura y humedad. El resumen de los 8 ensayos realizados es el que sigue: - Ensayo 1: 140ºC 85% HUMEDAD a 10 mA. - Ensayo 2: 140ºC 70% HUMEDAD a 10 mA. - Ensayo 3: 120ºC 85% HUMEDAD a 10 mA. - Ensayo 4: 120ºC 85% HUMEDAD a 30 mA. - Ensayo 5: 140ºC 70% HUMEDAD a 30 mA. - Ensayo 6: 140ºC 85% HUMEDAD a 30 mA. - Ensayo 7: 140ºC 60% HUMEDAD a 30 mA. - Ensayo 8: 140ºC 85% HUMEDAD a 20 mA. Una vez tomadas las medidas, se analizarán los datos, de cara a obtener una ley de degradación del LED a través del análisis de Weibull y se estudiarán las diferentes causas de fallo. ABSTRACT. The aim of this Project is to determine, based on several measures, the lifetime and the causes of LED’s failures. The devices will be tested under extreme both temperature and humidity conditions in a Pressure Cooker, attempting to make faults to appear earlier. Voltage and current measures will be taken, inside and also outside the Pressure cooker, in order to use them in I-V graphs. In addition, luminous power measures for each LED will be taken. All those measures will be obtained twice a day, with 6 hours delay between both of them. A program based on LabView environment will be used to take voltage and current measures, inside and outside the pressure cooker, which allow us to follow the performance of the LED at each moment. The luminous power of each LED will be taken by a measurer. Each test consists of 15 LED devices, which will be evaluated under the same conditions each time. The 8 tests are as follows - Test 1: 140ºC 85% relative humidity at 10 mA. - Test 2: 140ºC 70% relative humidity at 10 mA. - Test 3: 120ºC 85% relative humidity at 10 mA. - Test 4: 120ºC 85% relative humidity at 30 mA. - Test 5: 140ºC 70% relative humidity at 30 mA. - Test 6: 140ºC 85% relative humidity at 30 mA. - Test 7: 140ºC 60% relative humidity at 30 mA. - Test 8: 140ºC 85% relative humidity at 20 mA. When the measures are completely taken, data will be analyzed, in order to obtain a LED’s degradation law using Weibull’s distribution. Also the causes of the failures will be evaluated.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Aunque los láseres de semiconductor constituyen la antítesis de lo que convencionalmente es la imagen de un láser, su uso y aplicaciones comienzan a estar tan extendidos que es seguro que dentro de muy pocos años el número de los que estarán en funcionamiento será superior al de todas las otras familias láser actualmente conocidas. La razón de lo anterior es que constituyen, como veremos, la base de los sistemas de comunicaciones ópticas que se están desarrollando en todo el mundo, así como de muchos sistemas de control y, posiblemente, de algunas fases de los computadores ópticos que puedan desarrollarse en el futuro. El láser de semiconductor no emite, por lo general, el típico haz casi perfectamente paralelo que se propaga en línea recta sin apenas divergencia, ni incluso puede llegar a verse, ya que, normalmente, va a trabajar en el infrarrojo. Pero a pesar de ello, o mejor dicho, gracias a ello, es la fuente luminosa idónea para trabajar en conjunción con las fibras ópticas. El desarrollo, por otra parte, de toda la tecnología microelectrónica que puede ser aplicada a él de manera inmediata, hace que no sea necesario desarrollar nuevas técnicas para obtener de él lo que se desee. Finalmente, su tamaño y consumo de potencia, hacen de él el elemento más asequible para poder ser introducido dentro de una serie de sistemas donde esos dos parámetros sean imprescindibles. Su estudio, su desarrollo y cómo utilizarlo constituyen en consecuencia, necesidades que pueden ser esenciales en múltiples ocasiones

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La mejora del comportamiento aerodinámico de vehículos pesados en la carretera ha adquirido una mayor importancia estos últimos años debido a la crisis y su consecuente aumento del precio de los combustibles. Dado que una reducción en la resistencia aerodinámica del vehículo conlleva un menor empleo de combustible, el objetivo de este proyecto es realizar un estudio paramétrico del conjunto tractor-tráiler mediante la mecánica de fluidos computacional (CFD) para así obtener la geometría que proporciona un menor gasto de combustible cuando ésta es expuesta a viento frontal. La influencia de 3 parámetros, que son la separación existente entre cabina y remolque, la altura del remolque y el radio de curvatura de las aristas frontales de la cabina, es analizada en este estudio dividido en varias etapas que implican el uso de programas específicos como son: la parametrización y creación de las geometrías en 3D que es llevada a cabo mediante CATIA, el mallado del dominio (realizado con Gambit) y resolución de las ecuaciones mediante FLUENT. Finalmente se obtendrá una relación entre la resistencia aerodinámica (representada mediante el coeficiente de arrastre) y la combinación de los 3 parámetros, que nos permitirá decidir que geometría es la óptima. Abstract The improvement of the heavy vehicle’s aerodynamic behavior on the road has gained a great importance for these last years because of the economic crisis and the consequent increase of the price of the fuels. Due to the fact that a reduction in the aerodynamic resistance of the vehicle involves using a smaller amount of fuel, the objective of this project is to carry out a parametric study about the ensemble tractor-trailer by computational fluid dynamics methods (CFD) in order to obtain the geometry which expense of fuel is the lowest when it’s exposed to frontal wind. The influence of the three parameters, which are the space between cab and trailer, the height of the trailer and the curvature of the frontal cab edges, is analysed in this study which is divided into different parts involving specific programs: choosing the parameters and building the geometries, which is done by using CATIA, the mesh is built by Gambit, and the program equations-solver is FLUENT. Finally a ratio between aerodynamic resistance and a combination of the three parameters will be obtained and it will allow us to choose the best geometry.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La astronomía de rayos γ estudia las partículas más energéticas que llegan a la Tierra desde el espacio. Estos rayos γ no se generan mediante procesos térmicos en simples estrellas, sino mediante mecanismos de aceleración de partículas en objetos celestes como núcleos de galaxias activos, púlsares, supernovas, o posibles procesos de aniquilación de materia oscura. Los rayos γ procedentes de estos objetos y sus características proporcionan una valiosa información con la que los científicos tratan de comprender los procesos físicos que ocurren en ellos y desarrollar modelos teóricos que describan su funcionamiento con fidelidad. El problema de observar rayos γ es que son absorbidos por las capas altas de la atmósfera y no llegan a la superficie (de lo contrario, la Tierra será inhabitable). De este modo, sólo hay dos formas de observar rayos γ embarcar detectores en satélites, u observar los efectos secundarios que los rayos γ producen en la atmósfera. Cuando un rayo γ llega a la atmósfera, interacciona con las partículas del aire y genera un par electrón - positrón, con mucha energía. Estas partículas secundarias generan a su vez más partículas secundarias cada vez menos energéticas. Estas partículas, mientras aún tienen energía suficiente para viajar más rápido que la velocidad de la luz en el aire, producen una radiación luminosa azulada conocida como radiación Cherenkov durante unos pocos nanosegundos. Desde la superficie de la Tierra, algunos telescopios especiales, conocidos como telescopios Cherenkov o IACTs (Imaging Atmospheric Cherenkov Telescopes), son capaces de detectar la radiación Cherenkov e incluso de tomar imágenes de la forma de la cascada Cherenkov. A partir de estas imágenes es posible conocer las principales características del rayo γ original, y con suficientes rayos se pueden deducir características importantes del objeto que los emitió, a cientos de años luz de distancia. Sin embargo, detectar cascadas Cherenkov procedentes de rayos γ no es nada fácil. Las cascadas generadas por fotones γ de bajas energías emiten pocos fotones, y durante pocos nanosegundos, y las correspondientes a rayos γ de alta energía, si bien producen más electrones y duran más, son más improbables conforme mayor es su energía. Esto produce dos líneas de desarrollo de telescopios Cherenkov: Para observar cascadas de bajas energías son necesarios grandes reflectores que recuperen muchos fotones de los pocos que tienen estas cascadas. Por el contrario, las cascadas de altas energías se pueden detectar con telescopios pequeños, pero conviene cubrir con ellos una superficie grande en el suelo para aumentar el número de eventos detectados. Con el objetivo de mejorar la sensibilidad de los telescopios Cherenkov actuales, en el rango de energía alto (> 10 TeV), medio (100 GeV - 10 TeV) y bajo (10 GeV - 100 GeV), nació el proyecto CTA (Cherenkov Telescope Array). Este proyecto en el que participan más de 27 países, pretende construir un observatorio en cada hemisferio, cada uno de los cuales contará con 4 telescopios grandes (LSTs), unos 30 medianos (MSTs) y hasta 70 pequeños (SSTs). Con un array así, se conseguirán dos objetivos. En primer lugar, al aumentar drásticamente el área de colección respecto a los IACTs actuales, se detectarán más rayos γ en todos los rangos de energía. En segundo lugar, cuando una misma cascada Cherenkov es observada por varios telescopios a la vez, es posible analizarla con mucha más precisión gracias a las técnicas estereoscópicas. La presente tesis recoge varios desarrollos técnicos realizados como aportación a los telescopios medianos y grandes de CTA, concretamente al sistema de trigger. Al ser las cascadas Cherenkov tan breves, los sistemas que digitalizan y leen los datos de cada píxel tienen que funcionar a frecuencias muy altas (≈1 GHz), lo que hace inviable que funcionen de forma continua, ya que la cantidad de datos guardada será inmanejable. En su lugar, las señales analógicas se muestrean, guardando las muestras analógicas en un buffer circular de unos pocos µs. Mientras las señales se mantienen en el buffer, el sistema de trigger hace un análisis rápido de las señales recibidas, y decide si la imagen que hay en el buér corresponde a una cascada Cherenkov y merece ser guardada, o por el contrario puede ignorarse permitiendo que el buffer se sobreescriba. La decisión de si la imagen merece ser guardada o no, se basa en que las cascadas Cherenkov producen detecciones de fotones en píxeles cercanos y en tiempos muy próximos, a diferencia de los fotones de NSB (night sky background), que llegan aleatoriamente. Para detectar cascadas grandes es suficiente con comprobar que más de un cierto número de píxeles en una región hayan detectado más de un cierto número de fotones en una ventana de tiempo de algunos nanosegundos. Sin embargo, para detectar cascadas pequeñas es más conveniente tener en cuenta cuántos fotones han sido detectados en cada píxel (técnica conocida como sumtrigger). El sistema de trigger desarrollado en esta tesis pretende optimizar la sensibilidad a bajas energías, por lo que suma analógicamente las señales recibidas en cada píxel en una región de trigger y compara el resultado con un umbral directamente expresable en fotones detectados (fotoelectrones). El sistema diseñado permite utilizar regiones de trigger de tamaño seleccionable entre 14, 21 o 28 píxeles (2, 3, o 4 clusters de 7 píxeles cada uno), y con un alto grado de solapamiento entre ellas. De este modo, cualquier exceso de luz en una región compacta de 14, 21 o 28 píxeles es detectado y genera un pulso de trigger. En la versión más básica del sistema de trigger, este pulso se distribuye por toda la cámara de forma que todos los clusters sean leídos al mismo tiempo, independientemente de su posición en la cámara, a través de un delicado sistema de distribución. De este modo, el sistema de trigger guarda una imagen completa de la cámara cada vez que se supera el número de fotones establecido como umbral en una región de trigger. Sin embargo, esta forma de operar tiene dos inconvenientes principales. En primer lugar, la cascada casi siempre ocupa sólo una pequeña zona de la cámara, por lo que se guardan muchos píxeles sin información alguna. Cuando se tienen muchos telescopios como será el caso de CTA, la cantidad de información inútil almacenada por este motivo puede ser muy considerable. Por otro lado, cada trigger supone guardar unos pocos nanosegundos alrededor del instante de disparo. Sin embargo, en el caso de cascadas grandes la duración de las mismas puede ser bastante mayor, perdiéndose parte de la información debido al truncamiento temporal. Para resolver ambos problemas se ha propuesto un esquema de trigger y lectura basado en dos umbrales. El umbral alto decide si hay un evento en la cámara y, en caso positivo, sólo las regiones de trigger que superan el nivel bajo son leídas, durante un tiempo más largo. De este modo se evita guardar información de píxeles vacíos y las imágenes fijas de las cascadas se pueden convertir en pequeños \vídeos" que representen el desarrollo temporal de la cascada. Este nuevo esquema recibe el nombre de COLIBRI (Concept for an Optimized Local Image Building and Readout Infrastructure), y se ha descrito detalladamente en el capítulo 5. Un problema importante que afecta a los esquemas de sumtrigger como el que se presenta en esta tesis es que para sumar adecuadamente las señales provenientes de cada píxel, estas deben tardar lo mismo en llegar al sumador. Los fotomultiplicadores utilizados en cada píxel introducen diferentes retardos que deben compensarse para realizar las sumas adecuadamente. El efecto de estos retardos ha sido estudiado, y se ha desarrollado un sistema para compensarlos. Por último, el siguiente nivel de los sistemas de trigger para distinguir efectivamente las cascadas Cherenkov del NSB consiste en buscar triggers simultáneos (o en tiempos muy próximos) en telescopios vecinos. Con esta función, junto con otras de interfaz entre sistemas, se ha desarrollado un sistema denominado Trigger Interface Board (TIB). Este sistema consta de un módulo que irá montado en la cámara de cada LST o MST, y que estará conectado mediante fibras ópticas a los telescopios vecinos. Cuando un telescopio tiene un trigger local, este se envía a todos los vecinos conectados y viceversa, de modo que cada telescopio sabe si sus vecinos han dado trigger. Una vez compensadas las diferencias de retardo debidas a la propagación en las fibras ópticas y de los propios fotones Cherenkov en el aire dependiendo de la dirección de apuntamiento, se buscan coincidencias, y en el caso de que la condición de trigger se cumpla, se lee la cámara en cuestión, de forma sincronizada con el trigger local. Aunque todo el sistema de trigger es fruto de la colaboración entre varios grupos, fundamentalmente IFAE, CIEMAT, ICC-UB y UCM en España, con la ayuda de grupos franceses y japoneses, el núcleo de esta tesis son el Level 1 y la Trigger Interface Board, que son los dos sistemas en los que que el autor ha sido el ingeniero principal. Por este motivo, en la presente tesis se ha incluido abundante información técnica relativa a estos sistemas. Existen actualmente importantes líneas de desarrollo futuras relativas tanto al trigger de la cámara (implementación en ASICs), como al trigger entre telescopios (trigger topológico), que darán lugar a interesantes mejoras sobre los diseños actuales durante los próximos años, y que con suerte serán de provecho para toda la comunidad científica participante en CTA. ABSTRACT -ray astronomy studies the most energetic particles arriving to the Earth from outer space. This -rays are not generated by thermal processes in mere stars, but by means of particle acceleration mechanisms in astronomical objects such as active galactic nuclei, pulsars, supernovas or as a result of dark matter annihilation processes. The γ rays coming from these objects and their characteristics provide with valuable information to the scientist which try to understand the underlying physical fundamentals of these objects, as well as to develop theoretical models able to describe them accurately. The problem when observing rays is that they are absorbed in the highest layers of the atmosphere, so they don't reach the Earth surface (otherwise the planet would be uninhabitable). Therefore, there are only two possible ways to observe γ rays: by using detectors on-board of satellites, or by observing their secondary effects in the atmosphere. When a γ ray reaches the atmosphere, it interacts with the particles in the air generating a highly energetic electron-positron pair. These secondary particles generate in turn more particles, with less energy each time. While these particles are still energetic enough to travel faster than the speed of light in the air, they produce a bluish radiation known as Cherenkov light during a few nanoseconds. From the Earth surface, some special telescopes known as Cherenkov telescopes or IACTs (Imaging Atmospheric Cherenkov Telescopes), are able to detect the Cherenkov light and even to take images of the Cherenkov showers. From these images it is possible to know the main parameters of the original -ray, and with some -rays it is possible to deduce important characteristics of the emitting object, hundreds of light-years away. However, detecting Cherenkov showers generated by γ rays is not a simple task. The showers generated by low energy -rays contain few photons and last few nanoseconds, while the ones corresponding to high energy -rays, having more photons and lasting more time, are much more unlikely. This results in two clearly differentiated development lines for IACTs: In order to detect low energy showers, big reflectors are required to collect as much photons as possible from the few ones that these showers have. On the contrary, small telescopes are able to detect high energy showers, but a large area in the ground should be covered to increase the number of detected events. With the aim to improve the sensitivity of current Cherenkov showers in the high (> 10 TeV), medium (100 GeV - 10 TeV) and low (10 GeV - 100 GeV) energy ranges, the CTA (Cherenkov Telescope Array) project was created. This project, with more than 27 participating countries, intends to build an observatory in each hemisphere, each one equipped with 4 large size telescopes (LSTs), around 30 middle size telescopes (MSTs) and up to 70 small size telescopes (SSTs). With such an array, two targets would be achieved. First, the drastic increment in the collection area with respect to current IACTs will lead to detect more -rays in all the energy ranges. Secondly, when a Cherenkov shower is observed by several telescopes at the same time, it is possible to analyze it much more accurately thanks to the stereoscopic techniques. The present thesis gathers several technical developments for the trigger system of the medium and large size telescopes of CTA. As the Cherenkov showers are so short, the digitization and readout systems corresponding to each pixel must work at very high frequencies (_ 1 GHz). This makes unfeasible to read data continuously, because the amount of data would be unmanageable. Instead, the analog signals are sampled, storing the analog samples in a temporal ring buffer able to store up to a few _s. While the signals remain in the buffer, the trigger system performs a fast analysis of the signals and decides if the image in the buffer corresponds to a Cherenkov shower and deserves to be stored, or on the contrary it can be ignored allowing the buffer to be overwritten. The decision of saving the image or not, is based on the fact that Cherenkov showers produce photon detections in close pixels during near times, in contrast to the random arrival of the NSB phtotons. Checking if more than a certain number of pixels in a trigger region have detected more than a certain number of photons during a certain time window is enough to detect large showers. However, taking also into account how many photons have been detected in each pixel (sumtrigger technique) is more convenient to optimize the sensitivity to low energy showers. The developed trigger system presented in this thesis intends to optimize the sensitivity to low energy showers, so it performs the analog addition of the signals received in each pixel in the trigger region and compares the sum with a threshold which can be directly expressed as a number of detected photons (photoelectrons). The trigger system allows to select trigger regions of 14, 21, or 28 pixels (2, 3 or 4 clusters with 7 pixels each), and with extensive overlapping. In this way, every light increment inside a compact region of 14, 21 or 28 pixels is detected, and a trigger pulse is generated. In the most basic version of the trigger system, this pulse is just distributed throughout the camera in such a way that all the clusters are read at the same time, independently from their position in the camera, by means of a complex distribution system. Thus, the readout saves a complete camera image whenever the number of photoelectrons set as threshold is exceeded in a trigger region. However, this way of operating has two important drawbacks. First, the shower usually covers only a little part of the camera, so many pixels without relevant information are stored. When there are many telescopes as will be the case of CTA, the amount of useless stored information can be very high. On the other hand, with every trigger only some nanoseconds of information around the trigger time are stored. In the case of large showers, the duration of the shower can be quite larger, loosing information due to the temporal cut. With the aim to solve both limitations, a trigger and readout scheme based on two thresholds has been proposed. The high threshold decides if there is a relevant event in the camera, and in the positive case, only the trigger regions exceeding the low threshold are read, during a longer time. In this way, the information from empty pixels is not stored and the fixed images of the showers become to little \`videos" containing the temporal development of the shower. This new scheme is named COLIBRI (Concept for an Optimized Local Image Building and Readout Infrastructure), and it has been described in depth in chapter 5. An important problem affecting sumtrigger schemes like the one presented in this thesis is that in order to add the signals from each pixel properly, they must arrive at the same time. The photomultipliers used in each pixel introduce different delays which must be compensated to perform the additions properly. The effect of these delays has been analyzed, and a delay compensation system has been developed. The next trigger level consists of looking for simultaneous (or very near in time) triggers in neighbour telescopes. These function, together with others relating to interfacing different systems, have been developed in a system named Trigger Interface Board (TIB). This system is comprised of one module which will be placed inside the LSTs and MSTs cameras, and which will be connected to the neighbour telescopes through optical fibers. When a telescope receives a local trigger, it is resent to all the connected neighbours and vice-versa, so every telescope knows if its neighbours have been triggered. Once compensated the delay differences due to propagation in the optical fibers and in the air depending on the pointing direction, the TIB looks for coincidences, and in the case that the trigger condition is accomplished, the camera is read a fixed time after the local trigger arrived. Despite all the trigger system is the result of the cooperation of several groups, specially IFAE, Ciemat, ICC-UB and UCM in Spain, with some help from french and japanese groups, the Level 1 and the Trigger Interface Board constitute the core of this thesis, as they have been the two systems designed by the author of the thesis. For this reason, a large amount of technical information about these systems has been included. There are important future development lines regarding both the camera trigger (implementation in ASICS) and the stereo trigger (topological trigger), which will produce interesting improvements for the current designs during the following years, being useful for all the scientific community participating in CTA.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este PFC es un trabajo muy práctico, los objetivos fueron impuestos por el tutor, como parte del desarrollo de herramientas (software y hardware) que serán utilizados posteriormente a nivel de docencia e investigación. El PFC tiene dos áreas de trabajo, la principal y primera que se expone es la utilización de una herramienta de simulación térmica para caracterizar dispositivos semiconductores con disipador, la segunda es la expansión de una tarjeta de adquisición de datos con unas PCBs diseñadas, que no estaban disponibles comercialmente. Se ha probado y configurado “Autodesk 2013 Inventor Fusion” y “Autodesk 2013 Simulation and Multiphysics” para simulación térmica de dispositivos de alta potencia. Estas aplicaciones son respectivamente de diseño mecánico y simulación térmica, y la UPM dispone actualmente de licencia. En esta parte del proyecto se realizará un manual de utilización, para que se continúe con esta línea de trabajo en otros PFC. Además se han diseñado mecánicamente y simulado térmicamente diodos LED de alta potencia luminosa (High Brightness Lights Emitting Diodes, HB-LEDs), tanto blancos como del ultravioleta cercano (UVA). Las simulaciones térmicas son de varios tipos de LEDs que actualmente se están empleando y caracterizando térmicamente en Proyectos Fin de Carrera y una Tesis doctoral. En la segunda parte del PFC se diseñan y realizan unas placas de circuito impreso (PCB) cuya función es formar parte de sistemas de instrumentación de adquisición automática de datos basados en LabVIEW. Con esta instrumentación se pueden realizar ensayos de fiabilidad y de otro tipo a dispositivos y sistemas electrónicos. ABSTRACT. The PFC is a very practical work, the objectives were set by the tutor, as part of the development of tools (software and hardware) that will be used later at level of teaching and research. The PFC has two parts, the first one explains the use of a software tool about thermal simulation to characterize devices semiconductors with heatsink, and second one is the expansion of card data acquisition with a PCBs designed, which were not available commercially. It has been tested and configured "Autodesk 2013 Inventor Fusion" and "Autodesk 2013 Simulation Multiphysics” for thermal simulation of high power devices. These applications are respectively of mechanical design and thermal simulation, and the UPM has at present license. In this part of the project a manual of use will be realized, so that it is continued by this line of work in other PFC. Also they have been designed mechanically and simulated thermally LEDs light (High Brightness Lights Emitting Diodes , HB- LEDs) both white and ultraviolet. Thermal simulations are several types of LEDs are now being used in thermally characterizing in Thesis and PhD. In the second part of the PFC there are designed and realized circuit board (PCB) whose function is to be a part of instrumentation systems of automatic acquisition based on LabVIEW data. With this instrumentation can perform reliability testing and other electronic devices and systems.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo de este Proyecto Final de Carrera es la realización de un ensayo de fiabilidad de componentes electrónicos, más concretamente de diodos LED, con el fin de estudiar su comportamiento a lo largo del tiempo de vida. Debido a la larga duración de los LEDs, un ensayo de este tipo podría durar años, por lo que es necesario realizar un ensayo acelerado que acorte significativamente el tiempo del experimento, para ello, han de someterse a esfuerzos mayores que en condiciones normales de funcionamiento. En la actualidad, los LEDs son usados en infinidad de aplicaciones, debido a sus múltiples ventajas respecto a otros sistemas de iluminación o señalización convencionales. En numerosos casos se utilizan en el exterior, soportando cambios de temperaturas y de humedad elevados, de ahí, la importancia de realizar ensayos de fiabilidad, que muestren sus posibles causas de fallo, los efectos que producen estos fallos y los aspectos de diseño, fabricación y mantenimiento que puedan afectarles. Como consecuencia del envejecimiento de los LEDs, pueden mostrar una reducción en el flujo luminoso y un empeoramiento de las propiedades cromáticas. Los LEDs utilizados en este Proyecto son de AlInGaP, rojos, de alta luminosidad. Para acelerar el ensayo, se utilizará una cámara climática que simule unas condiciones ambientales determinadas, en concreto, 85º C y 85% HR. Además, se realiza una monitorización periódica, siendo necesaria la utilización de un sistema automático de medida diseñado en LabVIEW, el cual, de manera simultánea realizará medidas y gestionará la inyección de corriente a los LEDs mientras se encuentren en el interior de la cámara climática. Se fabrican dos placas con 4 tiras de LEDs para inyectar un nivel de corriente diferente en cada una y así poder comparar la degradación en función de este parámetro. Fuera de la cámara climática se van a medir las curvas características de tensióncorriente de cada LED a una temperatura ambiente constante, fijada por un módulo Peltier. También se realizarán medidas de potencia luminosa y de espectro de emisión. Se analizarán los resultados obtenidos de cada una de las medidas y se realizará un estudio de fiabilidad y del proceso de degradación sufrido por los LEDs. Este PFC se puede dividir en las siguientes fases de trabajo, siendo el ensayo la parte más larga en el tiempo: · Búsqueda de bibliografía, documentación y normas aplicables. · Familiarización con los equipos y software, estudiando el manejo y funcionamiento de la cámara climática temperatura-humedad y el software a aplicar (LabVIEW y software del espectrómetro). · Desarrollo del hardware y sistemas necesarios para la realización del ensayo. · Realización del ensayo. · Análisis de resultados. ABSTRACT. The objective of this end of degree project is conducting an essay reliability of electronic components, more concretely LEDs, in order to study their behavior throughout its lifespan. Due to the long duration of the LEDs, a essay of this type could last for years, so it is necessary to perform an accelerated essay which significantly shorten the time of the experiment, testing should be subjected to greater efforts than in normal operation. Today, LEDs are used in many applications due to its many advantages over other conventional lighting systems or signaling. In numerous cases are used on the outside, enduring high changes in temperature and humidity, hence the importance of reliability essays, showing the possible causes of failure, the effects produced by these failures and aspects of design, manufacturing and maintenance that may affect them. As a result of the ageing of the LEDs, they may show a reduction in light output and a worsening of the chromatic properties. The LEDs used in this project are AlInGaP, red and high brightness. To speed up the essay will be used a climatic chamber to simulate specific environmental conditions, specifically 85 ° C and 85 % RH. In addition, is pe rformed a periodic monitoring using an automatic measurement system designed in LabVIEW , which , simultaneously will performed measurements and will manage the injection current to the LEDs while are inside of the climatic chamber. 4 strips of LEDs are created to inject a different level of current in each, so can compare the degradation in terms of this parameter. Out of the climatic chamber are obtained the characteristic curves of voltage-current of each LED at a constant room temperature, set by a Peltier module. Also, measures light power and the emitted spectrum. The results of each of the measures and a reliability study and degradation suffered by the LEDs will be discussed. This PFC can be divided into the following steps, the essay being the longest part: • Search bibliography, documentation and standards. • Familiarization with equipment and software, studying the management and the operation of the temperature-humidity environmental chamber and applying software (LabVIEW applications and spectrometer software). • Development of hardware and systems necessary for the conduct of the essay. • Carrying out the essay. • Analysis of results.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo del estudio fue comparar el peso corporal adulto de gallinas ponedoras alojadas en jaulas enriquecidas y sometidas a diferentes intensidades de iluminación de acuerdo con el esquema factorial 2x3: iluminación del pasillo (lateral y central) versus iluminación del piso (bajo, intermedio y alto) , evaluado en el periodo de 18 hasta 60 se manas de edad de acuerdo con el modelo no lineal de Gompertz. Las gallinas fueron alojadas en dos baterías de 3 pisos, con dos filas por piso y cinco jaulas por fila (25 aves/jaula), con un total de 1.500 gallinas. Dichas jaulas cumplen la Directiva CE 199 9/74. Se pesaron 10 gallinas de cada jaula, identificadas con anillas de color diferente, a la edad de 18, 20, 24, 28, 32, 36, 44, 52 y 60 semanas. Para el ajuste de los parámetros B y C del modelo de Gompertz se utilizó el peso medio de las pollitas hasta la 17 a semana edad, pues tuvimos como objetivo mantener dichos parámetros B y C de la curva de Gompertz para todos los tratamientos, ya que el fin del estudio fue evaluar la influencia de la intensidad luminosa en el peso adulto de las gallinas, es decir, el crecimiento después del punto de inflexión de la curva.