980 resultados para Sistemas por espalhamento de espectro
Resumo:
La medición y testeo de células fotovoltaicas en el laboratorio o en la industria exige reproducir unas condiciones de iluminación semejantes a las reales. Por eso se utilizan sistemas de iluminación basados en lámparas flash de Xenon que reproducen las condiciones reales en cuanto a nivel de irradiancia y espectro de la luz incidente. El objetivo de este proyecto es realizar los circuitos electrónicos necesarios para el disparo de dichas lámparas. El circuito de alimentación y disparo de una lámpara flash consta de una fuente de alimentación variable, un circuito de disparo para la ionización del gas Xenon y la electrónica de control. Nuestro circuito de disparo pretende producir pulsos adecuados para los dispositivos fotovoltaicos tanto en irradiancia, espectro y en duración, de forma que con un solo disparo consigamos el tiempo, la irradiancia y el espectro suficiente para el testeo de la célula fotovoltaica. La mayoría de estos circuitos exceptuando los específicos que necesita la lámpara, serán diseñados, simulados, montados en PCB y comprobados posteriormente en el laboratorio. ABSTRACT. Measurement and testing of photovoltaic cells in the laboratory or in industry requires reproduce lighting conditions similar to the real ones. So are used based lighting systems xenon flash lamps that reproduce the actual conditions in the level of irradiance and spectrum of the incident light. The objective of this project is to make electronic circuits required for such lamps shot. The power supply circuit and flash lamp shot consists of a variable power supply, a trigger circuit for Xenon gas ionization and the control electronics. Our shot circuit aims to produce pulses suitable for photovoltaic devices both irradiance, spectrum and duration, so that with a single shot get the time, the irradiance and spectrum enough for testing the photovoltaic cell. Most of these circuits except lamp specific requirements will be designed, simulated, and PCB mounted subsequently tested in the laboratory.
Resumo:
La óptica anidólica es una rama de la óptica cuyo desarrollo comenzó a mediados de la década de 1960. Este relativamente nuevo campo de la óptica se centra en la transferencia eficiente de la luz, algo necesario en muchas aplicaciones, entre las que destacamos los concentradores solares y los sistemas de iluminación. Las soluciones de la óptica clásica a los problemas de la transferencia de energía de la luz sólo son adecuadas cuando los rayos de luz son paraxiales. La condición paraxial no se cumple en la mayoría de las aplicaciones para concentración e iluminación. Esta tesis contiene varios diseños free-form (aquellos que no presentan ninguna simetría, ni de rotación ni lineal) cuyas aplicaciones van destinadas a estos dos campos. El término nonimaging viene del hecho de que estos sistemas ópticos no necesitan formar una imagen del objeto, aunque no formar la imagen no es una condición necesaria. Otra palabra que se utiliza a veces en lugar de nonimaging es la palabra anidólico, viene del griego "an+eidolon" y tiene el mismo significado. La mayoría de los sistemas ópticos diseñados para aplicaciones anidólicas no presentan ninguna simetría, es decir, son free-form (anamórficos). Los sistemas ópticos free-form están siendo especialmente relevantes durante los últimos años gracias al desarrollo de las herramientas para su fabricación como máquinas de moldeo por inyección y el mecanizado multieje. Sin embargo, solo recientemente se han desarrollado técnicas de diseño anidólicas capaces de cumplir con estos grados de libertad. En aplicaciones de iluminación el método SMS3D permite diseñar dos superficies free-form para controlar las fuentes de luz extensas. En los casos en que se requiere una elevada asimetría de la fuente, el objeto o las restricciones volumétricos, las superficies free-form permiten obtener soluciones de mayor eficiencia, o disponer de menos elementos en comparación con las soluciones de simetría de rotación, dado que las superficies free-form tienen más grados de libertad y pueden realizar múltiples funciones debido a su naturaleza anamórfica. Los concentradores anidólicos son muy adecuados para la captación de energía solar, ya que el objetivo no es la reproducción de una imagen exacta del sol, sino sencillamente la captura de su energía. En este momento, el campo de la concentración fotovoltaica (CPV) tiende hacia sistemas de alta concentración con el fin de compensar el gasto de las células solares multi-unión (MJ) utilizadas como receptores, reduciendo su área. El interés en el uso de células MJ radica en su alta eficiencia de conversión. Para obtener sistemas competitivos en aplicaciones terrestres se recurre a sistemas fotovoltaicos de alta concentración (HCPV), con factores de concentración geométrica por encima de 500x. Estos sistemas se componen de dos (o más) elementos ópticos (espejos y/o lentes). En los sistemas presentados a lo largo de este trabajo se presentan ejemplos de concentradores HCPV con elementos reflexivos como etapa primaria, así como concentradores con elementos refractivos (lente de Fresnel). Con la necesidad de aumentar la eficiencia de los sistemas HCPV reales y con el fin de proporcionar la división más eficiente del espectro solar, células conteniendo cuatro o más uniones (con un potencial de alcanzar eficiencias de más del 45% a una concentración de cientos de soles) se exploran hoy en día. En esta tesis se presenta una de las posibles arquitecturas de división del espectro (spectrum-splitting en la literatura anglosajona) que utilizan células de concentración comercial. Otro campo de aplicación de la óptica nonimaging es la iluminación, donde es necesario proporcionar un patrón de distribución de la iluminación específico. La iluminación de estado sólido (SSL), basada en la electroluminiscencia de materiales semiconductores, está proporcionando fuentes de luz para aplicaciones de iluminación general. En la última década, los diodos emisores de luz (LED) de alto brillo han comenzado a reemplazar a las fuentes de luz convencionales debido a la superioridad en la calidad de la luz emitida, elevado tiempo de vida, compacidad y ahorro de energía. Los colimadores utilizados con LEDs deben cumplir con requisitos tales como tener una alta eficiencia, un alto control del haz de luz, una mezcla de color espacial y una gran compacidad. Presentamos un colimador de luz free-form con microestructuras capaz de conseguir buena colimación y buena mezcla de colores con una fuente de LED RGGB. Una buena mezcla de luz es importante no sólo para simplificar el diseño óptico de la luminaria sino también para evitar hacer binning de los chips. La mezcla de luz óptica puede reducir los costes al evitar la modulación por ancho de pulso y otras soluciones electrónicas patentadas para regulación y ajuste de color. Esta tesis consta de cuatro capítulos. Los capítulos que contienen la obra original de esta tesis son precedidos por un capítulo introductorio donde se presentan los conceptos y definiciones básicas de la óptica geométrica y en el cual se engloba la óptica nonimaging. Contiene principios de la óptica no formadora de imagen junto con la descripción de sus problemas y métodos de diseño. Asimismo se describe el método de Superficies Múltiples Simultáneas (SMS), que destaca por su versatilidad y capacidad de controlar varios haces de rayos. Adicionalmente también se describe la integración Köhler y sus aplicaciones en el campo de la energía fotovoltaica. La concentración fotovoltaica y la iluminación de estado sólido son introducidas junto con la revisión de su estado actual. El Segundo y Tercer Capítulo contienen diseños ópticos avanzados con aplicación en la concentración solar principalmente, mientras que el Cuarto Capítulo describe el colimador free-form con surcos que presenta buena mezcla de colores para aplicaciones de iluminación. El Segundo Capítulo describe dos concentradores ópticos HCPV diseñados con el método SMS en tres dimensiones (SMS3D) que llevan a cabo integración Köhler en dos direcciones con el fin de proporcionar una distribución de irradiancia uniforme libre de aberraciones cromáticas sobre la célula solar. Uno de los diseños es el concentrador XXR free-form diseñado con el método SMS3D, donde el espejo primario (X) y la lente secundaria (R) se dividen en cuatro sectores simétricos y llevan a cabo la integración Köhler (proporcionando cuatro unidades del array Köhler), mientras que el espejo intermedio (X) presenta simetría rotacional. Otro concentrador HCPV presentado es el Fresnel-RXI (FRXI) con una lente de Fresnel funcionando como elemento primario (POE) y una lente RXI como elemento óptico secundario (SOE), que presenta configuración 4-fold con el fin de realizar la integración Köhler. Las lentes RXI son dispositivos nonimaging conocidos, pero su aplicación como elemento secundario es novedosa. Los concentradores XXR y FRXI Köhler son ejemplos académicos de muy alta concentración (más de 2,000x, mientras que los sistemas convencionales hoy en día no suelen llegar a 1,000x) preparados para las células solares N-unión (con N>3), que probablemente requerirán una mayor concentración y alta uniformidad espectral de irradiancia con el fin de obtener sistemas CPV terrestres eficientes y rentables. Ambos concentradores están diseñados maximizando funciones de mérito como la eficiencia óptica, el producto concentración-aceptancia (CAP) y la uniformidad de irradiancia sobre la célula libre de la aberración cromática (integración Köhler). El Tercer Capítulo presenta una arquitectura para la división del espectro solar basada en un módulo HCPV con alta concentración (500x) y ángulo de aceptancia alto (>1º) que tiene por objeto reducir ambas fuentes de pérdidas de las células triple unión (3J) comerciales: el uso eficiente del espectro solar y la luz reflejada de los contactos metálicos y de la superficie de semiconductor. El módulo para la división del espectro utiliza el espectro solar más eficiente debido a la combinación de una alta eficiencia de una célula de concentración 3J (GaInP/GaInAs/Ge) y una de contacto posterior (BPC) de concentración de silicio (Si), así como la técnica de confinamiento externo para la recuperación de la luz reflejada por la célula 3J con el fin de ser reabsorbida por la célula. En la arquitectura propuesta, la célula 3J opera con su ganancia de corriente optimizada (concentración geométrica de 500x), mientras que la célula de silicio trabaja cerca de su óptimo también (135x). El módulo de spectrum-splitting consta de una lente de Fresnel plana como POE y un concentrador RXI free-form como SOE con un filtro paso-banda integrado en él. Tanto POE como SOE realizan la integración Köhler para producir homogeneización de luz sobre la célula. El filtro paso banda envía los fotones IR en la banda 900-1,150nm a la célula de silicio. Hay varios aspectos prácticos de la arquitectura del módulo presentado que ayudan a reducir la complejidad de los sistemas spectrum-splitting (el filtro y el secundario forman una sola pieza sólida, ambas células son coplanarias simplificándose el cableado y la disipación de calor, etc.). Prototipos prueba-de-concepto han sido ensamblados y probados a fin de demostrar la fabricabilidad del filtro y su rendimiento cuando se combina con la técnica de reciclaje de luz externa. Los resultados obtenidos se ajustan bastante bien a los modelos y a las simulaciones e invitan al desarrollo de una versión más compleja de este prototipo en el futuro. Dos colimadores sólidos con surcos free-form se presentan en el Cuarto Capítulo. Ambos diseños ópticos están diseñados originalmente usando el método SMS3D. La segunda superficie ópticamente activa está diseñada a posteriori como una superficie con surcos. El diseño inicial de dos espejos (XX) está diseñado como prueba de concepto. En segundo lugar, el diseño RXI free-form es comparable con los colimadores RXI existentes. Se trata de un diseño muy compacto y eficiente que proporciona una muy buena mezcla de colores cuando funciona con LEDs RGB fuera del eje óptico como en los RGB LEDs convencionales. Estos dos diseños son dispositivos free-form diseñados con la intención de mejorar las propiedades de mezcla de colores de los dispositivos no aplanáticos RXI con simetría de revolución y la eficiencia de los aplanáticos, logrando una buena colimación y una buena mezcla de colores. La capacidad de mezcla de colores del dispositivo no-aplanático mejora añadiendo características de un aplanático a su homólogo simétrico sin pérdida de eficiencia. En el caso del diseño basado en RXI, su gran ventaja consiste en su menor coste de fabricación ya que el proceso de metalización puede evitarse. Aunque algunos de los componentes presentan formas muy complejas, los costes de fabricación son relativamente insensibles a la complejidad del molde, especialmente en el caso de la producción en masa (tales como inyección de plástico), ya que el coste del molde se reparte entre todas las piezas fabricadas. Por último, las últimas dos secciones son las conclusiones y futuras líneas de investigación. ABSTRACT Nonimaging optics is a branch of optics whose development began in the mid-1960s. This rather new field of optics focuses on the efficient light transfer necessary in many applications, among which we highlight solar concentrators and illumination systems. The classical optics solutions to the problems of light energy transfer are only appropriate when the light rays are paraxial. The paraxial condition is not met in most applications for the concentration and illumination. This thesis explores several free-form designs (with neither rotational nor linear symmetry) whose applications are intended to cover the above mentioned areas and more. The term nonimaging comes from the fact that these optical systems do not need to form an image of the object, although it is not a necessary condition not to form an image. Another word sometimes used instead of nonimaging is anidolic, and it comes from the Greek “an+eidolon” and has the same meaning. Most of the optical systems designed for nonimaging applications are without any symmetry, i.e. free-form. Free-form optical systems become especially relevant lately with the evolution of free-form tooling (injection molding machines, multi-axis machining techniques, etc.). Nevertheless, only recently there are nonimaging design techniques that are able to meet these degrees of freedom. In illumination applications, the SMS3D method allows designing two free-form surfaces to control very well extended sources. In cases when source, target or volumetric constrains have very asymmetric requirements free-form surfaces are offering solutions with higher efficiency or with fewer elements in comparison with rotationally symmetric solutions, as free-forms have more degrees of freedom and they can perform multiple functions due to their free-form nature. Anidolic concentrators are well suited for the collection of solar energy, because the goal is not the reproduction of an exact image of the sun, but instead the collection of its energy. At this time, Concentration Photovoltaics (CPV) field is turning to high concentration systems in order to compensate the expense of multi-junction (MJ) solar cells used as receivers by reducing its area. Interest in the use of MJ cells lies in their very high conversion efficiency. High Concentration Photovoltaic systems (HCPV) with geometric concentration of more than 500x are required in order to have competitive systems in terrestrial applications. These systems comprise two (or more) optical elements, mirrors and/or lenses. Systems presented in this thesis encompass both main types of HCPV architectures: concentrators with primary reflective element and concentrators with primary refractive element (Fresnel lens). Demand for the efficiency increase of the actual HCPV systems as well as feasible more efficient partitioning of the solar spectrum, leads to exploration of four or more junction solar cells or submodules. They have a potential of reaching over 45% efficiency at concentration of hundreds of suns. One possible architectures of spectrum splitting module using commercial concentration cells is presented in this thesis. Another field of application of nonimaging optics is illumination, where a specific illuminance distribution pattern is required. The Solid State Lighting (SSL) based on semiconductor electroluminescence provides light sources for general illumination applications. In the last decade high-brightness Light Emitting Diodes (LEDs) started replacing conventional light sources due to their superior output light quality, unsurpassed lifetime, compactness and energy savings. Collimators used with LEDs have to meet requirements like high efficiency, high beam control, color and position mixing, as well as a high compactness. We present a free-form collimator with microstructures that performs good collimation and good color mixing with RGGB LED source. Good light mixing is important not only for simplifying luminaire optical design but also for avoiding die binning. Optical light mixing may reduce costs by avoiding pulse-width modulation and other patented electronic solutions for dimming and color tuning. This thesis comprises four chapters. Chapters containing the original work of this thesis are preceded by the introductory chapter that addresses basic concepts and definitions of geometrical optics on which nonimaging is developed. It contains fundamentals of nonimaging optics together with the description of its design problems, principles and methods, and with the Simultaneous Multiple Surface (SMS) method standing out for its versatility and ability to control several bundles of rays. Köhler integration and its applications in the field of photovoltaics are described as well. CPV and SSL fields are introduced together with the review on their background and their current status. Chapter 2 and Chapter 3 contain advanced optical designs with primarily application in solar concentration; meanwhile Chapter 4 portrays the free-form V-groove collimator with good color mixing property for illumination application. Chapter 2 describes two HCPV optical concentrators designed with the SMS method in three dimensions (SMS3D). Both concentrators represent Köhler integrator arrays that provide uniform irradiance distribution free from chromatic aberrations on the solar cell. One of the systems is the XXR free-form concentrator designed with the SMS3D method. The primary mirror (X) of this concentrator and secondary lens (R) are divided in four symmetric sectors (folds) that perform Köhler integration; meanwhile the intermediate mirror (X) is rotationally symmetric. Second HCPV concentrator is the Fresnel-RXI (FRXI) with flat Fresnel lens as the Primary Optical Element (POE) and an RXI lens as the Secondary Optical Element (SOE). This architecture manifests 4-fold configuration for performing Köhler integration (4 array units), as well. The RXI lenses are well-known nonimaging devices, but their application as SOE is novel. Both XXR and FRXI Köhler HCPV concentrators are academic examples of very high concentration (more than 2,000x meanwhile conventional systems nowadays have up to 1,000x) prepared for the near future N-junction (N>3) solar cells. In order to have efficient and cost-effective terrestrial CPV systems, those cells will probably require higher concentrations and high spectral irradiance uniformity. Both concentrators are designed by maximizing merit functions: the optical efficiency, concentration-acceptance angle (CAP) and cell-irradiance uniformity free from chromatic aberrations (Köhler integration). Chapter 3 presents the spectrum splitting architecture based on a HCPV module with high concentration (500x) and high acceptance angle (>1º). This module aims to reduce both sources of losses of the actual commercial triple-junction (3J) solar cells with more efficient use of the solar spectrum and with recovering the light reflected from the 3J cells’ grid lines and semiconductor surface. The solar spectrum is used more efficiently due to the combination of a high efficiency 3J concentration cell (GaInP/GaInAs/Ge) and external Back-Point-Contact (BPC) concentration silicon (Si) cell. By employing external confinement techniques, the 3J cell’s reflections are recovered in order to be re-absorbed by the cell. In the proposed concentrator architecture, the 3J cell operates at its optimized current gain (at geometrical concentration of 500x), while the Si cell works near its optimum, as well (135x). The spectrum splitting module consists of a flat Fresnel lens (as the POE), and a free-form RXI-type concentrator with a band-pass filter embedded in it (as the SOE), both POE and SOE performing Köhler integration to produce light homogenization. The band-pass filter sends the IR photons in the 900-1,150nm band to the Si cell. There are several practical aspects of presented module architecture that help reducing the added complexity of the beam splitting systems: the filter and secondary are forming a single solid piece, both cells are coplanar so the heat management and wiring is simplified, etc. Two proof-of-concept prototypes are assembled and tested in order to prove filter manufacturability and performance, as well as the potential of external light recycling technique. Obtained measurement results agree quite well with models and simulations, and show an opened path to manufacturing of the Fresnel RXI-type secondary concentrator with spectrum splitting strategy. Two free-form solid V-groove collimators are presented in Chapter 4. Both free-form collimators are originally designed with the SMS3D method. The second mirrored optically active surface is converted in a grooved surface a posteriori. Initial two mirror (XX) design is presented as a proof-of-concept. Second, RXI free-form design is comparable with existing RXI collimators as it is a highly compact and a highly efficient design. It performs very good color mixing of the RGGB LED sources placed off-axis like in conventional RGB LEDs. Collimators described here improve color mixing property of the prior art rotationally symmetric no-aplanatic RXI devices, and the efficiency of the aplanatic ones, accomplishing both good collimation and good color mixing. Free-form V-groove collimators enhance the no-aplanatic device's blending capabilities by adding aplanatic features to its symmetric counterpart with no loss in efficiency. Big advantage of the RXI design is its potentially lower manufacturing cost, since the process of metallization may be avoided. Although some components are very complicated for shaping, the manufacturing costs are relatively insensitive to the complexity of the mold especially in the case of mass production (such as plastic injection), as the cost of the mold is spread in many parts. Finally, last two sections are conclusions and future lines of investigation.
Resumo:
La observación de la Tierra es una herramienta de gran utilidad en la actualidad para el estudio de los fenómenos que se dan en la misma. La observación se puede realizar a distintas escalas y por distintos métodos dependiendo del propósito. El actual Trabajo Final de Grado persigue exponer la observación del territorio mediante técnicas de Teledetección, o Detección Remota, y su aplicación en la exploración de hidrocarburos. Desde la Segunda Guerra Mundial el capturar imágenes aéreas de regiones de la Tierra estaba restringido a usos cartográficos en el sentido estricto. Desde aquellos tiempos, hasta ahora, ha acontecido una serie de avances científicos que permiten deducir características intrínsecas de la Tierra mediante mecanismos complejos que no apreciamos a simple vista, pero que, están configurados mediante determinados parámetros geométricos y electrónicos, que permiten generar series temporales de fenómenos físicos que se dan en la Tierra. Hoy en día se puede afirmar que el aprovechamiento del espectro electromagnético está en un punto máximo. Se ha pasado del análisis de la región del espectro visible al análisis del espectro en su totalidad. Esto supone el desarrollo de nuevos algoritmos, técnicas y procesos para extraer la mayor cantidad de información acerca de la interacción de la materia con la radiación electromagnética. La información que generan los sistemas de captura va a servir para la aplicación directa e indirecta de métodos de prospección de hidrocarburos. Las técnicas utilizadas en detección por sensores remotos, aplicadas en campañas geofísicas, son utilizadas para minimizar costes y maximizar resultados en investigaciones de campo. La predicción de anomalías en la zona de estudio depende del analista, quien diseña, calcula y evalúa las variaciones de la energía electromagnética reflejada o emitida por la superficie terrestre. Para dicha predicción se revisarán distintos programas espaciales, se evaluará la bondad de registro y diferenciación espectral mediante el uso de distintas clasificaciones (supervisadas y no supervisadas). Por su influencia directa sobre las observaciones realizadas, se realiza un estudio de la corrección atmosférica; se programan distintos modelos de corrección atmosférica para imágenes multiespectrales y se evalúan los métodos de corrección atmosférica en datos hiperespectrales. Se obtendrá temperatura de la zona de interés utilizando los sensores TM-4, ASTER y OLI, así como un Modelo Digital del Terreno generado por el par estereoscópico capturado por el sensor ASTER. Una vez aplicados estos procedimientos se aplicarán los métodos directos e indirectos, para la localización de zonas probablemente afectadas por la influencia de hidrocarburos y localización directa de hidrocarburos mediante teledetección hiperespectral. Para el método indirecto se utilizan imágenes capturadas por los sensores ETM+ y ASTER. Para el método directo se usan las imágenes capturadas por el sensor Hyperion. ABSTRACT The observation of the Earth is a wonderful tool for studying the different kind of phenomena that occur on its surface. The observation could be done by different scales and by different techniques depending on the information of interest. This Graduate Thesis is intended to expose the territory observation by remote sensing acquiring data systems and the analysis that can be developed to get information of interest. Since Second World War taking aerials photographs of scene was restricted only to a cartographic sense. From these days to nowadays, it have been developed many scientific advances that make capable the interpretation of the surface behavior trough complex systems that are configure by specific geometric and electronic parameters that make possible acquiring time series of the phenomena that manifest on the earth’s surface. Today it is possible to affirm that the exploitation of the electromagnetic spectrum is on a maxim value. In the past, analysis of the electromagnetic spectrum was carry in a narrow part of it, today it is possible to study entire. This implicates the development of new algorithms, process and techniques for the extraction of information about the interaction of matter with electromagnetic radiation. The information that has been acquired by remote sensing sensors is going to be a helpful tool for the exploration of hydrocarbon through direct and vicarious methods. The techniques applied in remote sensing, especially in geophysical campaigns, are employed to minimize costs and maximize results of ground-based geologic investigations. Forecasting of anomalies in the region of interest depends directly on the expertise data analyst who designs, computes and evaluates variations in the electromagnetic energy reflected or emanated from the earth’s surface. For an optimal prediction a review of the capture system take place; assess of the goodness in data acquisition and spectral separability, is carried out by mean of supervised and unsupervised classifications. Due to the direct influence of the atmosphere in the register data, a study of the minimization of its influence has been done; a script has been programed for the atmospheric correction in multispectral data; also, a review of hyperspectral atmospheric correction is conducted. Temperature of the region of interest is computed using the images captured by TM-4, ASTER and OLI, in addition to a Digital Terrain Model generated by a pair of stereo images taken by ASTER sensor. Once these procedures have finished, direct and vicarious methods are applied in order to find altered zones influenced by hydrocarbons, as well as pinpoint directly hydrocarbon presence by mean of hyperspectral remote sensing. For this purpose ETM+ and ASTER sensors are used to apply the vicarious method and Hyperion images are used to apply the direct method.
Diseño de algoritmos de guerra electrónica y radar para su implementación en sistemas de tiempo real
Resumo:
Esta tesis se centra en el estudio y desarrollo de algoritmos de guerra electrónica {electronic warfare, EW) y radar para su implementación en sistemas de tiempo real. La llegada de los sistemas de radio, radar y navegación al terreno militar llevó al desarrollo de tecnologías para combatirlos. Así, el objetivo de los sistemas de guerra electrónica es el control del espectro electomagnético. Una de la funciones de la guerra electrónica es la inteligencia de señales {signals intelligence, SIGINT), cuya labor es detectar, almacenar, analizar, clasificar y localizar la procedencia de todo tipo de señales presentes en el espectro. El subsistema de inteligencia de señales dedicado a las señales radar es la inteligencia electrónica {electronic intelligence, ELINT). Un sistema de tiempo real es aquel cuyo factor de mérito depende tanto del resultado proporcionado como del tiempo en que se da dicho resultado. Los sistemas radar y de guerra electrónica tienen que proporcionar información lo más rápido posible y de forma continua, por lo que pueden encuadrarse dentro de los sistemas de tiempo real. La introducción de restricciones de tiempo real implica un proceso de realimentación entre el diseño del algoritmo y su implementación en plataformas “hardware”. Las restricciones de tiempo real son dos: latencia y área de la implementación. En esta tesis, todos los algoritmos presentados se han implementado en plataformas del tipo field programmable gate array (FPGA), ya que presentan un buen compromiso entre velocidad, coste total, consumo y reconfigurabilidad. La primera parte de la tesis está centrada en el estudio de diferentes subsistemas de un equipo ELINT: detección de señales mediante un detector canalizado, extracción de los parámetros de pulsos radar, clasificación de modulaciones y localization pasiva. La transformada discreta de Fourier {discrete Fourier transform, DFT) es un detector y estimador de frecuencia quasi-óptimo para señales de banda estrecha en presencia de ruido blanco. El desarrollo de algoritmos eficientes para el cálculo de la DFT, conocidos como fast Fourier transform (FFT), han situado a la FFT como el algoritmo más utilizado para la detección de señales de banda estrecha con requisitos de tiempo real. Así, se ha diseñado e implementado un algoritmo de detección y análisis espectral para su implementación en tiempo real. Los parámetros más característicos de un pulso radar son su tiempo de llegada y anchura de pulso. Se ha diseñado e implementado un algoritmo capaz de extraer dichos parámetros. Este algoritmo se puede utilizar con varios propósitos: realizar un reconocimiento genérico del radar que transmite dicha señal, localizar la posición de dicho radar o bien puede utilizarse como la parte de preprocesado de un clasificador automático de modulaciones. La clasificación automática de modulaciones es extremadamente complicada en entornos no cooperativos. Un clasificador automático de modulaciones se divide en dos partes: preprocesado y el algoritmo de clasificación. Los algoritmos de clasificación basados en parámetros representativos calculan diferentes estadísticos de la señal de entrada y la clasifican procesando dichos estadísticos. Los algoritmos de localization pueden dividirse en dos tipos: triangulación y sistemas cuadráticos. En los algoritmos basados en triangulación, la posición se estima mediante la intersección de las rectas proporcionadas por la dirección de llegada de la señal. En cambio, en los sistemas cuadráticos, la posición se estima mediante la intersección de superficies con igual diferencia en el tiempo de llegada (time difference of arrival, TDOA) o diferencia en la frecuencia de llegada (frequency difference of arrival, FDOA). Aunque sólo se ha implementado la estimación del TDOA y FDOA mediante la diferencia de tiempos de llegada y diferencia de frecuencias, se presentan estudios exhaustivos sobre los diferentes algoritmos para la estimación del TDOA, FDOA y localización pasiva mediante TDOA-FDOA. La segunda parte de la tesis está dedicada al diseño e implementación filtros discretos de respuesta finita (finite impulse response, FIR) para dos aplicaciones radar: phased array de banda ancha mediante filtros retardadores (true-time delay, TTD) y la mejora del alcance de un radar sin modificar el “hardware” existente para que la solución sea de bajo coste. La operación de un phased array de banda ancha mediante desfasadores no es factible ya que el retardo temporal no puede aproximarse mediante un desfase. La solución adoptada e implementada consiste en sustituir los desfasadores por filtros digitales con retardo programable. El máximo alcance de un radar depende de la relación señal a ruido promedio en el receptor. La relación señal a ruido depende a su vez de la energía de señal transmitida, potencia multiplicado por la anchura de pulso. Cualquier cambio hardware que se realice conlleva un alto coste. La solución que se propone es utilizar una técnica de compresión de pulsos, consistente en introducir una modulación interna a la señal, desacoplando alcance y resolución. ABSTRACT This thesis is focused on the study and development of electronic warfare (EW) and radar algorithms for real-time implementation. The arrival of radar, radio and navigation systems to the military sphere led to the development of technologies to fight them. Therefore, the objective of EW systems is the control of the electromagnetic spectrum. Signals Intelligence (SIGINT) is one of the EW functions, whose mission is to detect, collect, analyze, classify and locate all kind of electromagnetic emissions. Electronic intelligence (ELINT) is the SIGINT subsystem that is devoted to radar signals. A real-time system is the one whose correctness depends not only on the provided result but also on the time in which this result is obtained. Radar and EW systems must provide information as fast as possible on a continuous basis and they can be defined as real-time systems. The introduction of real-time constraints implies a feedback process between the design of the algorithms and their hardware implementation. Moreover, a real-time constraint consists of two parameters: Latency and area of the implementation. All the algorithms in this thesis have been implemented on field programmable gate array (FPGAs) platforms, presenting a trade-off among performance, cost, power consumption and reconfigurability. The first part of the thesis is related to the study of different key subsystems of an ELINT equipment: Signal detection with channelized receivers, pulse parameter extraction, modulation classification for radar signals and passive location algorithms. The discrete Fourier transform (DFT) is a nearly optimal detector and frequency estimator for narrow-band signals buried in white noise. The introduction of fast algorithms to calculate the DFT, known as FFT, reduces the complexity and the processing time of the DFT computation. These properties have placed the FFT as one the most conventional methods for narrow-band signal detection for real-time applications. An algorithm for real-time spectral analysis for user-defined bandwidth, instantaneous dynamic range and resolution is presented. The most characteristic parameters of a pulsed signal are its time of arrival (TOA) and the pulse width (PW). The estimation of these basic parameters is a fundamental task in an ELINT equipment. A basic pulse parameter extractor (PPE) that is able to estimate all these parameters is designed and implemented. The PPE may be useful to perform a generic radar recognition process, perform an emitter location technique and can be used as the preprocessing part of an automatic modulation classifier (AMC). Modulation classification is a difficult task in a non-cooperative environment. An AMC consists of two parts: Signal preprocessing and the classification algorithm itself. Featurebased algorithms obtain different characteristics or features of the input signals. Once these features are extracted, the classification is carried out by processing these features. A feature based-AMC for pulsed radar signals with real-time requirements is studied, designed and implemented. Emitter passive location techniques can be divided into two classes: Triangulation systems, in which the emitter location is estimated with the intersection of the different lines of bearing created from the estimated directions of arrival, and quadratic position-fixing systems, in which the position is estimated through the intersection of iso-time difference of arrival (TDOA) or iso-frequency difference of arrival (FDOA) quadratic surfaces. Although TDOA and FDOA are only implemented with time of arrival and frequency differences, different algorithms for TDOA, FDOA and position estimation are studied and analyzed. The second part is dedicated to FIR filter design and implementation for two different radar applications: Wideband phased arrays with true-time delay (TTD) filters and the range improvement of an operative radar with no hardware changes to minimize costs. Wideband operation of phased arrays is unfeasible because time delays cannot be approximated by phase shifts. The presented solution is based on the substitution of the phase shifters by FIR discrete delay filters. The maximum range of a radar depends on the averaged signal to noise ratio (SNR) at the receiver. Among other factors, the SNR depends on the transmitted signal energy that is power times pulse width. Any possible hardware change implies high costs. The proposed solution lies in the use of a signal processing technique known as pulse compression, which consists of introducing an internal modulation within the pulse width, decoupling range and resolution.
Resumo:
Dentro del equipamiento que existen en los hospitales, se realizan muy diversas actuaciones para el correcto funcionamiento de los equipos que se destinan, tanto a medir sobre el paciente o para tratamiento sobre estos mismos, el abanico de equipos que existen es muy grande, sin contar con los que directamente se instalan o, más correctamente, se implantan en el paciente. Los hospitales tienen establecidas pautas de mantenimiento tanto correctivo como preventivo, también de verificación relativa a seguridad y, en algunos casos, acciones que van destinadas a comprobar las magnitudes en los equipos. Esto último no es lo normal, de hecho, en muchos casos, la mayoría, se desconoce cómo poder comprobar que las magnitudes de un equipo se pueden trazar a un patrón de medida nacional. La investigación se ha desarrollado para determinar, siendo algo que esta patente hasta en la normalización ISO, que no existen para muchos equipos principios establecidos para garantizar la trazabilidad metrológica da las magnitudes físicas en las que trabaja durante su vida útil. Debido a la amplitud de este campo, el desarrollo de investigación se ha llevado en un formato piramidal, desde las necesidades para poder llegar a un estudio concreto de equipos concretos (Termómetros Clínicos, Tensiómetros, Ultrasonidos y Onda Corta). Para llegar a estos se ha realizado un estudio de cómo se encuentra la trazabilidad metrológica en todo el espectro, desde la gestión hasta llegar a casos particulares. Estudiando la gran cantidad de documentación existente y llegando a determinar el campo de trabajo en la metrología hospitalaria, clasificando los equipos y determinando como se encuentran definidos los métodos que llevan a realidad la trazabilidad metrológica, en la normalización. Un grupo no muy trabajado de los equipos electromédicos son los que se encuentran dentro de los tratamientos de Rehabilitación de traumatología, siendo equipos de uso muy habitual en los centros de salud para las lesiones musculares y óseas. A este asunto se ha dedicado un esfuerzo extra, con un reporte histórico de su origen y en qué punto se encuentran ahora. Se han estudiado dentro de estos equipos los de tratamiento de ultrasonidos, de diatermia y onda corta, que son los más representativos de los equipos destinados a electro terapia, pero hay que tener en cuenta que hay campos que se han mencionado globalmente de la rehabilitación, como son la terapia o la biomecánica, de forma similar a otras tecnologías sanitarias de otras especialidades (radiología o análisis clínico). Hay, también, dentro de la terapia, todos esos tratamientos propios de gimnasio, como son poleas, pesas, mesas de masajes, balones, etc… Que su metrología es sencilla, son equipos que existen medios de comprobación de las magnitudes que utilizan por la existencia en otras actividades de la industria (balanzas, pesas, etc). La investigación realizada ha pretendido evaluar todo el global y llegar a casos concretos para determinar cómo está la situación. Llegando a desarrollar una clasificación de equipos y de normas, que permiten vislumbrar las necesidades metrológicas y permitiría establecer una Gestión de la Trazabilidad Metrológica, concluyendo en el estudio para los equipos que se han mencionado. ABSTRACT Within the equipment that exist in the hospitals, there are very diverse performances for the correct operation of the equipment that is intended both to measure on the patient or for treatment on these same, the range of equipment available is very large, without which directly are installed or, more correctly, are implanted in the patient. The hospitals have established patterns of maintenance both corrective and preventive, also of verification of security and, in some cases, actions which are intended to check the magnitudes in the equipment. This last is not normal, in fact, in many cases, the majority, it is not known as to be able to check that the magnitudes of a computer can be traced to a pattern of national measure. The research has been developed to determine, is something that this patent up to the International Organization for Standardization (ISO), that do not exist for many teams established principles to ensure the metrological traceability gives the physical quantities in which they work during its useful life. Due to the breadth of this field, the development of research has been conducted in a pyramid format, from the needs to be able to reach a specific study of specific equipment (Clinical Thermometers, Tensiometers, Ultrasound, and Short Wave). To reach theme, has been carried out a study of how is the metrological traceability across the entire spectrum, from the management to individuals cases. Considering the large amount of existing documentation and arriving to determine the labor camp in the metrology hospital, sorting equipment and determining how are defined the methods that lead to reality the metrological traceability, in the standardization. A group not too worked for medical electrical equipment are found within the rehabilitation treatment of traumatology, being equipment of very common use in the health centers for muscle injuries and bone. In this matter has been dedicated an extra effort, with a report history of its origin and where they are now. We have studied within these teams about the treatment of ultrasound, diathermy, short wave, which are the most representative of the equipment that is destined to electro therapy, but it must be borne in mind that there are fields that have been mentioned globally of rehabilitation, as are the therapy or the biomechanics, similar to other health technologies from other specialties (radiology or clinical analysis). There is, also, within the therapy, all these treatments own gym, such as pulleys, weights, tables of massages, balls, etc… that its metrology is simple, are computers that there are means of verification of the magnitudes that used by the existence in other activities of the industry (scales, weights, etc). The research carried out has tried to assess the entire global and reach specific cases to determine the situation as it is. Arriving in the development of a classification of equipment and standards, which give us a glimpse of the metrological needs and establish a Management of the Metrological Traceability, concluding in the study for computers that have been mentioned.
Resumo:
Estudos com eletrodos modificados foram conduzidos utilizando dois sistemas porfirínicos supramoleculares diferentes. O primeiro foi baseado na modificação de eletrodo de carbono vítreo com uma porfirina de níquel tetrarrutenada, [NiIITPyP{RuII(bipy)2Cl}4]4+. A modificação do eletrodo foi realizada por meio de sucessivos ciclos voltamétricos em meio alcalino (pH 13), gerando um eletrodo com característica similar a eletrodos modificados com α-Ni(OH)2. A caracterização química do filme formado foi realizada através das técnicas de voltametria cíclica, ressonância paramagnética eletrônica, espectroscopia eletrônica por reflectância e espectroscopia Raman com ensaio espectro-eletroquímico. Os resultados sugerem a formação de um polímero de coordenação, [µ-O2-NiIITPyP{RuII(bipy)2Cl}4]n, composto por subunidades porfirínicas ligadas entre si por pontes µ-peroxo axialmente coordenadas aos átomos de níquel (Ni-O-O-Ni). O crescimento do filme apresentou dependência da alcalinidade do meio pela formação do precursor octaédrico [Ni(OH)2TRPyP]2+ em solução, pela coordenação de OH- nas posições axiais do átomo de níquel. O processo de eletropolimerização indicou a participação de radical hidroxil, gerado por oxidação eletrocatalítica da água nos sítios periféricos da porfirina contendo o complexo de rutênio. O mesmo eletrodo foi aplicado como sensor eletroquímico para análise amperométrica de ácido fólico em comprimidos farmacêuticos. O sensor foi associado a um sistema de Batch Injection Analysis (BIA) alcançando considerável rapidez e baixo limite de detecção. Para as análises das amostras também foi proposto um método para a remoção da lactose, que agia como interferente. O segundo estudo envolveu a modificação de eletrodos de carbono vítreo com diferentes hemoglobinas, naturais (HbA0, HbA2 e HbS) e sintéticas (Hb-PEG5K2, αα-Hb-PEG5K2 e BT-PEG5K4), para a avaliação da eficiência na redução eletrocatalítica de nitrito mediada por FeI-heme. Os filmes foram produzidos pela mistura de soluções das hemoglobinas com brometo de didodecildimetiltrimetilamônio (DDAB), aplicados nas superfícies com consecutiva evaporação, formando filmes estáveis. Os valores de potencial redox para os processos do grupo heme e a sua associação com a disponibilidade do grupo na proteína foram avaliados por voltametria cíclica. Os valores das constantes de velocidade, k, para redução de nitrito foram obtidos por cronoamperometria em -1,1 V (vs Ag/AgCl(KCl 3M)) que foram utilizados para estudo comparativo entre as espécies sintéticas para eventual aplicação clínica.
Resumo:
No último século, houve grande avanço no entendimento das interações das radiações com a matéria. Essa compreensão se faz necessária para diversas aplicações, entre elas o uso de raios X no diagnóstico por imagens. Neste caso, imagens são formadas pelo contraste resultante da diferença na atenuação dos raios X pelos diferentes tecidos do corpo. Entretanto, algumas das interações dos raios X com a matéria podem levar à redução da qualidade destas imagens, como é o caso dos fenômenos de espalhamento. Muitas abordagens foram propostas para estimar a distribuição espectral de fótons espalhados por uma barreira, ou seja, como no caso de um feixe de campo largo, ao atingir um plano detector, tais como modelos que utilizam métodos de Monte Carlo e modelos que utilizam aproximações analíticas. Supondo-se um espectro de um feixe primário que não interage com nenhum objeto após sua emissão pelo tubo de raios X, este espectro é, essencialmente representado pelos modelos propostos anteriormente. Contudo, considerando-se um feixe largo de radiação X, interagindo com um objeto, a radiação a ser detectada por um espectrômetro, passa a ser composta pelo feixe primário, atenuado pelo material adicionado, e uma fração de radiação espalhada. A soma destas duas contribuições passa a compor o feixe resultante. Esta soma do feixe primário atenuado, com o feixe de radiação espalhada, é o que se mede em um detector real na condição de feixe largo. O modelo proposto neste trabalho visa calcular o espectro de um tubo de raios X, em situação de feixe largo, o mais fidedigno possível ao que se medem em condições reais. Neste trabalho se propõe a discretização do volume de interação em pequenos elementos de volume, nos quais se calcula o espalhamento Compton, fazendo uso de um espectro de fótons gerado pelo Modelo de TBC, a equação de Klein-Nishina e considerações geométricas. Por fim, o espectro de fótons espalhados em cada elemento de volume é somado ao espalhamento dos demais elementos de volume, resultando no espectro total espalhado. O modelo proposto foi implementado em ambiente computacional MATLAB® e comparado com medições experimentais para sua validação. O modelo proposto foi capaz de produzir espectros espalhados em diferentes condições, apresentando boa conformidade com os valores medidos, tanto em termos quantitativos, nas quais a diferença entre kerma no ar calculado e kerma no ar medido é menor que 10%, quanto qualitativos, com fatores de mérito superiores a 90%.
Resumo:
O aumento da resistência microbiana devido a fatores como uso excessivo e ineficiente de antibióticos convencionais acarreta a necessidade da busca por novos compostos bioativos que atuem por mecanismos de ação diferentes aos fármacos já conhecidos. Na agricultura, o uso intensivo de pesticidas para o combate de microrganismos que comprometem principalmente a parte alimentícia também traz diversos problemas relacionados à resistência antimicrobiana e a riscos ambientais, oriundos do acúmulo dessas substâncias no solo. Dentro deste aspecto, o pseudofungo Pythium aphanidermatum, da classe dos oomicetos, destaca-se por ser uma espécie agressiva e altamente resistente a fungicidas comuns, apodrecendo raízes e frutos de cultivos de tomate, beterraba, pepino, pimentão, etc. A própolis verde, constituída em sua grande parte por material resinoso coletado e processado pela abelha da espécie Apis mellifera tem sido utilizada na medicina tradicional devido ao seu amplo espectro de ações preventivas e tratamentos de doenças, possuindo propriedades anti-inflamatórias, antimicrobianas, anticancerígenas e antioxidantes, tornando-se um produto de grande interesse na busca de novos compostos bioativos. Dentro destes aspectos apresentados, neste trabalho investigamos a ação da própolis verde contra o fitopatógeno P. aphanidermatum e identificamos através da técnica de cromatografia e bioensaios que a Artepillin C (3,5-diprenil-4-ácido-hidroxicinâmico), majoritária na própolis verde, foi o principal composto nesta ação. Os efeitos terapêuticos desta molécula tem sido foco de muitos estudos, porém ainda não há evidência em sua interação com agregados anfifílicos que mimetizam membranas celulares. O caráter anfifílico do composto, elevado pela presença dos grupos prenilados ligados ao ácido cinâmico, favoreceram a sua inserção nas membranas modelo, principalmente em seu estado agregado. Estas conclusões puderam ser inferidas devido às alterações nas propriedades das bicamadas lipídicas na presença da Artepillin C, podendo causar, especificamente para o caso de fitopatógenos como o P. aphanidermatum, perdas funcionais das proteínas de membranas, liberação de eletrólitos intracelulares e desintegração citoplasmática dos micélios e esporos. Ainda, as diferentes composições lipídicas nas vesículas influenciam no modo de interação do composto e consequentes alterações em suas estruturas, principalmente na presença do colesterol, que auxilia na manutenção da permeabilidade da bicamada lipídica, que pode contribuir para a integridade do conteúdo citoplasmático da célula.
Resumo:
Esta tese apresenta uma abordagem para a criação rápida de modelos em diferentes geometrias (complexas ou de alta simetria) com objetivo de calcular a correspondente intensidade espalhada, podendo esta ser utilizada na descrição de experimentos de es- palhamento à baixos ângulos. A modelagem pode ser realizada com mais de 100 geome- trias catalogadas em um Banco de Dados, além da possibilidade de construir estruturas a partir de posições aleatórias distribuídas na superfície de uma esfera. Em todos os casos os modelos são gerados por meio do método de elementos finitos compondo uma única geometria, ou ainda, compondo diferentes geometrias, combinadas entre si a partir de um número baixo de parâmetros. Para realizar essa tarefa foi desenvolvido um programa em Fortran, chamado de Polygen, que permite modelar geometrias convexas em diferentes formas, como sólidos, cascas, ou ainda com esferas ou estruturas do tipo DNA nas arestas, além de usar esses modelos para simular a curva de intensidade espalhada para sistemas orientados e aleatoriamente orientados. A curva de intensidade de espalhamento é calculada por meio da equação de Debye e os parâmetros que compõe cada um dos modelos, podem ser otimizados pelo ajuste contra dados experimentais, por meio de métodos de minimização baseados em simulated annealing, Levenberg-Marquardt e algorítmicos genéticos. A minimização permite ajustar os parâmetros do modelo (ou composição de modelos) como tamanho, densidade eletrônica, raio das subunidades, entre outros, contribuindo para fornecer uma nova ferramenta para modelagem e análise de dados de espalhamento. Em outra etapa desta tese, é apresentado o design de modelos atomísticos e a sua respectiva simulação por Dinâmica Molecular. A geometria de dois sistemas auto-organizado de DNA na forma de octaedro truncado, um com linkers de 7 Adeninas e outro com linkers de ATATATA, foram escolhidas para realizar a modelagem atomística e a simulação por Dinâmica Molecular. Para este sistema são apresentados os resultados de Root Mean Square Deviations (RMSD), Root Mean Square Fluctuations (RMSF), raio de giro, torção das hélices duplas de DNA além da avaliação das ligações de Hidrogênio, todos obtidos por meio da análise de uma trajetória de 50 ns.
Resumo:
No mercado global e digital, as empresas são desafiadas a encontrar caminhos inovadores para atender o aumento da pressão -competitiva. A competição é uma das formas de interação das organizações, além da colaboração e da cooperação. A cooperação e a colaboração apresentam formas de produzir conjuntamente aumentando o potencial de atendimento das empresas. Os desafios mais encontrados no mercado são: reduzir os custos, sempre assegurar qualidade e personalizar os produtos e serviços. Um fenômeno de negócios comum hoje é a terceirização da manufatura e da logística para fornecedores domésticos e estrangeiros e provedores de serviços. Essa terceirização provoca, intrinsecamente, um espalhamento geográfico da produção em novos centros que oferecem vantagens nos recursos energéticos, matérias primas e centros de produção de conhecimento. Essa terceirização pode ser realizada também nas formas de colaboração e cooperação. Para isso, as empresas necessitam estabelecer uma forma de confiança entre si. No conceito de empresa virtual, a confiança é amplamente discutida para atingir uma colaboração e/ou cooperação entre empresas. O objetivo deste trabalho é propor e modelar uma ferramenta que atenda as necessidades das empresas para colaboração e/ou cooperação entre elas, considerando suas necessidades de confiança. As empresas aqui são vistas como sistemas produtivos, com suas camadas de gerenciamento de negócios, de acordo com o padrão ANSI/ISA 95. Além disso, um tipo de interpretação da rede de Petri, chamada de rede de Petri produtiva é introduzida como ferramenta para descrever o processo produtivo realizado pelas empresas na forma de workflow. A modelagem dessa arquitetura do sistema produtivo utiliza técnicas de sistemas distribuídos, como a arquitetura orientada a serviços. Além disso, um dos enfoques é das necessidades para o desenvolvimento de novos produtos, que envolve o desafio de personalização. Testes foram realizados para avaliar a proposta de workflow com pessoas de diferentes níveis de conhecimento sobre os processos, sejam de manufatura, sejam de outras áreas. Já a arquitetura proposta foi submetida a um estudo analítico das hipóteses levantadas no ambiente colaborativo.
Resumo:
Los autores de este artículo exponen una serie de consideraciones sobre estas cuestiones y apuestan por la inclusión de la realidad virtual inmersiva como recurso no sólo tecnológico, sino eminentemente pedagógico y didáctico, que puede contribuir a reducir y a apoyar la educación del alumnado cuyo estilo cognitivo es visual, como es el caso del alumnado con TEA y síndrome de Asperger.
Resumo:
The purpose of this article is to show the applicability and benefits of the techniques of design of experiments as an optimization tool for discrete simulation models. The simulated systems are computational representations of real-life systems; its characteristics include a constant evolution that follows the occurrence of discrete events along the time. In this study, a production system, designed with the business philosophy JIT (Just in Time) is used, which seeks to achieve excellence in organizations through waste reduction in all the operational aspects. The most typical tool of JIT systems is the KANBAN production control that seeks to synchronize demand with flow of materials, minimize work in process, and define production metrics. Using experimental design techniques for stochastic optimization, the impact of the operational factors on the efficiency of the KANBAN / CONWIP simulation model is analyzed. The results show the effectiveness of the integration of experimental design techniques and discrete simulation models in the calculation of the operational parameters. Furthermore, the reliability of the methodologies found was improved with a new statistical consideration.
Resumo:
El estudio se realizó en tres comunidades del Territorio Miskitu Indian Tasbaika Kum, Reserva de Biósfera BOSAWAS (Shiminka, Boca de Plis y Esperanza), para describir la interacción entre especies de flora y avifauna y su influencia en la conservación de estas especies en las áreas de pastoreo, a partir de tres criterios: 1) cuantificar flora y avifauna, 2) prácticas de manejo tradicional, 3) estimar beneficios económico generado por sistemas de pastoreo. Se establecieron tres puntos de conteo dentro de transeptos para avifauna, se estableció parcelas para muestreo de la vegetación en cada comunidad, se seleccionó una comunidad beneficiada por subproyectos del Proyecto Corazón (MARENA) y dos áreas clasificadas como bosque secundario. Para evaluar el beneficio económi co se aplicó entrevistas abiertas y estructuradas dirigida a propietarios de ganado, para documentar los principales beneficios tangibles e intangibles que la población obtiene de estos agrosistemas. El análisis de resultados se determinó en base a índices de diversidad, dominancia, equidad y similitud; tomando en cuenta la riqueza, abundancia y densidad de especies. Se encontró que para flora Shiminka obtuvo los mayores valores de dominancia lo que indica que se encuentran especies de mayor importancia, Esperanza tiene mayor equidad y diversidad, en Shiminka y Esperanza se necesitan mayores estudios, el análisis de Clúster arrojó que aunque existe alguna concordancia entre Boca de Plis y Shiminka, las tres difieren entre sí y el mismo resultado se encontró para la avifauna; y para fauna mayor equidad en Shiminka y Esperanza, mientras la más diversa resultó Esperanza. La similitud establece que Boca de Plis y Esperanza necesitan mayor intensidad de muestreo.
Resumo:
El presente documento de trabajo forma parte de las investigaciones en Sistemas de Producción Agropecuarios, impulsados por la Universidad Centroamericana (U.C.A.), a través del Departamento de Desarrollo Agraria. La metodología de trabajo utilizado fue basada en el Análisis del Sistema Agrario. Es decir, se realizó una zonificación agrosocioeconómica en .la cual se tomaron en cuenta !os aspectos edafoclímáticos, socioeconómicos y agronómicos, producto de esto se encontraron cinco zonas, que son: - Zona reformada. - Zona de latifundio. - Zona de minifundio. - Zona de abanico de campesinos con parcelas de cultivos anuales y perennes. -Zona de pequeño capitalismo intensivo en fuerza de trabajo y capital. Se realizó la tipología de productores encontrándose cuatro tipos que son: -Los minifundistas. - Los pequeños campesinos. - Los capitalistas agrarios. -Los beneficiados por reforma agraria. La diferencia entre los cuatro tipos de productores evidenciados es en particular los niveles de ingresos neto por hombre superficie, superficie por trabajador, su integración al mercado,, fuerza de trabajo disponible y las modificaciones y consecuencias en los sistemas de producción a partir del ajuste económico realizado en nuestro país, en el año 1988. Los resultados evidencian que los productores con lógica campesina son .los que obtienen los mayores ingreso neto por manzana ($500 a $1500) y los que permiten el pleno empleo de la fuerza de trabajo y le tierra. Así mismos, son los que más se adaptan a los cambios en el entorno socioeconómico.
Resumo:
El presente trabajo se realizó con el objetivo de evaluar exante la factibilidad técnica y financiera de inversiones propuestas por los mismos ganaderos en la zona de Muy muy, Matagalpa. El estudio se llevó a cabo en dos fases: Una fase preliminar de diagnóstico, en la que se determinó, la disponibilidad y uso actual de los recursos en las fincas, así como las propuestas planteadas por los productores, comprendiéndose en una sub-fase de ésta etapa preliminar un diagnóstico de las características generales de los canales de comercialización y precios de los productos agropecuarios generados por la actividad ganadera de la zona. La segunda fase comprendió el procesamiento y computación de la información. La información relativa a los recursos, se procesó para cada una de las fincas y en base a ello, se estimaron los diferentes parámetros técnicos y elementos fuentes de ingresos y egresos, elaborándose también las diferentes proyecciones de hato por finca, así mismo de disponibilidades de pastos, mano de obra e insumos. Para efectos de analizar tanto el uso eficiente de las pasturas como de los resultados financieros, las fincas se agruparon en cuatro dominios de recomendación en función de sus áreas. En los aspectos técnicos se determinó que la actividad de las fincas es la ganadería ya que en promedio, el 82.33% de las áreas totales por finca se destina a esta actividad, ocupando los pastos mejorados en promedio el 67.44% y un promedio de 32.56% los pastos naturales. Con el proyecto el área ganadera se incrementa en un promedio de 2.46%, pasando a representar los pastos mejorados un promedio de 92.65% y el natural el 7.35%, reduciéndose éste último en un promedio de 25.21%. Las cargas animales encontradas fluctuaron en un rango de 18.6 U.A./mz. a 268.3 U.A./mz. siendo éste en cinco de las nueve fincas superiores a las disponibilidades que resultan por tanto negativas en un rango de -36.3 a -3.8 U.A., con el proyecto las cargas animales se incrementan a valores comprendidos entre 54.2 y 456.5 U.A., resultando sin embargo las disponibilidades positivas en seis de las nueve fincas para el año décimo del proyecto en un rango comprendido entre +2.5 a +16.2 U.A., a excepción de tres fincas en las cuales los déficit reflejan valores entre -2.6 y -43.1 U.A. En lo que se refiere a los niveles de eficiencia en el aprovechamiento de las pasturas, las fincas La Palma y El Castaño resultaron ser las más eficientes, manteniendo sus niveles de aprovechamiento próximo al nivel óptimo de manera en periodo de años más prolongados. El número de cabezas de ganado encontrado por finca, fluctuó entre 20 y 290, como efecto de los proyectos el hato total tendría un incremento promedio anual de 7.5%, es decir 10.58 cabezas por año. La natalidad encontrada en promedio fue mortalidad de terneros 7.04%, descarte de vacas de 50.8%, 10.72% y relación vaca-toro 19:1. Para el año décimo de los los promedios de estos coeficientes alcanzan: 53.1%, mortalidad de terneros 4.46% y descarte de 19.55%. proyectos natalidad vientres. La edad de incorporación de vaquillas resultó entre 2.5 a 3 años. En la composición racial se encontró que predomina un alto encastamiento con razas europeas. La relación producción total por área en el año base resultó en promedio de 42.53 galones de leche/manzana y 52.68 kilogramos de carne manzana y para el ultimo año de los proyectos alcanzan en promedio los 67.56 galones de leche/manzana y 96.14 kilogramos de carne/manzana. La producción promedio de leche por época correspondió a 4 litros/vaca/día en el verano y 6 litros/vaca/día en invierno. Partiendo del promedio de éstos valores, el incremento anual de ésta producción con el proyecto alcanzarla en promedio el 7.3%. En el aspecto de ingresos en promedio la producción de leche aporta en el año base el 43.44%, la producción de carne 34.09%, la venta de otras categorías 12.5% y la agricultura el 9.95% de los ingresos totales. con el proyecto se presenta una recomposición en éstos, de manera que el aporte de la producción de leche alcanza el 46.99%, el de la carne 46.67% y la parte agrícola el 5.25%. En los gastos, en el año base en promedio, la mano de obra representa el mayor porcentaje con 54.63%, medios circulantes y servicios 37.94%, impuestos 7.4%, variando éstos para el año décimo a promedios de: 48.25%, 42.54% y 9.17% respectivamente, reflejándose un incremento en los gastos de medios circulantes y servicios en un promedio de 4.6% y 1.77% los gastos en impuestos. Los costos de producción por litro de leche en el año base, fluctuaron entre C$1.23 y C$1.61 y en el último año varian ligeramente a un rango entre C$0.87 y C$1.53. En el mercado de aspecto la leche de comercialización, el control del en el municipio está en posesión de los manteros, un segundo siendo la agente de Unión de Cooperativas de Boaco (UCASBO) importancia en la comercialización. En el caso de la carne, los mayores volúmenes de ganado comercializado es controlado por los comerciantes intermediarios, que en los años 1990 y 1992 extrajeron de la zona 6000 y 8000 cabezas respectivamente. En el fluctuaron aspecto de los precios, en el caso de la leche con la estacionalidad de la producción C$0.95 en invierno manteros) tipo A y UCASBO). el peso, con pesos y C$1.00 en el verano (al comercializar con y por calidad de la leche entregada C$1.375 leche tipo A y By C$1.12 para el tipo e (al comercializar con las El ganado en cambio, su precio está determinado por obteniéndose C$1,500.00 y C$1,600.00 por novillos de 380 y 420 kilogramos respectivamente. De las inversiones a realizarse, la adquisición de ganado representa el mayor porcentaje con un 49.67%, las instalaciones y equipos con un 29.02% y mejoramiento de pastizales con 21.31% del monto total propuesto equivalente a C$829,400.00, de los cuales el total solicitado representa el 76.68% equivalente a C$636,000.00. Para el análisis financiero, se utilizó el formato y metodología del Banco Mundial. Los resultados de rentabilidad de éste análisis al interés propuesto del 9% ocupan un rango entre 21.78 y 9.10%, relación inversión beneficio neto entre 2.2 y 1.07. Con el interés bancario del 12.5%, los resultados pasan a .ocupar valores de TIR entre 16.2% y 7.85% y la relación inversión-beneficio neto alcanza valores entre 1.93 y 0.98. Con la utilización de recursos propios los resultados son inferiores a los obtenidos con el 9% de interés en siete de las nueve fincas y superiores que los resultados logrados con el interés del 12.5%, siendo los valores extremos de las TIR encontradas de 18.42% y 10.19%. En el aspecto de sensibilidad, al incrementarse los gastos operativos en un 10%, el proyecto de la finca La Perla resulta ser el más sensible con el interés del 9%, alcanzando una TIR de 1.04% y un VAN negativo de C$-21,503.08. En la correlación inversión-rentabilidad, las inversiones en ganado ejercieron la mejor influencia, seguida de las inversiones en pastos, fundamentalmente cuando éstas van acompañadas de una alta tasa de parición. Los flujos de efectivos encontrados, resultaron con fuertes déficit a excepción de la finca San Felipe que presentó una situación menos desfavorable. Los déficit encontrado hacen que los proyectos de éstas fincas aún y cuando sean rentables, no sean factibles, al no tener disponibilidades de efectivo para el sostenimiento de las unidades familiares durante los primeros años de proyecto.