913 resultados para Câmaras DSLR


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Si bien en el campo de las políticas públicas nacionales la desregulación total de las distintas fases de la cadena vitivinícola emerge como el principal rasgo distintivo de los años noventa, en los principales ámbitos provinciales vinculados con el complejo han ido irrumpiendo algunas políticas y acciones regulatorias tendientes a alentar la reconversión productiva del sector, a promover el consumo y, fundamentalmente, la exportación de los distintos productos vitivinícolas. Un claro ejemplo de ello lo brinda el Tratado celebrado entre las Provincias de Mendoza y San Juan en el mes de noviembre de 1994 (ya en el mes de junio de dicho año, habían suscripto un Acta por la que se proponían realizar esfuerzos comunes en el ordenamiento de la industria vitivinícola), luego convertido en leyes provinciales por ambas cámaras legislativas.Por lo expuesto, el presente trabajo busca analizar el contexto y las causas que llevaron a la aplicación y continuidad del mencionado Acuerdo Interprovincial. Además, se pretende evaluar los resultados obtenidos por el mismo, y la situación actual del problema de sobreoferta de vinos. Los objetivos generales de la investigación son: -Analizar la importancia del cluster vitivinícola para la economía de la provincia de Mendoza y para Argentina misma. -Describir la evolución del sector y evaluar su condición de cluster productivo. En cuanto a los objetivos específicos, se mencionan: -Conocer la teoría referida al concepto de cluster productivo, y verificar si el sector en cuestión puede considerarse como tal. -Analizar las causas y consecuencias que tuvo la implementación del acuerdo interprovincial entre Mendoza y San Juan en el cluster mendocino. -Conocer el contexto que llevó a plantear el acuerdo, y los objetivos que perseguía. -Analizar si el acuerdo fue o no una buena medida para corregir los problemas que se presentaban en el momento y si cumplió sus objetivos. Comparar con las demás medidas barajadas para solucionar el mismo problema del sector (sobreexistencias vínicas).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Durante los años 2000 y 2001 se produjo en la provincia del Chaco un incremento de la movilización social que confluyó con la denominada insurrección espontánea de diciembre en toda la Argentina. En particular, a nivel provincial, es posible conjeturar la construcción de una fuerza social encabezada por dos fracciones de la clase obrera. Por un lado, los trabajadores desocupados organizados en dos generaciones de movimientos piqueteros. Por otro lado, los trabajadores estatales agrupados en un frente de sindicatos provinciales. La alianza entre ambos sectores se haría visible a principios de 2000, pero recién hacia fines de 2001 lograría atraer a otros sectores sociales con sus modos particulares de acción: la pequeña burguesía, presente en los cacerolazos y los clubes de trueque, así como la burguesía representada por las cámaras empresariales y los colegios profesionales. El desarrollo de cada una de estas expresiones reconoce diversas temporalidades, modos de acción y formas de violencia y/o ruptura con el orden establecido que se intentarán analizar en el presente trabajo

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Investigación sobre la actividad legislativa que se encuentra en el trasfondo de las reformas al Código Penal argentino. El período analizado comprende los años 2000-2009. A través de proyectos de ley y dictámenes de comisiones de las cámaras del Congreso de la Nación se analiza el proceso de creación de las leyes, y las representaciones de violencia e inseguridad que tienen los legisladores. Así, pueden desentrañarse diversas categorías de violencia, derechos, bienes tutelados y el rol de la política criminal en un Estado de derecho

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las dinámicas que se desarrollan en la cuenca del Golfo San Jorge especialmente en la ciudad de Comodoro Rivadavia, han dado origen a una 'economía de localización' caracterizada por la especialización y concentración geográfica de la actividad vinculada al circuito petrolero, que favorece la innovación, el progreso técnico y el crecimiento, especialmente de los servicios petroleros. La proximidad geográfica permite la realización de actividades de complementación, cooperación, capacitación, organización; y por lo tanto alcanzar mejores niveles de competitividad, también genera dependencias vinculadas a la subcontratación. Parte de estas actividades, desarrolladas al interior del clúster generan tensiones de difícil resolución y que contrastan con las sinergias propias de un clúster cohesionado. El análisis se aborda desde la sociología (Bourdieu, 1993; Robbins, 1994) analizando la fragmentación y los conflictos sociales que son consecuencia de la desigualdad social, en términos generales. No dejando de lado la concepción de stakeholder para interpretar las posiciones y las lógicas de los diferentes actores en conflicto (Weiss, 2003) La metodología está centrada en la instrumentación del conflicto a través de protestas de los grupos vinculados con la actividad petrolera (piquetes, paros), que forman parte de la realidad de la cuenca (tanto en el flanco sur como en el norte), asociándolos con base de información georreferenciada. Los resultados dan cuenta de los principales actores en conflicto: sindicatos versus empresas petroleras o cámaras empresarias, localizaciones, modo de resolverlos y duración, en el último lustro

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Durante los años 2000 y 2001 se produjo en la provincia del Chaco un incremento de la movilización social que confluyó con la denominada insurrección espontánea de diciembre en toda la Argentina. En particular, a nivel provincial, es posible conjeturar la construcción de una fuerza social encabezada por dos fracciones de la clase obrera. Por un lado, los trabajadores desocupados organizados en dos generaciones de movimientos piqueteros. Por otro lado, los trabajadores estatales agrupados en un frente de sindicatos provinciales. La alianza entre ambos sectores se haría visible a principios de 2000, pero recién hacia fines de 2001 lograría atraer a otros sectores sociales con sus modos particulares de acción: la pequeña burguesía, presente en los cacerolazos y los clubes de trueque, así como la burguesía representada por las cámaras empresariales y los colegios profesionales. El desarrollo de cada una de estas expresiones reconoce diversas temporalidades, modos de acción y formas de violencia y/o ruptura con el orden establecido que se intentarán analizar en el presente trabajo

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Investigación sobre la actividad legislativa que se encuentra en el trasfondo de las reformas al Código Penal argentino. El período analizado comprende los años 2000-2009. A través de proyectos de ley y dictámenes de comisiones de las cámaras del Congreso de la Nación se analiza el proceso de creación de las leyes, y las representaciones de violencia e inseguridad que tienen los legisladores. Así, pueden desentrañarse diversas categorías de violencia, derechos, bienes tutelados y el rol de la política criminal en un Estado de derecho

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las dinámicas que se desarrollan en la cuenca del Golfo San Jorge especialmente en la ciudad de Comodoro Rivadavia, han dado origen a una 'economía de localización' caracterizada por la especialización y concentración geográfica de la actividad vinculada al circuito petrolero, que favorece la innovación, el progreso técnico y el crecimiento, especialmente de los servicios petroleros. La proximidad geográfica permite la realización de actividades de complementación, cooperación, capacitación, organización; y por lo tanto alcanzar mejores niveles de competitividad, también genera dependencias vinculadas a la subcontratación. Parte de estas actividades, desarrolladas al interior del clúster generan tensiones de difícil resolución y que contrastan con las sinergias propias de un clúster cohesionado. El análisis se aborda desde la sociología (Bourdieu, 1993; Robbins, 1994) analizando la fragmentación y los conflictos sociales que son consecuencia de la desigualdad social, en términos generales. No dejando de lado la concepción de stakeholder para interpretar las posiciones y las lógicas de los diferentes actores en conflicto (Weiss, 2003) La metodología está centrada en la instrumentación del conflicto a través de protestas de los grupos vinculados con la actividad petrolera (piquetes, paros), que forman parte de la realidad de la cuenca (tanto en el flanco sur como en el norte), asociándolos con base de información georreferenciada. Los resultados dan cuenta de los principales actores en conflicto: sindicatos versus empresas petroleras o cámaras empresarias, localizaciones, modo de resolverlos y duración, en el último lustro

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Durante los años 2000 y 2001 se produjo en la provincia del Chaco un incremento de la movilización social que confluyó con la denominada insurrección espontánea de diciembre en toda la Argentina. En particular, a nivel provincial, es posible conjeturar la construcción de una fuerza social encabezada por dos fracciones de la clase obrera. Por un lado, los trabajadores desocupados organizados en dos generaciones de movimientos piqueteros. Por otro lado, los trabajadores estatales agrupados en un frente de sindicatos provinciales. La alianza entre ambos sectores se haría visible a principios de 2000, pero recién hacia fines de 2001 lograría atraer a otros sectores sociales con sus modos particulares de acción: la pequeña burguesía, presente en los cacerolazos y los clubes de trueque, así como la burguesía representada por las cámaras empresariales y los colegios profesionales. El desarrollo de cada una de estas expresiones reconoce diversas temporalidades, modos de acción y formas de violencia y/o ruptura con el orden establecido que se intentarán analizar en el presente trabajo

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Investigación sobre la actividad legislativa que se encuentra en el trasfondo de las reformas al Código Penal argentino. El período analizado comprende los años 2000-2009. A través de proyectos de ley y dictámenes de comisiones de las cámaras del Congreso de la Nación se analiza el proceso de creación de las leyes, y las representaciones de violencia e inseguridad que tienen los legisladores. Así, pueden desentrañarse diversas categorías de violencia, derechos, bienes tutelados y el rol de la política criminal en un Estado de derecho

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las dinámicas que se desarrollan en la cuenca del Golfo San Jorge especialmente en la ciudad de Comodoro Rivadavia, han dado origen a una 'economía de localización' caracterizada por la especialización y concentración geográfica de la actividad vinculada al circuito petrolero, que favorece la innovación, el progreso técnico y el crecimiento, especialmente de los servicios petroleros. La proximidad geográfica permite la realización de actividades de complementación, cooperación, capacitación, organización; y por lo tanto alcanzar mejores niveles de competitividad, también genera dependencias vinculadas a la subcontratación. Parte de estas actividades, desarrolladas al interior del clúster generan tensiones de difícil resolución y que contrastan con las sinergias propias de un clúster cohesionado. El análisis se aborda desde la sociología (Bourdieu, 1993; Robbins, 1994) analizando la fragmentación y los conflictos sociales que son consecuencia de la desigualdad social, en términos generales. No dejando de lado la concepción de stakeholder para interpretar las posiciones y las lógicas de los diferentes actores en conflicto (Weiss, 2003) La metodología está centrada en la instrumentación del conflicto a través de protestas de los grupos vinculados con la actividad petrolera (piquetes, paros), que forman parte de la realidad de la cuenca (tanto en el flanco sur como en el norte), asociándolos con base de información georreferenciada. Los resultados dan cuenta de los principales actores en conflicto: sindicatos versus empresas petroleras o cámaras empresarias, localizaciones, modo de resolverlos y duración, en el último lustro

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Sistema y dispositivo condensador para la recogida de agua del medio ambiente. El dispositivo condensador (26) comprende: - dos células peltier (1,2); - medios disipadores de calor (4) en contacto con la cara caliente de las células peltier (1,2); - una superficie de condensación (6) en contacto con la cara fría de las células peltier (1,2); - un habitáculo (9) para alojar las células peltier (1,2), delimitando una cámara fría (10) y una cámara caliente (11), con aberturas para la salida del aire (13,15) en ambas cámaras (10,11) y abertura regulable (14) para la entrada de aire en la cámara fría (10); - medios sensores de humedad relativa (17) y de temperatura (16) del aire en el interior de la cámara fría (10); - medios sensores de temperatura (7) de la superficie de condensación (6); - medios de recogida (18,19,20,21) del agua condensada en la superficie de condensación (6).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

SUMMARY Concentration Photovoltaic Systems (CPV) have been proposed as an alternative to conventional systems. During the last years, there has been a boom of the CPV industry caused by the technological progress in all the elements of the system. and mainly caused by the use of multijunction solar cells based on III-V semiconductors, with efficiencies exceeding to 43%. III-V solar cells have been used with high reliability results in a great number of space missions without concentration. However, there are no previous results regarding their reliability in concentration terrestrial applications, where the working conditions are completely different. This lack of experience, together with the important industrial interest, has generated the need to evaluate the reliability of the cells. For this reason, nowadays there are several research centers around the undertaking this task. The evaluation of the reliability of this type of devices by means of accelerated tests is especially problematic when they work at medium or high concentration, because it is practically impossible to emulate real working conditions of the cell inside climatic chambers. In fact, as far as we know, the results that appear in this Thesis are the first estimating the Activation Energy of the failure mechanism involved, as well as the warranty of the III-V concentrator solar cells tested here. To evaluate the reliability of III-V very high concentrator solar cells by means of accelerated tests, a variety of activities, described in this Thesis have been carried out. The First Part of the memory presents the theoretical part of the Doctoral Thesis. After the Introduction, chapter 2 presents the state of the art in degradation and reliability of CPV systems and solar cells. Chapter 3 introduces some reliability definitions and the application of specific statistical functions to the evaluation of the reliability and parameters. From these functions, important parameters will be calculated to be used later in the experimental results of Thesis. The Second Part of the memory contains the experimental. Chapter 4 shows the types of accelerated tests and the main goals pursuit with them when carried out over CPV systems and solar cells. In order to evaluate quantitatively the reliability of the III-V concentrator solar cells used in these tests, some modifications have been introduced which discussion will be tackled here. Based on this analysis the working plan of the tests carried out in this Doctoral Thesis is presented. Chapter 5 presents a new methodology as well as the necessary instrumentation to carry out the tests described here. This new methodology takes into account the adaptation, improvement and novel techniques needed to test concentrator solar cells. The core of this memory is chapter 6, which presents the results of the characterization of the cells during the accelerated life tests and the analysis of the aforementioned results with the purpose of getting quantitative values of reliability in real working conditions. The acceleration factor of the accelerated life tests, under nominal working conditions has been calculated. Accordingly, the validity of the methodology as well as the calculations based on the reliability assessment, have also been demonstrated. Finally, quantitative values of degradation, reliability and warranty of the solar cells under field nominal working conditions have been calculated. With the development of this Doctoral Thesis the reliability of very high concentrator GaAs solar cells of small area has been evaluated. It is very interesting to generalize the procedures described up to this point to III-V multijunction solar cells of greater area. Therefore, chapter 7 develops this generalization and introduces also a useful thermal modeling by means of finite elements of the test cells’ circuits. In the last chapter, the summary of the results and the main contributions of this Thesis are outlined and future research activities are identified. RESUMEN Los Sistemas Fotovoltaicos de Concentración (SFC) han sido propuestos como una alternativa a los sistemas convencionales de generación de energía. Durante los últimos años ha habido un auge de los SFC debido a las mejoras tecnológicas en todos los elementos del sistema, y principalmente por el uso de células multiunión III-V que superan el 43% de rendimiento. Las células solares III-V han sido utilizadas con elevada fiabilidad en aplicaciones espaciales sin concentración, pero no existe experiencia de su fiabilidad en ambiente terrestre a altos niveles de concentración solar. Esta falta de experiencia junto al gran interés industrial ha generado la necesidad de evaluar la fiabilidad de las células, y actualmente hay un significativo número de centros de investigación trabajando en esta área. La evaluación de la fiabilidad de este tipo de dispositivos mediante ensayos acelerados es especialmente problemática cuando trabajan a media o alta concentración por la casi imposibilidad de emular las condiciones de trabajo reales de la célula dentro de cámaras climáticas. De hecho, que sepamos, en los resultados de esta Tesis se evalúa por primera vez la Energía de Activación del mecanismo de fallo de las células, así como la garantía en campo de las células de concentración III-V analizadas. Para evaluar la fiabilidad de células solares III-V de muy alta concentración mediante ensayos de vida acelerada se han realizado diversas actividades que han sido descritas en la memoria de la Tesis. En la Primera Parte de la memoria se presenta la parte teórica de la Tesis Doctoral. Tras la Introducción, en el capítulo 2 se muestra el estado del arte en degradación y fiabilidad de células y Sistemas Fotovoltaicos de Concentración. En el capítulo 3 se exponen de forma resumida las definiciones de fiabilidad y funciones estadísticas que se utilizan para la evaluación de la fiabilidad y sus parámetros, las cuales se emplearán posteriormente en los ensayos descritos en este Tesis. La Segunda Parte de la memoria es experimental. En el capítulo 4 se describen los tipos y objetivos de los ensayos acelerados actualmente aplicados a SFC y a las células, así como las modificaciones necesarias que permitan evaluar cuantitativamente la fiabilidad de las células solares de concentración III-V. En base a este análisis se presenta la planificación de los trabajos realizados en esta Tesis Doctoral. A partir de esta planificación y debido a la necesidad de adaptar, mejorar e innovar las técnicas de ensayos de vida acelerada para una adecuada aplicación a este tipo de dispositivos, en el capítulo 5 se muestra la metodología empleada y la instrumentación necesaria para realizar los ensayos de esta Tesis Doctoral. El núcleo de la memoria es el capítulo 6, en él se presentan los resultados de caracterización de las células durante los ensayos de vida acelerada y el análisis de dichos resultados con el objetivo de obtener valores cuantitativos de fiabilidad en condiciones reales de trabajo. Se calcula el Factor de Aceleración de los ensayos acelerados con respecto a las condiciones nominales de funcionamiento a partir de la Energía de Activación obtenida, y se demuestra la validez de la metodología y cálculos empleados, que son la base de la evaluación de la fiabilidad. Finalmente se calculan valores cuantitativos de degradación, fiabilidad y garantía de las células en condiciones nominales en campo durante toda la vida de la célula. Con el desarrollo de esta Tesis Doctoral se ha evaluado la fiabilidad de células III-V de área pequeña, pero es muy interesante generalizar los procedimientos aquí desarrollados para las células III-V comerciales de área grande. Por este motivo, en el capítulo 7 se analiza dicha generalización, incluyendo el modelado térmico mediante elementos finitos de los circuitos de ensayo de las células. En el último capítulo se realiza un resume del trabajo y las aportaciones realizadas, y se identifican las líneas de trabajo a emprender en el futuro.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El interés cada vez mayor por las redes de sensores inalámbricos pueden ser entendido simplemente pensando en lo que esencialmente son: un gran número de pequeños nodos sensores autoalimentados que recogen información o detectan eventos especiales y se comunican de manera inalámbrica, con el objetivo final de entregar sus datos procesados a una estación base. Los nodos sensores están densamente desplegados dentro del área de interés, se pueden desplegar al azar y tienen capacidad de cooperación. Por lo general, estos dispositivos son pequeños y de bajo costo, de modo que pueden ser producidos y desplegados en gran numero aunque sus recursos en términos de energía, memoria, velocidad de cálculo y ancho de banda están enormemente limitados. Detección, tratamiento y comunicación son tres elementos clave cuya combinación en un pequeño dispositivo permite lograr un gran número de aplicaciones. Las redes de sensores proporcionan oportunidades sin fin, pero al mismo tiempo plantean retos formidables, tales como lograr el máximo rendimiento de una energía que es escasa y por lo general un recurso no renovable. Sin embargo, los recientes avances en la integración a gran escala, integrado de hardware de computación, comunicaciones, y en general, la convergencia de la informática y las comunicaciones, están haciendo de esta tecnología emergente una realidad. Del mismo modo, los avances en la nanotecnología están empezando a hacer que todo gire entorno a las redes de pequeños sensores y actuadores distribuidos. Hay diferentes tipos de sensores tales como sensores de presión, acelerómetros, cámaras, sensores térmicos o un simple micrófono. Supervisan las condiciones presentes en diferentes lugares tales como la temperatura, humedad, el movimiento, la luminosidad, presión, composición del suelo, los niveles de ruido, la presencia o ausencia de ciertos tipos de objetos, los niveles de tensión mecánica sobre objetos adheridos y las características momentáneas tales como la velocidad , la dirección y el tamaño de un objeto, etc. Se comprobara el estado de las Redes Inalámbricas de Sensores y se revisaran los protocolos más famosos. Así mismo, se examinara la identificación por radiofrecuencia (RFID) ya que se está convirtiendo en algo actual y su presencia importante. La RFID tiene un papel crucial que desempeñar en el futuro en el mundo de los negocios y los individuos por igual. El impacto mundial que ha tenido la identificación sin cables está ejerciendo fuertes presiones en la tecnología RFID, los servicios de investigación y desarrollo, desarrollo de normas, el cumplimiento de la seguridad y la privacidad y muchos más. Su potencial económico se ha demostrado en algunos países mientras que otros están simplemente en etapas de planificación o en etapas piloto, pero aun tiene que afianzarse o desarrollarse a través de la modernización de los modelos de negocio y aplicaciones para poder tener un mayor impacto en la sociedad. Las posibles aplicaciones de redes de sensores son de interés para la mayoría de campos. La monitorización ambiental, la guerra, la educación infantil, la vigilancia, la micro-cirugía y la agricultura son solo unos pocos ejemplos de los muchísimos campos en los que tienen cabida las redes mencionadas anteriormente. Estados Unidos de América es probablemente el país que más ha investigado en esta área por lo que veremos muchas soluciones propuestas provenientes de ese país. Universidades como Berkeley, UCLA (Universidad de California, Los Ángeles) Harvard y empresas como Intel lideran dichas investigaciones. Pero no solo EE.UU. usa e investiga las redes de sensores inalámbricos. La Universidad de Southampton, por ejemplo, está desarrollando una tecnología para monitorear el comportamiento de los glaciares mediante redes de sensores que contribuyen a la investigación fundamental en glaciología y de las redes de sensores inalámbricos. Así mismo, Coalesenses GmbH (Alemania) y Zurich ETH están trabajando en diversas aplicaciones para redes de sensores inalámbricos en numerosas áreas. Una solución española será la elegida para ser examinada más a fondo por ser innovadora, adaptable y polivalente. Este estudio del sensor se ha centrado principalmente en aplicaciones de tráfico, pero no se puede olvidar la lista de más de 50 aplicaciones diferentes que ha sido publicada por la firma creadora de este sensor específico. En la actualidad hay muchas tecnologías de vigilancia de vehículos, incluidos los sensores de bucle, cámaras de video, sensores de imagen, sensores infrarrojos, radares de microondas, GPS, etc. El rendimiento es aceptable, pero no suficiente, debido a su limitada cobertura y caros costos de implementación y mantenimiento, especialmente este ultimo. Tienen defectos tales como: línea de visión, baja exactitud, dependen mucho del ambiente y del clima, no se puede realizar trabajos de mantenimiento sin interrumpir las mediciones, la noche puede condicionar muchos de ellos, tienen altos costos de instalación y mantenimiento, etc. Por consiguiente, en las aplicaciones reales de circulación, los datos recibidos son insuficientes o malos en términos de tiempo real debido al escaso número de detectores y su costo. Con el aumento de vehículos en las redes viales urbanas las tecnologías de detección de vehículos se enfrentan a nuevas exigencias. Las redes de sensores inalámbricos son actualmente una de las tecnologías más avanzadas y una revolución en la detección de información remota y en las aplicaciones de recogida. Las perspectivas de aplicación en el sistema inteligente de transporte son muy amplias. Con este fin se ha desarrollado un programa de localización de objetivos y recuento utilizando una red de sensores binarios. Esto permite que el sensor necesite mucha menos energía durante la transmisión de información y que los dispositivos sean más independientes con el fin de tener un mejor control de tráfico. La aplicación se centra en la eficacia de la colaboración de los sensores en el seguimiento más que en los protocolos de comunicación utilizados por los nodos sensores. Las operaciones de salida y retorno en las vacaciones son un buen ejemplo de por qué es necesario llevar la cuenta de los coches en las carreteras. Para ello se ha desarrollado una simulación en Matlab con el objetivo localizar objetivos y contarlos con una red de sensores binarios. Dicho programa se podría implementar en el sensor que Libelium, la empresa creadora del sensor que se examinara concienzudamente, ha desarrollado. Esto permitiría que el aparato necesitase mucha menos energía durante la transmisión de información y los dispositivos sean más independientes. Los prometedores resultados obtenidos indican que los sensores de proximidad binarios pueden formar la base de una arquitectura robusta para la vigilancia de áreas amplias y para el seguimiento de objetivos. Cuando el movimiento de dichos objetivos es suficientemente suave, no tiene cambios bruscos de trayectoria, el algoritmo ClusterTrack proporciona un rendimiento excelente en términos de identificación y seguimiento de trayectorias los objetos designados como blancos. Este algoritmo podría, por supuesto, ser utilizado para numerosas aplicaciones y se podría seguir esta línea de trabajo para futuras investigaciones. No es sorprendente que las redes de sensores de binarios de proximidad hayan atraído mucha atención últimamente ya que, a pesar de la información mínima de un sensor de proximidad binario proporciona, las redes de este tipo pueden realizar un seguimiento de todo tipo de objetivos con la precisión suficiente. Abstract The increasing interest in wireless sensor networks can be promptly understood simply by thinking about what they essentially are: a large number of small sensing self-powered nodes which gather information or detect special events and communicate in a wireless fashion, with the end goal of handing their processed data to a base station. The sensor nodes are densely deployed inside the phenomenon, they deploy random and have cooperative capabilities. Usually these devices are small and inexpensive, so that they can be produced and deployed in large numbers, and so their resources in terms of energy, memory, computational speed and bandwidth are severely constrained. Sensing, processing and communication are three key elements whose combination in one tiny device gives rise to a vast number of applications. Sensor networks provide endless opportunities, but at the same time pose formidable challenges, such as the fact that energy is a scarce and usually non-renewable resource. However, recent advances in low power Very Large Scale Integration, embedded computing, communication hardware, and in general, the convergence of computing and communications, are making this emerging technology a reality. Likewise, advances in nanotechnology and Micro Electro-Mechanical Systems are pushing toward networks of tiny distributed sensors and actuators. There are different sensors such as pressure, accelerometer, camera, thermal, and microphone. They monitor conditions at different locations, such as temperature, humidity, vehicular movement, lightning condition, pressure, soil makeup, noise levels, the presence or absence of certain kinds of objects, mechanical stress levels on attached objects, the current characteristics such as speed, direction and size of an object, etc. The state of Wireless Sensor Networks will be checked and the most famous protocols reviewed. As Radio Frequency Identification (RFID) is becoming extremely present and important nowadays, it will be examined as well. RFID has a crucial role to play in business and for individuals alike going forward. The impact of ‘wireless’ identification is exerting strong pressures in RFID technology and services research and development, standards development, security compliance and privacy, and many more. The economic value is proven in some countries while others are just on the verge of planning or in pilot stages, but the wider spread of usage has yet to take hold or unfold through the modernisation of business models and applications. Possible applications of sensor networks are of interest to the most diverse fields. Environmental monitoring, warfare, child education, surveillance, micro-surgery, and agriculture are only a few examples. Some real hardware applications in the United States of America will be checked as it is probably the country that has investigated most in this area. Universities like Berkeley, UCLA (University of California, Los Angeles) Harvard and enterprises such as Intel are leading those investigations. But not just USA has been using and investigating wireless sensor networks. University of Southampton e.g. is to develop technology to monitor glacier behaviour using sensor networks contributing to fundamental research in glaciology and wireless sensor networks. Coalesenses GmbH (Germany) and ETH Zurich are working in applying wireless sensor networks in many different areas too. A Spanish solution will be the one examined more thoroughly for being innovative, adaptable and multipurpose. This study of the sensor has been focused mainly to traffic applications but it cannot be forgotten the more than 50 different application compilation that has been published by this specific sensor’s firm. Currently there are many vehicle surveillance technologies including loop sensors, video cameras, image sensors, infrared sensors, microwave radar, GPS, etc. The performance is acceptable but not sufficient because of their limited coverage and expensive costs of implementation and maintenance, specially the last one. They have defects such as: line-ofsight, low exactness, depending on environment and weather, cannot perform no-stop work whether daytime or night, high costs for installation and maintenance, etc. Consequently, in actual traffic applications the received data is insufficient or bad in terms of real-time owed to detector quantity and cost. With the increase of vehicle in urban road networks, the vehicle detection technologies are confronted with new requirements. Wireless sensor network is the state of the art technology and a revolution in remote information sensing and collection applications. It has broad prospect of application in intelligent transportation system. An application for target tracking and counting using a network of binary sensors has been developed. This would allow the appliance to spend much less energy when transmitting information and to make more independent devices in order to have a better traffic control. The application is focused on the efficacy of collaborative tracking rather than on the communication protocols used by the sensor nodes. Holiday crowds are a good case in which it is necessary to keep count of the cars on the roads. To this end a Matlab simulation has been produced for target tracking and counting using a network of binary sensors that e.g. could be implemented in Libelium’s solution. Libelium is the enterprise that has developed the sensor that will be deeply examined. This would allow the appliance to spend much less energy when transmitting information and to make more independent devices. The promising results obtained indicate that binary proximity sensors can form the basis for a robust architecture for wide area surveillance and tracking. When the target paths are smooth enough ClusterTrack particle filter algorithm gives excellent performance in terms of identifying and tracking different target trajectories. This algorithm could, of course, be used for different applications and that could be done in future researches. It is not surprising that binary proximity sensor networks have attracted a lot of attention lately. Despite the minimal information a binary proximity sensor provides, networks of these sensing modalities can track all kinds of different targets classes accurate enough.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

One important task in the design of an antenna is to carry out an analysis to find out the characteristics of the antenna that best fulfills the specifications fixed by the application. After that, a prototype is manufactured and the next stage in design process is to check if the radiation pattern differs from the designed one. Besides the radiation pattern, other radiation parameters like directivity, gain, impedance, beamwidth, efficiency, polarization, etc. must be also evaluated. For this purpose, accurate antenna measurement techniques are needed in order to know exactly the actual electromagnetic behavior of the antenna under test. Due to this fact, most of the measurements are performed in anechoic chambers, which are closed areas, normally shielded, covered by electromagnetic absorbing material, that simulate free space propagation conditions, due to the absorption of the radiation absorbing material. Moreover, these facilities can be employed independently of the weather conditions and allow measurements free from interferences. Despite all the advantages of the anechoic chambers, the results obtained both from far-field measurements and near-field measurements are inevitably affected by errors. Thus, the main objective of this Thesis is to propose algorithms to improve the quality of the results obtained in antenna measurements by using post-processing techniques and without requiring additional measurements. First, a deep revision work of the state of the art has been made in order to give a general vision of the possibilities to characterize or to reduce the effects of errors in antenna measurements. Later, new methods to reduce the unwanted effects of four of the most commons errors in antenna measurements are described and theoretical and numerically validated. The basis of all them is the same, to perform a transformation from the measurement surface to another domain where there is enough information to easily remove the contribution of the errors. The four errors analyzed are noise, reflections, truncation errors and leakage and the tools used to suppress them are mainly source reconstruction techniques, spatial and modal filtering and iterative algorithms to extrapolate functions. Therefore, the main idea of all the methods is to modify the classical near-field-to-far-field transformations by including additional steps with which errors can be greatly suppressed. Moreover, the proposed methods are not computationally complex and, because they are applied in post-processing, additional measurements are not required. The noise is the most widely studied error in this Thesis, proposing a total of three alternatives to filter out an important noise contribution before obtaining the far-field pattern. The first one is based on a modal filtering. The second alternative uses a source reconstruction technique to obtain the extreme near-field where it is possible to apply a spatial filtering. The last one is to back-propagate the measured field to a surface with the same geometry than the measurement surface but closer to the AUT and then to apply also a spatial filtering. All the alternatives are analyzed in the three most common near-field systems, including comprehensive noise statistical analyses in order to deduce the signal-to-noise ratio improvement achieved in each case. The method to suppress reflections in antenna measurements is also based on a source reconstruction technique and the main idea is to reconstruct the field over a surface larger than the antenna aperture in order to be able to identify and later suppress the virtual sources related to the reflective waves. The truncation error presents in the results obtained from planar, cylindrical and partial spherical near-field measurements is the third error analyzed in this Thesis. The method to reduce this error is based on an iterative algorithm to extrapolate the reliable region of the far-field pattern from the knowledge of the field distribution on the AUT plane. The proper termination point of this iterative algorithm as well as other critical aspects of the method are also studied. The last part of this work is dedicated to the detection and suppression of the two most common leakage sources in antenna measurements. A first method tries to estimate the leakage bias constant added by the receiver’s quadrature detector to every near-field data and then suppress its effect on the far-field pattern. The second method can be divided into two parts; the first one to find the position of the faulty component that radiates or receives unwanted radiation, making easier its identification within the measurement environment and its later substitution; and the second part of this method is able to computationally remove the leakage effect without requiring the substitution of the faulty component. Resumen Una tarea importante en el diseño de una antena es llevar a cabo un análisis para averiguar las características de la antena que mejor cumple las especificaciones fijadas por la aplicación. Después de esto, se fabrica un prototipo de la antena y el siguiente paso en el proceso de diseño es comprobar si el patrón de radiación difiere del diseñado. Además del patrón de radiación, otros parámetros de radiación como la directividad, la ganancia, impedancia, ancho de haz, eficiencia, polarización, etc. deben ser también evaluados. Para lograr este propósito, se necesitan técnicas de medida de antenas muy precisas con el fin de saber exactamente el comportamiento electromagnético real de la antena bajo prueba. Debido a esto, la mayoría de las medidas se realizan en cámaras anecoicas, que son áreas cerradas, normalmente revestidas, cubiertas con material absorbente electromagnético. Además, estas instalaciones se pueden emplear independientemente de las condiciones climatológicas y permiten realizar medidas libres de interferencias. A pesar de todas las ventajas de las cámaras anecoicas, los resultados obtenidos tanto en medidas en campo lejano como en medidas en campo próximo están inevitablemente afectados por errores. Así, el principal objetivo de esta Tesis es proponer algoritmos para mejorar la calidad de los resultados obtenidos en medida de antenas mediante el uso de técnicas de post-procesado. Primeramente, se ha realizado un profundo trabajo de revisión del estado del arte con el fin de dar una visión general de las posibilidades para caracterizar o reducir los efectos de errores en medida de antenas. Después, se han descrito y validado tanto teórica como numéricamente nuevos métodos para reducir el efecto indeseado de cuatro de los errores más comunes en medida de antenas. La base de todos ellos es la misma, realizar una transformación de la superficie de medida a otro dominio donde hay suficiente información para eliminar fácilmente la contribución de los errores. Los cuatro errores analizados son ruido, reflexiones, errores de truncamiento y leakage y las herramientas usadas para suprimirlos son principalmente técnicas de reconstrucción de fuentes, filtrado espacial y modal y algoritmos iterativos para extrapolar funciones. Por lo tanto, la principal idea de todos los métodos es modificar las transformaciones clásicas de campo cercano a campo lejano incluyendo pasos adicionales con los que los errores pueden ser enormemente suprimidos. Además, los métodos propuestos no son computacionalmente complejos y dado que se aplican en post-procesado, no se necesitan medidas adicionales. El ruido es el error más ampliamente estudiado en esta Tesis, proponiéndose un total de tres alternativas para filtrar una importante contribución de ruido antes de obtener el patrón de campo lejano. La primera está basada en un filtrado modal. La segunda alternativa usa una técnica de reconstrucción de fuentes para obtener el campo sobre el plano de la antena donde es posible aplicar un filtrado espacial. La última es propagar el campo medido a una superficie con la misma geometría que la superficie de medida pero más próxima a la antena y luego aplicar también un filtrado espacial. Todas las alternativas han sido analizadas en los sistemas de campo próximos más comunes, incluyendo detallados análisis estadísticos del ruido con el fin de deducir la mejora de la relación señal a ruido lograda en cada caso. El método para suprimir reflexiones en medida de antenas está también basado en una técnica de reconstrucción de fuentes y la principal idea es reconstruir el campo sobre una superficie mayor que la apertura de la antena con el fin de ser capaces de identificar y después suprimir fuentes virtuales relacionadas con las ondas reflejadas. El error de truncamiento que aparece en los resultados obtenidos a partir de medidas en un plano, cilindro o en la porción de una esfera es el tercer error analizado en esta Tesis. El método para reducir este error está basado en un algoritmo iterativo para extrapolar la región fiable del patrón de campo lejano a partir de información de la distribución del campo sobre el plano de la antena. Además, se ha estudiado el punto apropiado de terminación de este algoritmo iterativo así como otros aspectos críticos del método. La última parte de este trabajo está dedicado a la detección y supresión de dos de las fuentes de leakage más comunes en medida de antenas. El primer método intenta realizar una estimación de la constante de fuga del leakage añadido por el detector en cuadratura del receptor a todos los datos en campo próximo y después suprimir su efecto en el patrón de campo lejano. El segundo método se puede dividir en dos partes; la primera de ellas para encontrar la posición de elementos defectuosos que radian o reciben radiación indeseada, haciendo más fácil su identificación dentro del entorno de medida y su posterior substitución. La segunda parte del método es capaz de eliminar computacionalmente el efector del leakage sin necesidad de la substitución del elemento defectuoso.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Classical imaging optics has been developed over centuries in many areas, such as its paraxial imaging theory and practical design methods like multi-parametric optimization techniques. Although these imaging optical design methods can provide elegant solutions to many traditional optical problems, there are more and more new design problems, like solar concentrator, illumination system, ultra-compact camera, etc., that require maximum energy transfer efficiency, or ultra-compact optical structure. These problems do not have simple solutions from classical imaging design methods, because not only paraxial rays, but also non-paraxial rays should be well considered in the design process. Non-imaging optics is a newly developed optical discipline, which does not aim to form images, but to maximize energy transfer efficiency. One important concept developed from non-imaging optics is the “edge-ray principle”, which states that the energy flow contained in a bundle of rays will be transferred to the target, if all its edge rays are transferred to the target. Based on that concept, many CPC solar concentrators have been developed with efficiency close to the thermodynamic limit. When more than one bundle of edge-rays needs to be considered in the design, one way to obtain solutions is to use SMS method. SMS stands for Simultaneous Multiple Surface, which means several optical surfaces are constructed simultaneously. The SMS method was developed as a design method in Non-imaging optics during the 90s. The method can be considered as an extension to the Cartesian Oval calculation. In the traditional Cartesian Oval calculation, one optical surface is built to transform an input wave-front to an out-put wave-front. The SMS method however, is dedicated to solve more than 1 wave-fronts transformation problem. In the beginning, only 2 input wave-fronts and 2 output wave-fronts transformation problem was considered in the SMS design process for rotational optical systems or free-form optical systems. Usually “SMS 2D” method stands for the SMS procedure developed for rotational optical system, and “SMS 3D” method for the procedure for free-form optical system. Although the SMS method was originally employed in non-imaging optical system designs, it has been found during this thesis that with the improved capability to design more surfaces and control more input and output wave-fronts, the SMS method can also be applied to imaging system designs and possesses great advantage over traditional design methods. In this thesis, one of the main goals to achieve is to further develop the existing SMS-2D method to design with more surfaces and improve the stability of the SMS-2D and SMS-3D algorithms, so that further optimization process can be combined with SMS algorithms. The benefits of SMS plus optimization strategy over traditional optimization strategy will be explained in details for both rotational and free-form imaging optical system designs. Another main goal is to develop novel design concepts and methods suitable for challenging non-imaging applications, e.g. solar concentrator and solar tracker. This thesis comprises 9 chapters and can be grouped into two parts: the first part (chapter 2-5) contains research works in the imaging field, and the second part (chapter 6-8) contains works in the non-imaging field. In the first chapter, an introduction to basic imaging and non-imaging design concepts and theories is given. Chapter 2 presents a basic SMS-2D imaging design procedure using meridian rays. In this chapter, we will set the imaging design problem from the SMS point of view, and try to solve the problem numerically. The stability of this SMS-2D design procedure will also be discussed. The design concepts and procedures developed in this chapter lay the path for further improvement. Chapter 3 presents two improved SMS 3 surfaces’ design procedures using meridian rays (SMS-3M) and skew rays (SMS-1M2S) respectively. The major improvement has been made to the central segments selections, so that the whole SMS procedures become more stable compared to procedures described in Chapter 2. Since these two algorithms represent two types of phase space sampling, their image forming capabilities are compared in a simple objective design. Chapter 4 deals with an ultra-compact SWIR camera design with the SMS-3M method. The difficulties in this wide band camera design is how to maintain high image quality meanwhile reduce the overall system length. This interesting camera design provides a playground for the classical design method and SMS design methods. We will show designs and optical performance from both classical design method and the SMS design method. Tolerance study is also given as the end of the chapter. Chapter 5 develops a two-stage SMS-3D based optimization strategy for a 2 freeform mirrors imaging system. In the first optimization phase, the SMS-3D method is integrated into the optimization process to construct the two mirrors in an accurate way, drastically reducing the unknown parameters to only few system configuration parameters. In the second optimization phase, previous optimized mirrors are parameterized into Qbfs type polynomials and set up in code V. Code V optimization results demonstrates the effectiveness of this design strategy in this 2-mirror system design. Chapter 6 shows an etendue-squeezing condenser optics, which were prepared for the 2010 IODC illumination contest. This interesting design employs many non-imaging techniques such as the SMS method, etendue-squeezing tessellation, and groove surface design. This device has theoretical efficiency limit as high as 91.9%. Chapter 7 presents a freeform mirror-type solar concentrator with uniform irradiance on the solar cell. Traditional parabolic mirror concentrator has many drawbacks like hot-pot irradiance on the center of the cell, insufficient use of active cell area due to its rotational irradiance pattern and small acceptance angle. In order to conquer these limitations, a novel irradiance homogenization concept is developed, which lead to a free-form mirror design. Simulation results show that the free-form mirror reflector has rectangular irradiance pattern, uniform irradiance distribution and large acceptance angle, which confirm the viability of the design concept. Chapter 8 presents a novel beam-steering array optics design strategy. The goal of the design is to track large angle parallel rays by only moving optical arrays laterally, and convert it to small angle parallel output rays. The design concept is developed as an extended SMS method. Potential applications of this beam-steering device are: skylights to provide steerable natural illumination, building integrated CPV systems, and steerable LED illumination. Conclusion and future lines of work are given in Chapter 9. Resumen La óptica de formación de imagen clásica se ha ido desarrollando durante siglos, dando lugar tanto a la teoría de óptica paraxial y los métodos de diseño prácticos como a técnicas de optimización multiparamétricas. Aunque estos métodos de diseño óptico para formación de imagen puede aportar soluciones elegantes a muchos problemas convencionales, siguen apareciendo nuevos problemas de diseño óptico, concentradores solares, sistemas de iluminación, cámaras ultracompactas, etc. que requieren máxima transferencia de energía o dimensiones ultracompactas. Este tipo de problemas no se pueden resolver fácilmente con métodos clásicos de diseño porque durante el proceso de diseño no solamente se deben considerar los rayos paraxiales sino también los rayos no paraxiales. La óptica anidólica o no formadora de imagen es una disciplina que ha evolucionado en gran medida recientemente. Su objetivo no es formar imagen, es maximazar la eficiencia de transferencia de energía. Un concepto importante de la óptica anidólica son los “rayos marginales”, que se pueden utilizar para el diseño de sistemas ya que si todos los rayos marginales llegan a nuestra área del receptor, todos los rayos interiores también llegarán al receptor. Haciendo uso de este principio, se han diseñado muchos concentradores solares que funcionan cerca del límite teórico que marca la termodinámica. Cuando consideramos más de un haz de rayos marginales en nuestro diseño, una posible solución es usar el método SMS (Simultaneous Multiple Surface), el cuál diseña simultáneamente varias superficies ópticas. El SMS nació como un método de diseño para óptica anidólica durante los años 90. El método puede ser considerado como una extensión del cálculo del óvalo cartesiano. En el método del óvalo cartesiano convencional, se calcula una superficie para transformar un frente de onda entrante a otro frente de onda saliente. El método SMS permite transformar varios frentes de onda de entrada en frentes de onda de salida. Inicialmente, sólo era posible transformar dos frentes de onda con dos superficies con simetría de rotación y sin simetría de rotación, pero esta limitación ha sido superada recientemente. Nos referimos a “SMS 2D” como el método orientado a construir superficies con simetría de rotación y llamamos “SMS 3D” al método para construir superficies sin simetría de rotación o free-form. Aunque el método originalmente fue aplicado en el diseño de sistemas anidólicos, se ha observado que gracias a su capacidad para diseñar más superficies y controlar más frentes de onda de entrada y de salida, el SMS también es posible aplicarlo a sistemas de formación de imagen proporcionando una gran ventaja sobre los métodos de diseño tradicionales. Uno de los principales objetivos de la presente tesis es extender el método SMS-2D para permitir el diseño de sistemas con mayor número de superficies y mejorar la estabilidad de los algoritmos del SMS-2D y SMS-3D, haciendo posible combinar la optimización con los algoritmos. Los beneficios de combinar SMS y optimización comparado con el proceso de optimización tradicional se explican en detalle para sistemas con simetría de rotación y sin simetría de rotación. Otro objetivo importante de la tesis es el desarrollo de nuevos conceptos de diseño y nuevos métodos en el área de la concentración solar fotovoltaica. La tesis está estructurada en 9 capítulos que están agrupados en dos partes: la primera de ellas (capítulos 2-5) se centra en la óptica formadora de imagen mientras que en la segunda parte (capítulos 6-8) se presenta el trabajo del área de la óptica anidólica. El primer capítulo consta de una breve introducción de los conceptos básicos de la óptica anidólica y la óptica en formación de imagen. El capítulo 2 describe un proceso de diseño SMS-2D sencillo basado en los rayos meridianos. En este capítulo se presenta el problema de diseñar un sistema formador de imagen desde el punto de vista del SMS y se intenta obtener una solución de manera numérica. La estabilidad de este proceso se analiza con detalle. Los conceptos de diseño y los algoritmos desarrollados en este capítulo sientan la base sobre la cual se realizarán mejoras. El capítulo 3 presenta dos procedimientos para el diseño de un sistema con 3 superficies SMS, el primero basado en rayos meridianos (SMS-3M) y el segundo basado en rayos oblicuos (SMS-1M2S). La mejora más destacable recae en la selección de los segmentos centrales, que hacen más estable todo el proceso de diseño comparado con el presentado en el capítulo 2. Estos dos algoritmos representan dos tipos de muestreo del espacio de fases, su capacidad para formar imagen se compara diseñando un objetivo simple con cada uno de ellos. En el capítulo 4 se presenta un diseño ultra-compacto de una cámara SWIR diseñada usando el método SMS-3M. La dificultad del diseño de esta cámara de espectro ancho radica en mantener una alta calidad de imagen y al mismo tiempo reducir drásticamente sus dimensiones. Esta cámara es muy interesante para comparar el método de diseño clásico y el método de SMS. En este capítulo se presentan ambos diseños y se analizan sus características ópticas. En el capítulo 5 se describe la estrategia de optimización basada en el método SMS-3D. El método SMS-3D calcula las superficies ópticas de manera precisa, dejando sólo unos pocos parámetros libres para decidir la configuración del sistema. Modificando el valor de estos parámetros se genera cada vez mediante SMS-3D un sistema completo diferente. La optimización se lleva a cabo variando los mencionados parámetros y analizando el sistema generado. Los resultados muestran que esta estrategia de diseño es muy eficaz y eficiente para un sistema formado por dos espejos. En el capítulo 6 se describe un sistema de compresión de la Etendue, que fue presentado en el concurso de iluminación del IODC en 2010. Este interesante diseño hace uso de técnicas propias de la óptica anidólica, como el método SMS, el teselado de las lentes y el diseño mediante grooves. Este dispositivo tiene un límite teórica en la eficiencia del 91.9%. El capítulo 7 presenta un concentrador solar basado en un espejo free-form con irradiancia uniforme sobre la célula. Los concentradores parabólicos tienen numerosas desventajas como los puntos calientes en la zona central de la célula, uso no eficiente del área de la célula al ser ésta cuadrada y además tienen ángulos de aceptancia de reducido. Para poder superar estas limitaciones se propone un novedoso concepto de homogeneización de la irrandancia que se materializa en un diseño con espejo free-form. El análisis mediante simulación demuestra que la irradiancia es homogénea en una región rectangular y con mayor ángulo de aceptancia, lo que confirma la viabilidad del concepto de diseño. En el capítulo 8 se presenta un novedoso concepto para el diseño de sistemas afocales dinámicos. El objetivo del diseño es realizar un sistema cuyo haz de rayos de entrada pueda llegar con ángulos entre ±45º mientras que el haz de rayos a la salida sea siempre perpendicular al sistema, variando únicamente la posición de los elementos ópticos lateralmente. Las aplicaciones potenciales de este dispositivo son varias: tragaluces que proporcionan iluminación natural, sistemas de concentración fotovoltaica integrados en los edificios o iluminación direccionable con LEDs. Finalmente, el último capítulo contiene las conclusiones y las líneas de investigación futura.