31 resultados para Kim, Jaegwon: Physicalism, or something near enough
em Universidad Politécnica de Madrid
Resumo:
La astronomía de rayos γ estudia las partículas más energéticas que llegan a la Tierra desde el espacio. Estos rayos γ no se generan mediante procesos térmicos en simples estrellas, sino mediante mecanismos de aceleración de partículas en objetos celestes como núcleos de galaxias activos, púlsares, supernovas, o posibles procesos de aniquilación de materia oscura. Los rayos γ procedentes de estos objetos y sus características proporcionan una valiosa información con la que los científicos tratan de comprender los procesos físicos que ocurren en ellos y desarrollar modelos teóricos que describan su funcionamiento con fidelidad. El problema de observar rayos γ es que son absorbidos por las capas altas de la atmósfera y no llegan a la superficie (de lo contrario, la Tierra será inhabitable). De este modo, sólo hay dos formas de observar rayos γ embarcar detectores en satélites, u observar los efectos secundarios que los rayos γ producen en la atmósfera. Cuando un rayo γ llega a la atmósfera, interacciona con las partículas del aire y genera un par electrón - positrón, con mucha energía. Estas partículas secundarias generan a su vez más partículas secundarias cada vez menos energéticas. Estas partículas, mientras aún tienen energía suficiente para viajar más rápido que la velocidad de la luz en el aire, producen una radiación luminosa azulada conocida como radiación Cherenkov durante unos pocos nanosegundos. Desde la superficie de la Tierra, algunos telescopios especiales, conocidos como telescopios Cherenkov o IACTs (Imaging Atmospheric Cherenkov Telescopes), son capaces de detectar la radiación Cherenkov e incluso de tomar imágenes de la forma de la cascada Cherenkov. A partir de estas imágenes es posible conocer las principales características del rayo γ original, y con suficientes rayos se pueden deducir características importantes del objeto que los emitió, a cientos de años luz de distancia. Sin embargo, detectar cascadas Cherenkov procedentes de rayos γ no es nada fácil. Las cascadas generadas por fotones γ de bajas energías emiten pocos fotones, y durante pocos nanosegundos, y las correspondientes a rayos γ de alta energía, si bien producen más electrones y duran más, son más improbables conforme mayor es su energía. Esto produce dos líneas de desarrollo de telescopios Cherenkov: Para observar cascadas de bajas energías son necesarios grandes reflectores que recuperen muchos fotones de los pocos que tienen estas cascadas. Por el contrario, las cascadas de altas energías se pueden detectar con telescopios pequeños, pero conviene cubrir con ellos una superficie grande en el suelo para aumentar el número de eventos detectados. Con el objetivo de mejorar la sensibilidad de los telescopios Cherenkov actuales, en el rango de energía alto (> 10 TeV), medio (100 GeV - 10 TeV) y bajo (10 GeV - 100 GeV), nació el proyecto CTA (Cherenkov Telescope Array). Este proyecto en el que participan más de 27 países, pretende construir un observatorio en cada hemisferio, cada uno de los cuales contará con 4 telescopios grandes (LSTs), unos 30 medianos (MSTs) y hasta 70 pequeños (SSTs). Con un array así, se conseguirán dos objetivos. En primer lugar, al aumentar drásticamente el área de colección respecto a los IACTs actuales, se detectarán más rayos γ en todos los rangos de energía. En segundo lugar, cuando una misma cascada Cherenkov es observada por varios telescopios a la vez, es posible analizarla con mucha más precisión gracias a las técnicas estereoscópicas. La presente tesis recoge varios desarrollos técnicos realizados como aportación a los telescopios medianos y grandes de CTA, concretamente al sistema de trigger. Al ser las cascadas Cherenkov tan breves, los sistemas que digitalizan y leen los datos de cada píxel tienen que funcionar a frecuencias muy altas (≈1 GHz), lo que hace inviable que funcionen de forma continua, ya que la cantidad de datos guardada será inmanejable. En su lugar, las señales analógicas se muestrean, guardando las muestras analógicas en un buffer circular de unos pocos µs. Mientras las señales se mantienen en el buffer, el sistema de trigger hace un análisis rápido de las señales recibidas, y decide si la imagen que hay en el buér corresponde a una cascada Cherenkov y merece ser guardada, o por el contrario puede ignorarse permitiendo que el buffer se sobreescriba. La decisión de si la imagen merece ser guardada o no, se basa en que las cascadas Cherenkov producen detecciones de fotones en píxeles cercanos y en tiempos muy próximos, a diferencia de los fotones de NSB (night sky background), que llegan aleatoriamente. Para detectar cascadas grandes es suficiente con comprobar que más de un cierto número de píxeles en una región hayan detectado más de un cierto número de fotones en una ventana de tiempo de algunos nanosegundos. Sin embargo, para detectar cascadas pequeñas es más conveniente tener en cuenta cuántos fotones han sido detectados en cada píxel (técnica conocida como sumtrigger). El sistema de trigger desarrollado en esta tesis pretende optimizar la sensibilidad a bajas energías, por lo que suma analógicamente las señales recibidas en cada píxel en una región de trigger y compara el resultado con un umbral directamente expresable en fotones detectados (fotoelectrones). El sistema diseñado permite utilizar regiones de trigger de tamaño seleccionable entre 14, 21 o 28 píxeles (2, 3, o 4 clusters de 7 píxeles cada uno), y con un alto grado de solapamiento entre ellas. De este modo, cualquier exceso de luz en una región compacta de 14, 21 o 28 píxeles es detectado y genera un pulso de trigger. En la versión más básica del sistema de trigger, este pulso se distribuye por toda la cámara de forma que todos los clusters sean leídos al mismo tiempo, independientemente de su posición en la cámara, a través de un delicado sistema de distribución. De este modo, el sistema de trigger guarda una imagen completa de la cámara cada vez que se supera el número de fotones establecido como umbral en una región de trigger. Sin embargo, esta forma de operar tiene dos inconvenientes principales. En primer lugar, la cascada casi siempre ocupa sólo una pequeña zona de la cámara, por lo que se guardan muchos píxeles sin información alguna. Cuando se tienen muchos telescopios como será el caso de CTA, la cantidad de información inútil almacenada por este motivo puede ser muy considerable. Por otro lado, cada trigger supone guardar unos pocos nanosegundos alrededor del instante de disparo. Sin embargo, en el caso de cascadas grandes la duración de las mismas puede ser bastante mayor, perdiéndose parte de la información debido al truncamiento temporal. Para resolver ambos problemas se ha propuesto un esquema de trigger y lectura basado en dos umbrales. El umbral alto decide si hay un evento en la cámara y, en caso positivo, sólo las regiones de trigger que superan el nivel bajo son leídas, durante un tiempo más largo. De este modo se evita guardar información de píxeles vacíos y las imágenes fijas de las cascadas se pueden convertir en pequeños \vídeos" que representen el desarrollo temporal de la cascada. Este nuevo esquema recibe el nombre de COLIBRI (Concept for an Optimized Local Image Building and Readout Infrastructure), y se ha descrito detalladamente en el capítulo 5. Un problema importante que afecta a los esquemas de sumtrigger como el que se presenta en esta tesis es que para sumar adecuadamente las señales provenientes de cada píxel, estas deben tardar lo mismo en llegar al sumador. Los fotomultiplicadores utilizados en cada píxel introducen diferentes retardos que deben compensarse para realizar las sumas adecuadamente. El efecto de estos retardos ha sido estudiado, y se ha desarrollado un sistema para compensarlos. Por último, el siguiente nivel de los sistemas de trigger para distinguir efectivamente las cascadas Cherenkov del NSB consiste en buscar triggers simultáneos (o en tiempos muy próximos) en telescopios vecinos. Con esta función, junto con otras de interfaz entre sistemas, se ha desarrollado un sistema denominado Trigger Interface Board (TIB). Este sistema consta de un módulo que irá montado en la cámara de cada LST o MST, y que estará conectado mediante fibras ópticas a los telescopios vecinos. Cuando un telescopio tiene un trigger local, este se envía a todos los vecinos conectados y viceversa, de modo que cada telescopio sabe si sus vecinos han dado trigger. Una vez compensadas las diferencias de retardo debidas a la propagación en las fibras ópticas y de los propios fotones Cherenkov en el aire dependiendo de la dirección de apuntamiento, se buscan coincidencias, y en el caso de que la condición de trigger se cumpla, se lee la cámara en cuestión, de forma sincronizada con el trigger local. Aunque todo el sistema de trigger es fruto de la colaboración entre varios grupos, fundamentalmente IFAE, CIEMAT, ICC-UB y UCM en España, con la ayuda de grupos franceses y japoneses, el núcleo de esta tesis son el Level 1 y la Trigger Interface Board, que son los dos sistemas en los que que el autor ha sido el ingeniero principal. Por este motivo, en la presente tesis se ha incluido abundante información técnica relativa a estos sistemas. Existen actualmente importantes líneas de desarrollo futuras relativas tanto al trigger de la cámara (implementación en ASICs), como al trigger entre telescopios (trigger topológico), que darán lugar a interesantes mejoras sobre los diseños actuales durante los próximos años, y que con suerte serán de provecho para toda la comunidad científica participante en CTA. ABSTRACT -ray astronomy studies the most energetic particles arriving to the Earth from outer space. This -rays are not generated by thermal processes in mere stars, but by means of particle acceleration mechanisms in astronomical objects such as active galactic nuclei, pulsars, supernovas or as a result of dark matter annihilation processes. The γ rays coming from these objects and their characteristics provide with valuable information to the scientist which try to understand the underlying physical fundamentals of these objects, as well as to develop theoretical models able to describe them accurately. The problem when observing rays is that they are absorbed in the highest layers of the atmosphere, so they don't reach the Earth surface (otherwise the planet would be uninhabitable). Therefore, there are only two possible ways to observe γ rays: by using detectors on-board of satellites, or by observing their secondary effects in the atmosphere. When a γ ray reaches the atmosphere, it interacts with the particles in the air generating a highly energetic electron-positron pair. These secondary particles generate in turn more particles, with less energy each time. While these particles are still energetic enough to travel faster than the speed of light in the air, they produce a bluish radiation known as Cherenkov light during a few nanoseconds. From the Earth surface, some special telescopes known as Cherenkov telescopes or IACTs (Imaging Atmospheric Cherenkov Telescopes), are able to detect the Cherenkov light and even to take images of the Cherenkov showers. From these images it is possible to know the main parameters of the original -ray, and with some -rays it is possible to deduce important characteristics of the emitting object, hundreds of light-years away. However, detecting Cherenkov showers generated by γ rays is not a simple task. The showers generated by low energy -rays contain few photons and last few nanoseconds, while the ones corresponding to high energy -rays, having more photons and lasting more time, are much more unlikely. This results in two clearly differentiated development lines for IACTs: In order to detect low energy showers, big reflectors are required to collect as much photons as possible from the few ones that these showers have. On the contrary, small telescopes are able to detect high energy showers, but a large area in the ground should be covered to increase the number of detected events. With the aim to improve the sensitivity of current Cherenkov showers in the high (> 10 TeV), medium (100 GeV - 10 TeV) and low (10 GeV - 100 GeV) energy ranges, the CTA (Cherenkov Telescope Array) project was created. This project, with more than 27 participating countries, intends to build an observatory in each hemisphere, each one equipped with 4 large size telescopes (LSTs), around 30 middle size telescopes (MSTs) and up to 70 small size telescopes (SSTs). With such an array, two targets would be achieved. First, the drastic increment in the collection area with respect to current IACTs will lead to detect more -rays in all the energy ranges. Secondly, when a Cherenkov shower is observed by several telescopes at the same time, it is possible to analyze it much more accurately thanks to the stereoscopic techniques. The present thesis gathers several technical developments for the trigger system of the medium and large size telescopes of CTA. As the Cherenkov showers are so short, the digitization and readout systems corresponding to each pixel must work at very high frequencies (_ 1 GHz). This makes unfeasible to read data continuously, because the amount of data would be unmanageable. Instead, the analog signals are sampled, storing the analog samples in a temporal ring buffer able to store up to a few _s. While the signals remain in the buffer, the trigger system performs a fast analysis of the signals and decides if the image in the buffer corresponds to a Cherenkov shower and deserves to be stored, or on the contrary it can be ignored allowing the buffer to be overwritten. The decision of saving the image or not, is based on the fact that Cherenkov showers produce photon detections in close pixels during near times, in contrast to the random arrival of the NSB phtotons. Checking if more than a certain number of pixels in a trigger region have detected more than a certain number of photons during a certain time window is enough to detect large showers. However, taking also into account how many photons have been detected in each pixel (sumtrigger technique) is more convenient to optimize the sensitivity to low energy showers. The developed trigger system presented in this thesis intends to optimize the sensitivity to low energy showers, so it performs the analog addition of the signals received in each pixel in the trigger region and compares the sum with a threshold which can be directly expressed as a number of detected photons (photoelectrons). The trigger system allows to select trigger regions of 14, 21, or 28 pixels (2, 3 or 4 clusters with 7 pixels each), and with extensive overlapping. In this way, every light increment inside a compact region of 14, 21 or 28 pixels is detected, and a trigger pulse is generated. In the most basic version of the trigger system, this pulse is just distributed throughout the camera in such a way that all the clusters are read at the same time, independently from their position in the camera, by means of a complex distribution system. Thus, the readout saves a complete camera image whenever the number of photoelectrons set as threshold is exceeded in a trigger region. However, this way of operating has two important drawbacks. First, the shower usually covers only a little part of the camera, so many pixels without relevant information are stored. When there are many telescopes as will be the case of CTA, the amount of useless stored information can be very high. On the other hand, with every trigger only some nanoseconds of information around the trigger time are stored. In the case of large showers, the duration of the shower can be quite larger, loosing information due to the temporal cut. With the aim to solve both limitations, a trigger and readout scheme based on two thresholds has been proposed. The high threshold decides if there is a relevant event in the camera, and in the positive case, only the trigger regions exceeding the low threshold are read, during a longer time. In this way, the information from empty pixels is not stored and the fixed images of the showers become to little \`videos" containing the temporal development of the shower. This new scheme is named COLIBRI (Concept for an Optimized Local Image Building and Readout Infrastructure), and it has been described in depth in chapter 5. An important problem affecting sumtrigger schemes like the one presented in this thesis is that in order to add the signals from each pixel properly, they must arrive at the same time. The photomultipliers used in each pixel introduce different delays which must be compensated to perform the additions properly. The effect of these delays has been analyzed, and a delay compensation system has been developed. The next trigger level consists of looking for simultaneous (or very near in time) triggers in neighbour telescopes. These function, together with others relating to interfacing different systems, have been developed in a system named Trigger Interface Board (TIB). This system is comprised of one module which will be placed inside the LSTs and MSTs cameras, and which will be connected to the neighbour telescopes through optical fibers. When a telescope receives a local trigger, it is resent to all the connected neighbours and vice-versa, so every telescope knows if its neighbours have been triggered. Once compensated the delay differences due to propagation in the optical fibers and in the air depending on the pointing direction, the TIB looks for coincidences, and in the case that the trigger condition is accomplished, the camera is read a fixed time after the local trigger arrived. Despite all the trigger system is the result of the cooperation of several groups, specially IFAE, Ciemat, ICC-UB and UCM in Spain, with some help from french and japanese groups, the Level 1 and the Trigger Interface Board constitute the core of this thesis, as they have been the two systems designed by the author of the thesis. For this reason, a large amount of technical information about these systems has been included. There are important future development lines regarding both the camera trigger (implementation in ASICS) and the stereo trigger (topological trigger), which will produce interesting improvements for the current designs during the following years, being useful for all the scientific community participating in CTA.
Resumo:
La tecnología ha cambiado el mundo, pero las consecuencias de estos cambios en la sociedad no siempre se han pronosticado bien. Las Tecnologías de la Información transformaron el método de producción industrial. La nueva industria produce ideas y conceptos, no objetos. Este cambio ha dado como resultado una sociedad dualizada, ha desaparecido gran parte de la clase media y han aumentado las diferencias entre la clase alta y la baja. Las exigencias educativas de los nuevos puestos de trabajo innovadores son superiores a los de la industria tradicional, pero inferiores en los puestos de trabajo de producción. Además, el número de puestos de trabajo disponibles de este tipo es menor que en la industria tradicional, se necesita menos mano de obra, los procesos se pueden automatizar, las tareas mecánicas se aprenden en poco tiempo y son trabajos temporales, cuyo número dependerá de la demanda global. Para que el proceso de innovación funcione, las empresas se reúnen en las zonas financieras de grandes ciudades, como Nueva York o Londres, que fueron las primeras con acceso a las redes de telecomunicación. De esta manera se producen sinergias que contribuyen a mejorar el proceso innovador global. Estas ideas y conceptos que cambian el mundo necesitan de este entorno de producción, que no puede ser replicado, y son tan importantes que su acceso está restringido para la mayor parte del mundo por distintos mecanismos de control. El despliegue de las redes de telecomunicaciones inalámbricas ha sido enorme en los últimos años. El cliente busca llamar desde cualquier lugar y llevar un acceso a Internet en teléfono móvil. Para conseguirlo, las operadoras de telefonía móvil necesitan poner antenas de telefonía móvil en las ciudades, pero la instalación cerca de edificios no está siendo fácil. Pocos quieren tener una antena cerca por los problemas de salud de las personas que padecen los que ya viven o trabajan cerca de una. Los efectos del electromagnetismo en los seres humanos no están claros y provocan desconfianza hacia las antenas. La digitalización de los contenidos, que ha sido necesaria para transmitir contenido en Internet, permite que cualquier persona con un ordenador y una conexión a Internet pueda publicar un disco, una película o un libro. Pero esa persona también puede copiar los originales y enviarlos a cualquier lugar del mundo sin el permiso del autor. Con el fin de controlar la copia no autorizada, los derechos de autor se están usando para cambiar leyes e incluir sistemas de censura en Internet. Estos sistemas permiten a los autores eliminar el contenido ilegal, pero también pueden ser usados para censurar cualquier tipo de información. El control de la información es poder y usarlo de una manera o de otra afecta a todo el planeta. El problema no es la tecnología, que es solo una herramienta, es la forma que tienen los gobiernos y las grandes empresas de usarlo. Technology has changed the world, but the consequences of these changes in society have not always been well predicted. The Information Technology transformed the industrial production method. The new industry produces ideas and concepts, not objects. This change has resulted in a society dualized, most of the middle class has disappeared and the differences between high and low class have increased. The educational requirements of new innovative jobs are higher than the ones of the traditional industry, but lower in production jobs. Moreover, the number of available jobs of this type is lower than in the traditional industry, it takes less manpower, processes can be automated, mechanical tasks are learned in a short time and jobs are temporary, whose number depends on global demand. For the innovation process works, companies meet in the business districts of large cities, like New York or London, which were the first with access to telecommunications networks. This will produce synergies that improve the overall innovation process. These ideas and concepts that change the world need this production environment, which cannot be replicated, and are so important that their access is restricted to most of the world by different control mechanisms. The deploy of wireless telecommunications networks has been enormous in recent years. The client seeks to call from anywhere and to bring Internet access in his mobile phone. To achieve this, mobile operators need to put cell towers in cities, but the installation near buildings is not being easy. Just a few want to have an antenna closely because of the health problems suffered by people who already live or work near one. The effects of electromagnetism in humans are unclear and cause distrust of antennas. The digitization of content, which has been necessary to transmit Internet content, allows anyone with a computer and an Internet connection to be able to publish an album, a movie or a book. But that person can also copy the originals and send them anywhere in the world without the author's permission. In order to control the unauthorized copying, copyright is being used to change laws and include Internet censorship systems. These systems allow authors to eliminate illegal content, but may also be used to censor any information. The control of knowledge is power and using it in one way or another affects the whole planet. The problem is not technology, which is just a tool, but the way that governments and large corporations use it.
Resumo:
El planteamiento inicial era proveer al individuo invidente de un sistema autónomo capaz de guiarle según sus preferencias. El resultado obtenido al finalizar este proyecto ha sido un dispositivo autónomo configurable por el usuario mediante una aplicación sw , desarrollada en la plataforma móvil Android capaz de comunicarse con el dispositivo autónomo(móvil personal). La idea de utilizar como plataforma de desarrollo sw Android, se basó fundamentalmente en que es código open source, es gratuito y está presente en el 70 por ciento de los móviles de Europa. La idea inicial era que ambos hubieran sido integrados en un mismo dispositivo, pero una vez comenzado el proyecto y habiendo evaluado los hábitos actuales, decidimos adaptar la idea general del proyecto, a nuestros días. Para ello hicimos uso del dispositivo móvil más usado hoy en día, como es nuestros teléfonos móviles, o más bien los llamado Smartphone, con los cuales podemos desde su aplicación originaria que es llamar, hasta realizar multitud de operaciones al mismo tiempo como puede ser comunicación por internet, posicionamiento via GPS, intercambio de ficheros por bluetooth… tantas como podamos programar. Sobre este último atributo, intercambio de información a través de bluetooth, es la interfaz que vamos a aprovechar para la realización de nuestro proyecto. Hoy en día el 90% de los Smartphone tiene entre sus características de conectividad la posibilidad de intercambiar información vía bluetooth. Una vez se tiene resuelto el interfaz entre el medio y el usuario se debe solucionar la forma de transformar la información para que los dispositivos móviles recojan la información y sepan discernir entre la información importante y la que no lo es. Para ello hemos desarrollado una tarjeta configurable, con un módulo bluetooth comercial para enviar la información. El resultado final de esta tarjeta proporciona una manera fácil de configurar diferentes mensajes que serán utilizados según la situación. ABSTRACT The initial approach consisted of a system that shows the way for blind people to get somewhere or something or provide to them important information, an autonomous system able to guide to their preference. After several analyses the project accomplish is a standalone device configurable by the user via an application sw, developed in Android mobile platform capable of communicating with the standalone device (personal cell phone). The decision of using the sw development platform of Android was due to the open source code concept and the great extent of presence on 70 percent of European mobiles. The first idea was that the sw and the device were integrated into a single device, but once the project had been started and having assessed the current habits, it has changed to be adapted to the present technology to get a better usability on the present-day. To achieve the project goals the most used mobile device today was used, our mobile phones, or rather called Smartphone, which you could use to phone your mother or perform many operations simultaneously such as communication online, positioning via GPS, bluetooth file trading program, etc. On this last attribute, information sharing via bluetooth, is the interface that it has been taken to complete the project. Today 90% of the Smartphone include in its connectivity features the ability to exchange information via bluetooth. Once that it was solved the interface between the environment and the final user, the next step incorporates the transformation of the information that the mobile devices collect from the environment to discern between the information the user configure to be notified or not. The hardware device that makes it possible is a configurable card with a bluetooth module that is able to send the information. The final result of this card provides an easy way to configure different messages, that we could use depending of the situation.
Resumo:
This paper presents the theoretical analysis of a storage integrated solar thermophotovoltaic (SISTPV) system operating in steady state. These systems combine thermophotovoltaic (TPV) technology and high temperature thermal storage phase-change materials (PCM) in the same unit, providing a great potential in terms of efficiency, cost reduction and storage energy density. The main attraction in the proposed system is its simplicity and modularity compared to conventional Concentrated Solar Power (CSP) technologies. This is mainly due to the absence of moving parts. In this paper we analyze the use of Silicon as the phase change material (PCM). Silicon is an excellent candidate because of its high melting point (1680 K) and its very high latent heat of fusion of 1800 kJ/kg, which is about ten times greater than the conventional PCMs like molten salts. For a simple system configuration, we have demonstrated that overall conversion efficiencies up to ?35% are approachable. Although higher efficiencies are expected by incorporating more advanced devices like multijunction TPV cells, narrow band selective emitters or adopting near-field TPV configurations as well as by enhancing the convective/conductive heat transfer within the PCM. In this paper, we also discuss about the optimum system configurations and provide the general guidelines for designing these systems. Preliminary estimates of night time operations indicate it is possible to achieve over 10 h of operation with a relatively small quantity of Silicon.
Resumo:
El mundo actual es una fuente ilimitada de información. El manejo y análisis de estas enormes cantidades de información es casi imposible, pero también es difícil poder capturar y relacionar diferentes tipos de datos entre sí y, a partir de este análisis, sacar conclusiones que puedan conllevar a la realización, o no, de un conjunto de acciones. Esto hace necesario la implementación de sistemas que faciliten el acceso, visualización y manejo de estos datos; con el objetivo de poder relacionarlos, analizarlos, y permitir al usuario que, de la manera más sencilla posible, pueda sacar conclusiones de estos. De esta necesidad de manejar, visualizar y relacionar datos nació la plataforma Wirecloud. Wirecloud ha sido desarrollado en el laboratorio Computer Networks & Web Technologies Lab (CoNWeT Lab) del grupo CETTICO, ubicado en la Escuela Técnica Superior de Ingenieros Informáticos de la Universidad Politécnica de Madrid. Wirecloud es una plataforma de código abierto que permite, utilizando las últimas tecnologías web, recoger la información que se quiere analizar de diferentes fuentes en tiempo real e, interconectando entre sí una serie de componentes y operadores, realizar una mezcla y procesado de esta información para después usarla y mostrarla de la manera más usable posible al usuario. Un ejemplo de uso real de la plataforma podría ser: utilizar la lista de repartidores de una empresa de envío urgente para conocer cuáles son sus posiciones en tiempo real sobre un mapa utilizando el posicionamiento GPS de sus dispositivos móviles, y poder asignarles el destino y la ruta más óptima; todo esto desde la misma pantalla. El proyecto Wirecloud Mobile corresponde a la versión móvil de la plataforma Wirecloud, cuyo objetivos principales pretenden compatibilizar Wirecloud con el mayor número de sistemas operativos móviles que actualmente hay en el mercado, permitiendo su uso en cualquier parte del mundo; y poder enriquecer los componentes mencionados en el párrafo anterior con las características y propiedades nativas de los dispositivos móviles actuales, como por ejemplo el posicionamiento GPS, el acelerómetro, la cámara, el micrófono, los altavoces o tecnologías de comunicación como el Bluetooth o el NFC.---ABSTRACT---The current world is a limitless source of information. Use and analysis of this huge amount of information is nearly impossible; but it is also difficult being able to capture and relate different kinds of data to each other and, from this analysis, draw conclusions that can lead to the fulfilment or not of a set of relevant actions. This requires the implementation of systems to facilitate the access, visualization and management of this data easier; with the purpose of being capable of relate, analyse, and allow the user to draw conclusions from them. And out of this need to manage, visualize and relate data, the Wirecloud platform was born. Wirecloud has been developed at the Computer Networks & Web Technologies Lab (CoNWeT Lab) of CETTICO group, located at Escuela Técnica Superior de Ingenieros Informáticos of Universidad Politécnica de Madrid. Wirecloud is an open-source platform that allows, using the latest web technologies, to collect the information from different sources in real time and interlinking a set of widgets and operators, make a mixture and processing of this information, so then use it and show it in the most usable way. An example of the actual use of the platform could be: using the list of deliverymen from an express delivery company in order to know, using GPS positioning from their mobile devices, which are their current locations in a map; and be able to assign them the destination and optimum route; all of this from the same display/screen. Wirecloud Mobile Project is the mobile version of the Wirecloud platform, whose main objectives aim to make Wirecloud compatible with the largest amount of mobile operative systems that are currently available, allowing its use everywhere; and enriching and improving the previously mentioned components with the native specifications and properties of the present mobile devices, such as GPS positioning, accelerometer, camera, microphone, built-in speakers, or communication technologies such as Bluetooth or NFC (Near Field Communications).
Resumo:
El objetivo de esta tesis doctoral es averiguar si el anuncio por parte del accionista significativo de ejercitar su derecho de suscripción preferente elimina o reduce la asimetría de información en las ampliaciones de capital con derecho de suscripción preferente en el Mercado de Valores español. Durante los 17 años analizados, encontramos que ni el anuncio de la ampliación de capital ni el tipo de aseguramiento acordado en cada ampliación tienen un impacto estadísticamente significativo en el Exceso de Rentabilidad Ajustada por Riesgo. Principalmente, el análisis realizado utiliza la información requerida por la Comisión Nacional del Mercado de Valores (CNMV) que deben aportar los accionistas significativos en el Folleto de emisión publicado con carácter previo a la ampliación. Esta investigación desglosa las ofertas en un Grupo 1, el cual incluye aquéllas en las que los accionistas significativos anuncian su intención de ejercitar su derecho en las emisiones, y el Grupo 2, que incluye aquéllas en donde no acuden o simplemente no existía información al respecto ya que no es una información obligatoria a incluir en el Folleto. Para cada ampliación de capital y para tres periodos de tiempo distintos se obtiene el Exceso de Rentabilidad Ajustada por Riesgo (ERAR) como la diferencia entre la Tasa Interna de Retorno y el Retorno Esperado, utilizando el modelo CAPM. De este modo, se trata de aislar el efecto temporal. La principal contribución de esta tesis doctoral es el hallazgo de una rentabilidad negativa estadísticamente significativa cuando el accionista significativo anuncia su intención de no suscribir la ampliación, o no existe información suficiente sobre su intención a este respecto. Adicionalmente, el análisis que se ha llevado a cabo en este estudio muestra un refuerzo estadísticamente significativo de este efecto negativo en la rentabilidad cuando existe simultáneamente una falta de compromiso por parte del accionista significativo y la ampliación no está asegurada. ABSTRACT The aim of this doctoral dissertation is to find out whether or not consideration of significant shareholders announcement of intention to exercise subscription rights makes a difference in eliminating or reducing the effects of asymmetrical information in equity offerings with pre-emptive rights on the Spanish Stock Market. For the 17 years of equity issues covered, we find that neither equity issue announcements nor the type of underwriting arrangements has a statistically significant impact on the issues’ Excess Risk Adjusted Return. The analysis uses the information required by CNMV (Spanish equivalent to SEC) to be provided by the significant shareholders in the equity issue’s prospectus. The doctoral dissertation breaks the offerings down into Group 1, in which the significant shareholders indicated their intention to subscribe, and Group 2, for which there was not enough information provided as to their intentions. For each equity issue, Excess Risk Adjusted Return (ERAR) is obtained, for three different periods, as is the difference between nominal Internal Rate of Return and expected return, using the CAPM. By subtracting the expected return from the IRR, the effect of time or any other variable influencing the stock price during the period, aside from the equity issue, should, in principle, be removed. The main contribution of this study is the finding of a statistically significant negative impact on returns either when the significant shareholders indicate their intention not to subscribe, or when not enough information is provided about their intention. We also find a statistically significant reinforcing negative effect on returns in the case of simultaneous lack of commitment on the part of significant shareholders, and non-underwritten equity issues.
Resumo:
This doctoral thesis explores some of the possibilities that near-field optics can bring to photovoltaics, and in particular to quantum-dot intermediate band solar cells (QD-IBSCs). Our main focus is the analytical optimization of the electric field distribution produced in the vicinity of single scattering particles, in order to produce the highest possible absorption enhancement in the photovoltaic medium in their surroundings. Near-field scattering structures have also been fabricated in laboratory, allowing the application of the previously studied theoretical concepts to real devices. We start by looking into the electrostatic scattering regime, which is only applicable to sub-wavelength sized particles. In this regime it was found that metallic nano-spheroids can produce absorption enhancements of about two orders of magnitude on the material in their vicinity, due to their strong plasmonic resonance. The frequency of such resonance can be tuned with the shape of the particles, allowing us to match it with the optimal transition energies of the intermediate band material. Since these metallic nanoparticles (MNPs) are to be inserted inside the cell photovoltaic medium, they should be coated by a thin insulating layer to prevent electron-hole recombination at their surface. This analysis is then generalized, using an analytical separation-of-variables method implemented in Mathematica7.0, to compute scattering by spheroids of any size and material. This code allowed the study of the scattering properties of wavelengthsized particles (mesoscopic regime), and it was verified that in this regime dielectric spheroids perform better than metallic. The light intensity scattered from such dielectric spheroids can have more than two orders of magnitude than the incident intensity, and the focal region in front of the particle can be shaped in several ways by changing the particle geometry and/or material. Experimental work was also performed in this PhD to implement in practice the concepts studied in the analysis of sub-wavelength MNPs. A wet-coating method was developed to self-assemble regular arrays of colloidal MNPs on the surface of several materials, such as silicon wafers, amorphous silicon films, gallium arsenide and glass. A series of thermal and chemical tests have been performed showing what treatments the nanoparticles can withstand for their embedment in a photovoltaic medium. MNPs arrays are then inserted in an amorphous silicon medium to study the effect of their plasmonic near-field enhancement on the absorption spectrum of the material. The self-assembled arrays of MNPs constructed in these experiments inspired a new strategy for fabricating IBSCs using colloidal quantum dots (CQDs). Such CQDs can be deposited in self-assembled monolayers, using procedures similar to those developed for the patterning of colloidal MNPs. The use of CQDs to form the intermediate band presents several important practical and physical advantages relative to the conventional dots epitaxially grown by the Stranski-Krastanov method. Besides, this provides a fast and inexpensive method for patterning binary arrays of QDs and MNPs, envisioned in the theoretical part of this thesis, in which the MNPs act as antennas focusing the light in the QDs and therefore boosting their absorption
Resumo:
This paper describes two methods to cancel the effect of two kinds of leakage signals which may be presented when an antenna is measured in a planar near-field range. One method tries to reduce leakage bias errors from the receiver¿s quadrature detector and it is based on estimating the bias constant added to every near-field data sample. Then, that constant is subtracted from the data, removing its undesired effect on the far-field pattern. The estimation is performed by back-propagating the field from the scan plane to the antenna under test plane (AUT) and averaging all the data located outside the AUT aperture. The second method is able to cancel the effect of the leakage from faulty transmission lines, connectors or rotary joints. The basis of this method is also a reconstruction process to determine the field distribution on the AUT plane. Once this distribution is known, a spatial filtering is applied to cancel the contribution due to those faulty elements. After that, a near-field-to-far-field transformation is applied, obtaining a new radiation pattern where the leakage effects have disappeared. To verify the effectiveness of both methods, several examples are presented.
Resumo:
The development of high efficiency laser diodes (LD) and light emitting diodes (LED) covering the 1.0 to 1.55 μm region of the spectra using GaAs heteroepitaxy has been long pursued. Due to the lack of materials that can be grown lattice-macthed to GaAs with bandgaps in the 1.0 to 1.55 μm region, quantum wells (QW) or quantum dots (QD) need be used. The most successful approach with QWs has been to use InGaAs, but one needs to add another element, such as N, to be able to reach 1.3/1.5μm. Even though LDs have been successfully demonstrated with the QW approach, using N leads to problems with compositional homogeneity across the wafer, and limited efficiency due to strong non-radiative recombination. The alternative approach of using InAs QDs is an attractive option, but once again, to reach the longest wavelengths one needs very large QDs and control over the size distribution and band alignment. In this work we demonstrate InAs/GaAsSb QDLEDs with high efficiencies, emitting from 1.1 to 1.52 μm, and we analyze the band alignment and carrier loss mechanisms that result from the presence of Sb in the capping layer.
Resumo:
El proyecto, “Aplicaciones de filtrado adaptativo LMS para mejorar la respuesta de acelerómetros”, se realizó con el objetivo de eliminar señales no deseadas de la señal de información procedentes de los acelerómetros para aplicaciones automovilísticas, mediante los algoritmos de los filtros adaptativos LMS. Dicho proyecto, está comprendido en tres áreas para su realización y ejecución, los cuales fueron ejecutados desde el inicio hasta el último día de trabajo. En la primera área de aplicación, diseñamos filtros paso bajo, paso alto, paso banda y paso banda eliminada, en lo que son los filtros de butterworth, filtros Chebyshev, de tipo uno como de tipo dos y filtros elípticos. Con esta primera parte, lo que se quiere es conocer, o en nuestro caso, recordar el entorno de Matlab, en sus distintas ecuaciones prediseñadas que nos ofrece el mencionado entorno, como también nos permite conocer un poco las características de estos filtros. Para posteriormente probar dichos filtros en el DSP. En la segunda etapa, y tras recordar un poco el entorno de Matlab, nos centramos en la elaboración y/o diseño de nuestro filtro adaptativo LMS; experimentado primero con Matlab, para como ya se dijo, entender y comprender el comportamiento del mismo. Cuando ya teníamos claro esta parte, procedimos a “cargar” el código en el DSP, compilarlo y depurarlo, realizando estas últimas acciones gracias al Visual DSP. Resaltaremos que durante esta segunda etapa se empezó a excitar las entradas del sistema, con señales provenientes del Cool Edit Pro, y además para saber cómo se comportaba el filtro adaptativo LMS, se utilizó señales provenientes de un generador de funciones, para obtener de esta manera un desfase entre las dos señales de entrada; aunque también se utilizó el propio Cool Edit Pro para obtener señales desfasadas, pero debido que la fase tres no podíamos usar el mencionado software, realizamos pruebas con el generador de funciones. Finalmente, en la tercera etapa, y tras comprobar el funcionamiento deseado de nuestro filtro adaptativo DSP con señales de entrada simuladas, pasamos a un laboratorio, en donde se utilizó señales provenientes del acelerómetro 4000A, y por supuesto, del generador de funciones; el cual sirvió para la formación de nuestra señal de referencia, que permitirá la eliminación de una de las frecuencias que se emitirá del acelerómetro. Por último, cabe resaltar que pudimos obtener un comportamiento del filtro adaptativo LMS adecuado, y como se esperaba. Realizamos pruebas, con señales de entrada desfasadas, y obtuvimos curiosas respuestas a la salida del sistema, como son que la frecuencia a eliminar, mientras más desfasado estén estas señales, mas se notaba. Solucionando este punto al aumentar el orden del filtro. Finalmente podemos concluir que pese a que los filtros digitales probados en la primera etapa son útiles, para tener una respuesta lo más ideal posible hay que tener en cuenta el orden del filtro, el cual debe ser muy alto para que las frecuencias próximas a la frecuencia de corte, no se atenúen. En cambio, en los filtros adaptativos LMS, si queremos por ejemplo, eliminar una señal de entre tres señales, sólo basta con introducir la frecuencia a eliminar, por una de las entradas del filtro, en concreto la señal de referencia. De esta manera, podemos eliminar una señal de entre estas tres, de manera que las otras dos, no se vean afectadas por el procedimiento. Abstract The project, "LMS adaptive filtering applications to improve the response of accelerometers" was conducted in order to remove unwanted signals from the information signal from the accelerometers for automotive applications using algorithms LMS adaptive filters. The project is comprised of three areas for implementation and execution, which were executed from the beginning until the last day. In the first area of application, we design low pass filters, high pass, band pass and band-stop, as the filters are Butterworth, Chebyshev filters, type one and type two and elliptic filters. In this first part, what we want is to know, or in our case, remember the Matlab environment, art in its various equations offered by the mentioned environment, as well as allows us to understand some of the characteristics of these filters. To further test these filters in the DSP. In the second stage, and recalling some Matlab environment, we focus on the development and design of our LMS adaptive filter; experimented first with Matlab, for as noted above, understand the behavior of the same. When it was clear this part, proceeded to "load" the code in the DSP, compile and debug, making these latest actions by the Visual DSP. Will highlight that during this second stage began to excite the system inputs, with signals from the Cool Edit Pro, and also for how he behaved the LMS adaptive filter was used signals from a function generator, to thereby obtain a gap between the two input signals, but also used Cool Edit Pro himself for phase signals, but due to phase three could not use such software, we test the function generator. Finally, in the third stage, and after checking the desired performance of our DSP adaptive filter with simulated input signals, we went to a laboratory, where we used signals from the accelerometer 4000A, and of course, the function generator, which was used for the formation of our reference signal, enabling the elimination of one of the frequencies to be emitted from the accelerometer. Note that they were able to obtain a behavior of the LMS adaptive filter suitable as expected. We test with outdated input signals, and got curious response to the output of the system, such as the frequency to remove, the more outdated are these signs, but noticeable. Solving this point with increasing the filter order. We can conclude that although proven digital filters in the first stage are useful, to have a perfect answer as possible must be taken into account the order of the filter, which should be very high for frequencies near the frequency cutting, not weakened. In contrast, in the LMS adaptive filters if we for example, remove a signal from among three signals, only enough to eliminate the frequency input on one of the inputs of the filter, namely the reference signal. Thus, we can remove a signal between these three, so that the other two, not affected by the procedure.
Resumo:
La diabetes mellitus es una enfermedad que se caracteriza por la nula o insuficiente producción de insulina, o la resistencia del organismo a la misma. La insulina es una hormona que ayuda a que la glucosa (por ejemplo la obtenida a partir de los alimentos ingeridos) llegue a los tejidos periféricos y al sistema nervioso para suministrar energía. Hoy en día la tecnología actual permite abordar el desarrollo del llamado “páncreas endocrino artificial”, que consta de un sensor continuo de glucosa subcutánea, una bomba de infusión subcutánea de insulina y un algoritmo de control en lazo cerrado que calcule la dosis de insulina requerida por el paciente en cada momento, según la medida de glucosa obtenida por el sensor y según unos objetivos. El mayor problema que presentan los sistemas de control en lazo cerrado son los retardos, el sensor de glucosa subcutánea mide la glucosa del líquido intersticial, que representa la que hubo en la sangre un tiempo atrás, por tanto, un cambio en los niveles de glucosa en la sangre, debidos por ejemplo, a una ingesta, tardaría un tiempo en ser detectado por el sensor. Además, una dosis de insulina suministrada al paciente, tarda un tiempo aproximado de 20-30 minutos para la llegar a la sangre. Para evitar trabajar en la medida que sea posible con estos retardos, se intenta predecir cuál será el nivel de glucosa en un futuro próximo, para ello se utilizara un predictor de glucosa subcutánea, con la información disponible de glucosa e insulina. El objetivo del proyecto es diseñar una metodología para estimar el valor futuro de los niveles de glucosa obtenida a partir de un sensor subcutáneo, basada en la identificación recursiva del sistema glucorregulatorio a través de modelos lineales y determinando un horizonte de predicción óptimo de trabajo y analizando la influencia de la insulina en los resultados de la predicción. Se ha implementado un predictor paramétrico basado en un modelo autorregresivo ARX que predice con mejor precisión y con menor RMSE que un predictor ZOH a un horizonte de predicción de treinta minutos. Utilizar información relativa a la insulina no tiene efecto en la predicción. El preprocesado, postprocesado y el tratamiento de la estabilidad tienen un efecto muy beneficioso en la predicción. Diabetes mellitusis a group of metabolic diseases in which a person has high blood sugar, either because the body does not produce enough insulin, or because cells do not respond to the insulin produced. The insulin is a hormone that helps the glucose to reach to outlying tissues and the nervous system to supply energy. Nowadays, the actual technology allows raising the development of the “artificial endocrine pancreas”. It involves a continuous glucose sensor, an insulin bump, and a full closed loop algorithm that calculate the insulin units required by patient at any time, according to the glucose measure obtained by the sensor and any target. The main problem of the full closed loop systems is the delays, the glucose sensor measures the glucose in the interstitial fluid that represents the glucose was in the blood some time ago. Because of this, a change in the glucose in blood would take some time to be detected by the sensor. In addition, insulin units administered by a patient take about 20-30 minutes to reach the blood stream. In order to avoid this effect, it will try to predict the glucose level in the near future. To do that, a subcutaneous glucose predictor is used to predict the future glucose with the information about insulin and glucose. The goal of the proyect is to design a method in order to estimate the future valor of glucose obtained by a subcutaneous sensor. It is based on the recursive identification of the regulatory system through the linear models, determining optimal prediction horizon and analyzing the influence of insuline on the prediction results. A parametric predictor based in ARX autoregressive model predicts with better precision and with lesser RMSE than ZOH predictor in a thirty minutes prediction horizon. Using the relative insulin information has no effect in the prediction. The preprocessing, the postprocessing and the stability treatment have many advantages in the prediction.
Resumo:
Global data-flow analysis of (constraint) logic programs, which is generally based on abstract interpretation [7], is reaching a comparatively high level of maturity. A natural question is whether it is time for its routine incorporation in standard compilers, something which, beyond a few experimental systems, has not happened to date. Such incorporation arguably makes good sense only if: • the range of applications of global analysis is large enough to justify the additional complication in the compiler, and • global analysis technology can deal with all the features of "practical" languages (e.g., the ISO-Prolog built-ins) and "scales up" for large programs. We present a tutorial overview of a number of concepts and techniques directly related to the issues above, with special emphasis on the first one. In particular, we concéntrate on novel uses of global analysis during program development and debugging, rather than on the more traditional application área of program optimization. The idea of using abstract interpretation for validation and diagnosis has been studied in the context of imperative programming [2] and also of logic programming. The latter work includes issues such as using approximations to reduce the burden posed on programmers by declarative debuggers [6, 3] and automatically generating and checking assertions [4, 5] (which includes the more traditional type checking of strongly typed languages, such as Gódel or Mercury [1, 8, 9]) We also review some solutions for scalability including modular analysis, incremental analysis, and widening. Finally, we discuss solutions for dealing with meta-predicates, side-effects, delay declarations, constraints, dynamic predicates, and other such features which may appear in practical languages. In the discussion we will draw both from the literature and from our experience and that of others in the development and use of the CIAO system analyzer. In order to emphasize the practical aspects of the solutions discussed, the presentation of several concepts will be illustrated by examples run on the CIAO system, which makes extensive use of global analysis and assertions.
Resumo:
One important task in the design of an antenna is to carry out an analysis to find out the characteristics of the antenna that best fulfills the specifications fixed by the application. After that, a prototype is manufactured and the next stage in design process is to check if the radiation pattern differs from the designed one. Besides the radiation pattern, other radiation parameters like directivity, gain, impedance, beamwidth, efficiency, polarization, etc. must be also evaluated. For this purpose, accurate antenna measurement techniques are needed in order to know exactly the actual electromagnetic behavior of the antenna under test. Due to this fact, most of the measurements are performed in anechoic chambers, which are closed areas, normally shielded, covered by electromagnetic absorbing material, that simulate free space propagation conditions, due to the absorption of the radiation absorbing material. Moreover, these facilities can be employed independently of the weather conditions and allow measurements free from interferences. Despite all the advantages of the anechoic chambers, the results obtained both from far-field measurements and near-field measurements are inevitably affected by errors. Thus, the main objective of this Thesis is to propose algorithms to improve the quality of the results obtained in antenna measurements by using post-processing techniques and without requiring additional measurements. First, a deep revision work of the state of the art has been made in order to give a general vision of the possibilities to characterize or to reduce the effects of errors in antenna measurements. Later, new methods to reduce the unwanted effects of four of the most commons errors in antenna measurements are described and theoretical and numerically validated. The basis of all them is the same, to perform a transformation from the measurement surface to another domain where there is enough information to easily remove the contribution of the errors. The four errors analyzed are noise, reflections, truncation errors and leakage and the tools used to suppress them are mainly source reconstruction techniques, spatial and modal filtering and iterative algorithms to extrapolate functions. Therefore, the main idea of all the methods is to modify the classical near-field-to-far-field transformations by including additional steps with which errors can be greatly suppressed. Moreover, the proposed methods are not computationally complex and, because they are applied in post-processing, additional measurements are not required. The noise is the most widely studied error in this Thesis, proposing a total of three alternatives to filter out an important noise contribution before obtaining the far-field pattern. The first one is based on a modal filtering. The second alternative uses a source reconstruction technique to obtain the extreme near-field where it is possible to apply a spatial filtering. The last one is to back-propagate the measured field to a surface with the same geometry than the measurement surface but closer to the AUT and then to apply also a spatial filtering. All the alternatives are analyzed in the three most common near-field systems, including comprehensive noise statistical analyses in order to deduce the signal-to-noise ratio improvement achieved in each case. The method to suppress reflections in antenna measurements is also based on a source reconstruction technique and the main idea is to reconstruct the field over a surface larger than the antenna aperture in order to be able to identify and later suppress the virtual sources related to the reflective waves. The truncation error presents in the results obtained from planar, cylindrical and partial spherical near-field measurements is the third error analyzed in this Thesis. The method to reduce this error is based on an iterative algorithm to extrapolate the reliable region of the far-field pattern from the knowledge of the field distribution on the AUT plane. The proper termination point of this iterative algorithm as well as other critical aspects of the method are also studied. The last part of this work is dedicated to the detection and suppression of the two most common leakage sources in antenna measurements. A first method tries to estimate the leakage bias constant added by the receiver’s quadrature detector to every near-field data and then suppress its effect on the far-field pattern. The second method can be divided into two parts; the first one to find the position of the faulty component that radiates or receives unwanted radiation, making easier its identification within the measurement environment and its later substitution; and the second part of this method is able to computationally remove the leakage effect without requiring the substitution of the faulty component. Resumen Una tarea importante en el diseño de una antena es llevar a cabo un análisis para averiguar las características de la antena que mejor cumple las especificaciones fijadas por la aplicación. Después de esto, se fabrica un prototipo de la antena y el siguiente paso en el proceso de diseño es comprobar si el patrón de radiación difiere del diseñado. Además del patrón de radiación, otros parámetros de radiación como la directividad, la ganancia, impedancia, ancho de haz, eficiencia, polarización, etc. deben ser también evaluados. Para lograr este propósito, se necesitan técnicas de medida de antenas muy precisas con el fin de saber exactamente el comportamiento electromagnético real de la antena bajo prueba. Debido a esto, la mayoría de las medidas se realizan en cámaras anecoicas, que son áreas cerradas, normalmente revestidas, cubiertas con material absorbente electromagnético. Además, estas instalaciones se pueden emplear independientemente de las condiciones climatológicas y permiten realizar medidas libres de interferencias. A pesar de todas las ventajas de las cámaras anecoicas, los resultados obtenidos tanto en medidas en campo lejano como en medidas en campo próximo están inevitablemente afectados por errores. Así, el principal objetivo de esta Tesis es proponer algoritmos para mejorar la calidad de los resultados obtenidos en medida de antenas mediante el uso de técnicas de post-procesado. Primeramente, se ha realizado un profundo trabajo de revisión del estado del arte con el fin de dar una visión general de las posibilidades para caracterizar o reducir los efectos de errores en medida de antenas. Después, se han descrito y validado tanto teórica como numéricamente nuevos métodos para reducir el efecto indeseado de cuatro de los errores más comunes en medida de antenas. La base de todos ellos es la misma, realizar una transformación de la superficie de medida a otro dominio donde hay suficiente información para eliminar fácilmente la contribución de los errores. Los cuatro errores analizados son ruido, reflexiones, errores de truncamiento y leakage y las herramientas usadas para suprimirlos son principalmente técnicas de reconstrucción de fuentes, filtrado espacial y modal y algoritmos iterativos para extrapolar funciones. Por lo tanto, la principal idea de todos los métodos es modificar las transformaciones clásicas de campo cercano a campo lejano incluyendo pasos adicionales con los que los errores pueden ser enormemente suprimidos. Además, los métodos propuestos no son computacionalmente complejos y dado que se aplican en post-procesado, no se necesitan medidas adicionales. El ruido es el error más ampliamente estudiado en esta Tesis, proponiéndose un total de tres alternativas para filtrar una importante contribución de ruido antes de obtener el patrón de campo lejano. La primera está basada en un filtrado modal. La segunda alternativa usa una técnica de reconstrucción de fuentes para obtener el campo sobre el plano de la antena donde es posible aplicar un filtrado espacial. La última es propagar el campo medido a una superficie con la misma geometría que la superficie de medida pero más próxima a la antena y luego aplicar también un filtrado espacial. Todas las alternativas han sido analizadas en los sistemas de campo próximos más comunes, incluyendo detallados análisis estadísticos del ruido con el fin de deducir la mejora de la relación señal a ruido lograda en cada caso. El método para suprimir reflexiones en medida de antenas está también basado en una técnica de reconstrucción de fuentes y la principal idea es reconstruir el campo sobre una superficie mayor que la apertura de la antena con el fin de ser capaces de identificar y después suprimir fuentes virtuales relacionadas con las ondas reflejadas. El error de truncamiento que aparece en los resultados obtenidos a partir de medidas en un plano, cilindro o en la porción de una esfera es el tercer error analizado en esta Tesis. El método para reducir este error está basado en un algoritmo iterativo para extrapolar la región fiable del patrón de campo lejano a partir de información de la distribución del campo sobre el plano de la antena. Además, se ha estudiado el punto apropiado de terminación de este algoritmo iterativo así como otros aspectos críticos del método. La última parte de este trabajo está dedicado a la detección y supresión de dos de las fuentes de leakage más comunes en medida de antenas. El primer método intenta realizar una estimación de la constante de fuga del leakage añadido por el detector en cuadratura del receptor a todos los datos en campo próximo y después suprimir su efecto en el patrón de campo lejano. El segundo método se puede dividir en dos partes; la primera de ellas para encontrar la posición de elementos defectuosos que radian o reciben radiación indeseada, haciendo más fácil su identificación dentro del entorno de medida y su posterior substitución. La segunda parte del método es capaz de eliminar computacionalmente el efector del leakage sin necesidad de la substitución del elemento defectuoso.
Resumo:
El injerto en hortalizas es uno de los temas de más actualidad en el panorama hortícola, no solo español, sino occidental, y recalcamos occidental, pues en muchos países que no corresponden a ese ámbito, sobre todo asiáticos: Japón, Corea, China, Filipinas, etc., esta es una técnica que cuenta con una gran difusión desde hace décadas, siendo, por ejemplo en Japón, la mayoría de sus cultivos de cucurbitáceas y solanáceas realizados con planta injertada. A finales de los noventa quedó claro que el empleo de bromuro de metilo tenía una fecha de caducidad y que las zonas que tenían una fuerte dependencia de este desinfectante de suelo debían de buscar alternativas a un plazo lo más corto posible, con un punto añadido sobre etapas anteriores, debían ser alternativas lo más respetuosas posible con el medio ambiente y que no incrementaran, de forma importante, los costes de producción. En la zona centro y concretamente en los invernaderos de la Comunidad de Madrid y zonas cercanas de Toledo y Guadalajara el pepino era y es el cultivo predominante, los horticultores empleaban el bromuro de metilo de forma sistemática para desinfectar sus suelos y la desaparición de este producto les planteaba una gran incertidumbre, lo que llevó a que desde diferentes instancias se buscaran diferentes alternativas. Tras analizar las posibilidades que se podían implementar y conocido el buen resultado que había dado el injerto en sandía en Almería, se decidió acometer los trabajos que conforman esta Tesis Doctoral, planteando en la zona, diferentes ensayos con la idea de conocer, si el injerto en pepino, con los cultivares empleados habitualmente, podía ser una alternativa real para los horticultores, tanto de Madrid, como los de las zonas cercanas de Toledo y Guadalajara. Se pretendía conocer sobre todo las repercusiones agronómicas y si esta técnica podría emplearse en solitario o era necesario complementarla con otras alternativas: desinfectantes químicos, solarización, biofumigación e incluso desinfección con vapor de agua. Los ensayos fueron realizados de forma secuencial entre el año 1999 y el 2011, comprobándose en primer lugar que el empleo de portainjertos híbridos de calabaza era posible con los cultivares de pepino corto tipo español, mayoritariamente empleados en los últimos años del siglo XX y primeros del XXI, fundamentalmente: Serena. Tras los primeros ensayos, Shintoza parecía el portainjerto híbrido de calabaza (Cucurbita maxima x C. moschata) con mejores perspectivas de empleo, pues presentaba la ventaja adicional de ser bien conocido por los semilleros que producen planta injertada al ser, en esos momentos, el portainjerto más empleado en sandía, lo que garantizaba por su lado, su empleo en pepino, y que los horticultores pudiesen disponer de planta injertada. Más adelante los trabajos se encaminaron hacia la determinación de la densidad y tipo de poda más adecuado para la planta injertada, realizándose múltiples ensayos en esta dirección, que culminaron con la conclusión de que el extravigor que los portainjertos conferían a las plantas permitía conducir estas a dos o más brazos (se suelen emplear dos, por mejor adaptación a los trabajos de manejo de la planta por parte de los agricultores), con lo que se podría disminuir la densidad de planta y por tanto ahorrar en este capítulo, cosa que preocupaba y preocupa a los agricultores. Se llegó a determinar que es posible reducir la densidad de plantación en alrededor de un 25%, estando la densidad de brazos más adecuada entre 3 y 3.5 br•m-2. Tras las primeras decisiones tomadas sobre el portainjerto y la densidad más adecuada, se continuó con el estudio de adaptación de estas propuestas a los nuevos cultivares que las empresas de semillas iban proponiendo y los agricultores adoptando. Estas acciones se complementaron con la introducción de nuevos portainjertos susceptibles de sustituir a Shintoza o rotar con él para cambiar de sistema radicular, lo que es conveniente cuando se emplean, como es el caso, portainjertos que no son resistentes a nematodos, principalmente de la especie Meloidogyne incognita, el mayor problema en la zona, debido al suelo. Cultivares como Trópico, en un primer momento, y Urano y Motril más recientemente, se adaptaron muy bien a esta técnica. Entre los portainjertos que mostraron buena adaptación a la técnica de injerto y suficientemente buena compatibilidad con la mayoría de los cultivares ensayados destacan: RS-841, Strongtosa y Camel. Azman también mostró un comportamiento relevante, pero este portainjerto no podrá ser empleado, al ser recientemente retirado del mercado por la empresa que lo obtuvo y comercializó Aunque no era el objetivo principal de esta Tesis Doctoral, se ha comprobado que puede ser interesante combinar el empleo del injerto con otras técnicas alternativas al bromuro de metilo para superar los problemas debidos a enfermedades del suelo o nematodos, pero debe seguirse trabajando pues este es un tema en continua evolución, tanto si se trata de desinfectantes, a la mayoría de los cuales les está siendo retirado el permiso para su comercialización, como de otros métodos como la biofumigación o el empleo de vapor de agua. Queda muy claro que el injerto puede considerarse entre los métodos respetuosos con el medio ambiente, si no el que más, en lo que alternativas al bromuro de metilo se refiere. También en otro momento, se comprobó que con plantas injertadas es posible reducir el aporte de nutrientes, sobre todo nitrógeno, lo que además de un ahorro supone una mejora más desde el punto de vista medioambiental. En definitiva, queda demostrado que es factible el empleo del injerto en pepino corto tipo español, que las selecciones de los híbridos entre Cucurbita maxima y C. moschata que habitualmente se están empleando en sandía son también de aplicación en estos pepinos y que su empleo puede llevarnos a producciones suficientemente remuneradoras, alargándose en muchos casos el ciclo y no modificando, de forma apreciable, la calidad. Queda también demostrado que aunque los portainjertos no sean resistentes a nematodos, su extravigor les hace desarrollarse, desde el punto de vista productivo, suficientemente, llegando por tanto, a “convivir” con ese problema. Al no ser resistentes los portainjertos, y permanecer e incluso agravarse el problema de nematodos es conveniente poder contar con diferentes portainjertos que nos permitan rotar entre ellos y utilizar diferentes sistemas radiculares que harán menos fácil el parasitismo de los nematodos, como recomiendan los nematólogos que se haga. ABSTRACT Vegetable grafting is one of the most current practices in horticulture, not only in Spain, but also in other Western and Asian countries, such as Japan, South Korea, China, the Philippines, etc. This is a decades-old, widespread technique: In fact, most cucurbit and solanaceous crops in Japan and Korea are grafted. At the end of the 1990s, it was clear that methyl bromide had an expiry date. Consequently, the areas strongly dependant on this soil disinfectant had to look for alternatives as quickly as possible. Besides, these had to be as environmentally friendly as possible and should not increase production costs significantly. The cucumber has been and still is the most important crop in greenhouses of the Comunidad de Madrid and in areas near Toledo and Guadalajara. Cucumber growers used methyl bromide systematically to disinfect the soil. The banning of this chemical product brought about uncertainty, which encouraged the search for different alternatives. After analyzing the different possibilities and taking into account the good results of watermelon grafting in Almería, it was decided to carry out the works that make up this doctoral thesis. Different trials were made in order to know if the cultivars used in cucumber grafting might be a real alternative for farmers, not only in Madrid, but also in the areas near Toledo and Guadalajara. The main aim was to assess the agronomic repercussions and whether that technique could be used alone, or if other complementary alternatives, such as chemical disinfectants, solarisation, biofumigation, or even steam disinfection, were necessary. Trials were carried out sequentially from 1999 to 2011. It was observed that the use of pumpkin hybrid rootstocks could be applied to cultivars of Spanish short cucumbers, mainly grown in the late 20th and early 21st centuries eg Serena. After the early trials, Shintoza (Cucurbita maxima x C. moschata), a pumpkin hybrid rootstock, seemed to be the best option, as it had the additional advantage of being well known by nurseries growing grafting plants. Bearing this in mind, Shintoza was then the hybrid rootstock to be used in cucumbers and consequently growers could have grafted plants at their disposal. Later on, research was focused on density and the most adequate type of pruning, by carrying out several trials. These experiments showed that, the extra vigour the rootstocks gave to the plants, allowed them to have two or three stems, (normally nurserymen use two, as it is easier for them to manage the plants). These findings would lead to the lessening the density of the plant and thus reduce costs, something which worried and still worries farmers. It was stated that it would be possible to reduce the density of the plants by about 25%, the optimum density of the stems ranging from 3 to 3.5 stem-m-2. Once decisions were taken both on the rootstock and the appropriate density, we went on to study how to apply these proposals to the new cultivars which the seed companies were proposing and the farmers were applying. These measures were complemented with the introduction of new rootstocks capable of replacing Shintoza, or rotating with it in order to change the root system. This is particularly necessary when rootstocks, non-resistant to nematodes, mainly of the species Meloidogyne incognita, are used. This is the main problem due to the soil of that area. Cultivars such as Trópico, at first, and Urano and Motril, more recently, adapted quite well to this technique. Among the rootstocks which adapted well to grafting and which were compatible with most tested cultivars, were, in particular, RS-841 Strongtosa and Camel. The behaviour of Azman was worth studying, but this rootstock was removed from the market by the company which had bought and commercialized it. Although not the main purpose of the research, it was observed that combining grafting with other alternatives to methyl bromide in order to overcome problems due to soil diseases or nematodes may be worthwhile. However, further research is needed, as this topic is in constant evolution, not only when we come to disinfectants, most of which are being affected by the removal of the permit for commercialization, but also when we refer to other techniques such as biofumigation or the use of steam. Results also showed that grafted plants may reduce the amount of fertilizers, particularly nitrogen, used: This means both saving money and the protection of the environment. We may conclude by saying that grafting Spanish short cucumbers is feasible, that the selections of the hybrids between Cucurbita maxima and C. moschata, habitually used in watermelon grafting, can also be applied to these cucumbers. It can also be concluded that the use of these grafting techniques may lead to profitable yields, by lengthening the growing cycle in many cases and by maintaining the quality to a large extent. Although these rootstocks are not resistant to nematodes, the results showed that their extra vigour enables them to develop in terms of production, and thus they cope with this problem. Since these rootstocks are not resistant to nematodes and the problem with these nematodes may even worsen, it is recommended that different types of rootstocks should be available to enable both the rotation and the use of different root systems, which will encourage the parasitism of nematodes.
Resumo:
No tenemos conocimiento de ninguna red de caminos prerromanos que sirvieran como base de una posible malla territorial de España. Sin embargo, una sociedad prerromana sin caminos, por muy fragmentada y aislada que fuera, es algo improbable y mucho menos en la Edad del Hierro. Por eso en época prerromana existían infinidad de caminos, muchos de los cuales hoy han desaparecido y otros han sobrevivido, casi siempre con sus recorridos mejorados. Los pueblos prerromanos aprovecharon vías naturales de comunicación (ríos, vados, valles, puertos naturales, llanuras, etc.) para tender sus caminos. En sus orígenes no siguieron pautas concretas, si no que los caminos se originaban por el tránsito (de personas, ganados, mercancías, etc.) de un lugar a otro. De este modo la red viaria prerromana era caótica y anárquica: todo camino tenía numerosos ramales y variantes, según las necesidades. Pendientes excesivas, anchuras variables, etc., en decir eran vías espontáneas, surgidas sin ninguna planificación aparente. Los recorridos en general eran cortos, aunque algunas investigaciones actuales están demostrando que algunas de las cañadas ganaderas más importantes, como la Galiana, y de largo recorrido, eran de origen prerromano. En el caso de la península Ibérica, y más concretamente en el caso de la Meseta, el territorio estaba fragmentado en diversos pueblos y tribus, agrupados según criterios étnicos y culturales y con contactos con los pueblos próximos que motivan la preponderancia de caminos de recorrido cortos. Solo la necesidad de llevar los rebaños (de cabras y ovejas sobre todo) desde las serranías en verano a las llanuras en invierno, motivaría viajes más largos en los que algunas cañadas ganaderas jugarían un papel más importante. Con la llegada de los romanaos, se implantó en Hispania una densa red viaria, cuya construcción se prolongó durante toda la dominación romana, siendo reparadas muchas calzadas y vías en varias ocasiones. En época romana la red caminera era variada y estaba constituida por “las calzadas” que comunicaban puntos importantes, eran muy transitadas, de ahí que la administración romana las mantuviera siempre en buen estado, para asegurar el intercambio comercial entre zonas distintas, cobro de impuestos, etc. “Los caminos de tierra (viae terrenae)” que además de las calzadas, que podemos asemejar a las actuales carreteras de primer y segundo orden, constituían la infinidad de caminos locales y comarcales. Los trazados se realizaron unos en época romana, y otros muchos apoyándose en los caminos de la época prerromana, éstas vías no se realizaban buscando el recorrido más corto entre dos puntos, ni tampoco el más cómodo y con un firme estructural de menor importancia que en las calzadas. Tampoco estaban hechos para un tipo concreto de transporte, por lo que nos encontraríamos algunos que por su anchura permitían el paso de carros, y otros que sólo permitirían el paso a pie, a caballo o en burro. Solían ser, como hemos indicado, caminos de tierra con acabados en zahorras y recorridos en su mayor parte cortos y medianos. Dentro de la malla territorial de España las calzadas constituirían las denominadas “viae publicae” que constituían la red principal y esqueleto vertebrador de Hispania. Los caminos de tierra constituirían los denominados “actus” caminos de carácter regional que configuraban la mayor parte de la red. Muchas de las “viae publicae” y de los “actus” tendrían su origen en las “viae militares” que habrían sido los primeros construidos, apoyándose en muchas ocasiones en los caminos prerromanos, por los romanos para realizar la conquista de Hispania y que luego con la Paz romana habrían tenido otro tipo de uso. Dentro de estas “viae militares” tuvieron una importancia relevancia aquellas que se utilizaron en la conquista de la Celtiberia, culminada con la caída de Numantia. Dentro de ellas tuvo una importancia fundamental la vía romana del río Alhama, objeto de esta Tesis, que facilitaría el desplazamiento de los ejércitos romanos desde Graccurris, primera ciudad romana fundada en el Ebro medio, hasta Numantia. Desde la época Augusta, la vía romana del río Alhama, pasaría a formar parte de los denominados “actus” formando parte de la malla territorial de la Península Ibérica como vía de comunicación entre la Meseta y el Ebro Medio. We do not have knowledge of any network of ways prerromanos that were serving as base of a possible territorial mesh of Spain. Nevertheless, a company prerromana without ways, for very fragmented and isolated that was, is something improbable and great less in the Age of the Iron. Because of it in epoch prerromana existed infinity of ways, many of which today have disappeared and others have survived, almost always with his improved tours. The people prerromanos took advantage of natural routes of communication (rivers, fords, valleys, natural ports, plains, etc.) to stretch his ways. In his origins concrete guidelines did not continue, if not that the ways were originating for the traffic (of persons, cattle, goods, etc.) to and from. Thus the network viaria prerromana was chaotic and anarchic: all way had numerous branches and variants, according to the needs. Excessive slopes, variable widths, etc., in saying were spontaneous routes arisen without no apparent planning. The tours in general were short, though some current investigations are demonstrating that some of the most important cattle glens, as the Galiana, and of crossed length, were of origin prerromano. In case of the Iberian Peninsula, and more concretely in case of the Plateau, the territory was fragmented in diverse peoples and tribes, grouped according to ethnic and cultural criteria and with contacts with the near peoples that motivate the prevalence of short ways of tour. Only the need to take the flocks (of goats and sheeps especially) from the mountainous countries in summer to the plains in winter, would motivate longer trips in which some cattle glens would play a more important paper. With the arrival of the romanos, a dense network was implanted in Roman Spain viaria, whose construction extended during the whole Roman domination, being repaired many causeways and routes in several occasions. In Roman epoch the pertaining to roads network was changed and constituted by " the causeways " that were communicating important points, they were very travelled, of there that the Roman administration was supporting always in good condition, to assure the commercial exchange between different zones, collection of taxes, etc. "The dirt tracks (viae terrenae)" that besides the causeways, which we can make alike to the current roads of the first and second order, were constituting the infinity of local and regional ways. The tracings were realized some in Roman epoch, and great others resting on the ways of the epoch prerromana, these routes were not realized looking for the most short tour neither between points, two nor neither most comfortable and with a structural road surface of minor importance that in the causeways. They were not also done for a concrete type of transport, for what some of us would think that for his width they were allowing the step of cars, and others that only would allow the step afoot, astride or in donkey. They were in the habit of being, since we have indicated, dirt tracks with ended in zahorras and tours in his most short and medium. Inside the territorial mesh of Spain the causeways would constitute the called ones "viae publicae" that constituted the principal network and skeleton vertebrador of Roman Spain. The dirt tracks would constitute the "actus” called ways of regional character that were forming most of the network. Many of "viae publicae" and of the "actus" they would have his origin in " viae military" that would have been the first ones constructed, resting on many occasions on the ways prerromanos, for the Romans to realize the conquest of Roman Spain and that then with the Roman Peace they would have had another type of use. Inside these "viae military" had an importance relevancy those that were in use in the conquest of the Celtiberia, reached with Numantia's fall. Inside them a fundamental importance had the Roman route of the river Alhama, object of this Thesis, which would facilitate the displacement of the Roman armies from Graccurris, the first Roman city been founded on the average Ebro, up to Numantia. From the August epoch, the Roman route of the river Alhama, would happen to form a part of the "actus” forming a part of the territorial mesh of the Iberian Peninsula as road link between the Plateau and the Average Ebro.