888 resultados para conservative tracking in 2D
Resumo:
Longitudinal principal components analyses on a combination of four subcutaneous skinfolds (biceps, triceps, subscapular and suprailiac) were performed using data from the London Longitudinal Growth Study. The main objectives were to discover at what age during growth sex differences in body fat distribution occur and to see if there is continuity in body fatness and body fat distribution from childhood into the adult status (18 years). The analyses were done for four age sectors (3mon-3yrs, 3yrs-8yrs, 8yrs-18yrs and 3yrs-18yrs). Longitudinal principal component one (LPC1) for each age interval in both sexes represents the population mean fat curve. Component two (LPC2) is a velocity of fatness component. Component three (LPC3) in the 3mon-3yrs age sector represents infant fat wave in both sexes. In the next two age sectors component three in males represents peaks and shifts in fat growth (change in velocity), while in females it represents body fat distribution. Component four (LPC4) in the same two age sectors is a reversal in the sexes of the patterns seen for component three, i.e., in males it is body fat distribution and in females velocity shifts. Components five and above represent more complicated patterns of change (multiple increases and decreases across the age interval). In both sexes there is strong tracking in fatness from middle childhood to adolescence. In males only there is also a low to moderate tracking of infant fat with middle to late childhood fat. These data are strongly supported in the literature. Several factors are known to predict adult fatness among the most important being previous levels of fatness (at earlier ages) and the age at rebound. In addition we found that the velocity of fat change in middle childhood was highly predictive of later fatness (r $\approx -$0.7), even more so than age at rebound (r $\approx -$0.5). In contrast to fatness (LPC1), body fat distribution (LPC3-LPC4) did not track well even though significant components of body fat distribution occur at each age. Tracking of body fat distribution was higher in females than males. Sex differences in body fat distribution are non existent. Some sex differences are evident with the peripheral-to-central ratios after age 14 years. ^
Resumo:
En Argentina, el liberalismo y el conservadorismo, constituyen el trasfondo ideológico del sistema político de la generación de 1880. A partir de 1880 se consolidan las instituciones políticas y se definen los rasgos centrales de la sociedad argentina, la que sufrirá profundas transformaciones al influjo del crecimiento económico, demográfico y de las políticas de educación pública. La empresa política es protagonizada por los hombres del "80", quienes constituyen la primera "generación argentina" que concreta ese nuevo espíritu que surge en el "53": coexistencia de amplias libertades civiles y económicas junto a una estructura con rasgos centralizadores, con claro predominio del órgano ejecutivo como reaseguro contra las tendencias anárquicas.
Resumo:
Iceberg calving has been assumed to be the dominant cause of mass loss for the Antarctic ice sheet, with previous estimates of the calving flux exceeding 2,000 gigatonnes per year. More recently, the importance of melting by the ocean has been demonstrated close to the grounding line and near the calving front. So far, however, no study has reliably quantified the calving flux and the basal mass balance (the balance between accretion and ablation at the ice-sheet base) for the whole of Antarctica. The distribution of fresh water in the Southern Ocean and its partitioning between the liquid and solid phases is therefore poorly constrained. Here we estimate the mass balance components for all ice shelves in Antarctica, using satellite measurements of calving flux and grounding-line flux, modelled ice-shelf snow accumulation rates and a regional scaling that accounts for unsurveyed areas. We obtain a total calving flux of 1,321 ± 144 gigatonnes per year and a total basal mass balance of -1,454 ± 174 gigatonnes per year. This means that about half of the ice-sheet surface mass gain is lost through oceanic erosion before reaching the ice front, and the calving flux is about 34 per cent less than previous estimates derived from iceberg tracking. In addition, the fraction of mass loss due to basal processes varies from about 10 to 90 per cent between ice shelves. We find a significant positive correlation between basal mass loss and surface elevation change for ice shelves experiencing surface lowering and enhanced discharge. We suggest that basal mass loss is a valuable metric for predicting future ice-shelf vulnerability to oceanic forcing.
Resumo:
A particle accelerator is any device that, using electromagnetic fields, is able to communicate energy to charged particles (typically electrons or ionized atoms), accelerating and/or energizing them up to the required level for its purpose. The applications of particle accelerators are countless, beginning in a common TV CRT, passing through medical X-ray devices, and ending in large ion colliders utilized to find the smallest details of the matter. Among the other engineering applications, the ion implantation devices to obtain better semiconductors and materials of amazing properties are included. Materials supporting irradiation for future nuclear fusion plants are also benefited from particle accelerators. There are many devices in a particle accelerator required for its correct operation. The most important are the particle sources, the guiding, focalizing and correcting magnets, the radiofrequency accelerating cavities, the fast deflection devices, the beam diagnostic mechanisms and the particle detectors. Most of the fast particle deflection devices have been built historically by using copper coils and ferrite cores which could effectuate a relatively fast magnetic deflection, but needed large voltages and currents to counteract the high coil inductance in a response in the microseconds range. Various beam stability considerations and the new range of energies and sizes of present time accelerators and their rings require new devices featuring an improved wakefield behaviour and faster response (in the nanoseconds range). This can only be achieved by an electromagnetic deflection device based on a transmission line. The electromagnetic deflection device (strip-line kicker) produces a transverse displacement on the particle beam travelling close to the speed of light, in order to extract the particles to another experiment or to inject them into a different accelerator. The deflection is carried out by the means of two short, opposite phase pulses. The diversion of the particles is exerted by the integrated Lorentz force of the electromagnetic field travelling along the kicker. This Thesis deals with a detailed calculation, manufacturing and test methodology for strip-line kicker devices. The methodology is then applied to two real cases which are fully designed, built, tested and finally installed in the CTF3 accelerator facility at CERN (Geneva). Analytical and numerical calculations, both in 2D and 3D, are detailed starting from the basic specifications in order to obtain a conceptual design. Time domain and frequency domain calculations are developed in the process using different FDM and FEM codes. The following concepts among others are analyzed: scattering parameters, resonating high order modes, the wakefields, etc. Several contributions are presented in the calculation process dealing specifically with strip-line kicker devices fed by electromagnetic pulses. Materials and components typically used for the fabrication of these devices are analyzed in the manufacturing section. Mechanical supports and connexions of electrodes are also detailed, presenting some interesting contributions on these concepts. The electromagnetic and vacuum tests are then analyzed. These tests are required to ensure that the manufactured devices fulfil the specifications. Finally, and only from the analytical point of view, the strip-line kickers are studied together with a pulsed power supply based on solid state power switches (MOSFETs). The solid state technology applied to pulsed power supplies is introduced and several circuit topologies are modelled and simulated to obtain fast and good flat-top pulses.
Resumo:
El objetivo principal de este trabajo de investigación es estudiar las posibilidades de utilización del árido reciclado mixto para un hormigón reciclado en aplicaciones no estructurales, justificando mediante la experimentación la validez para esta aplicación, tanto del árido reciclado como del hormigón reciclado. Esta tesis se centró en los aspectos más restrictivos y limitativos en la utilización de los áridos mixtos en hormigón reciclado, basándose tanto en la normativa internacional existente como en los resultados obtenidos en los estudios bibliográficos consultados. La primera tarea realizada fue la caracterización completa de las propiedades del árido reciclado mixto, recogiendo especialmente los siguientes aspectos: granulometría, contenido de finos, absorción y densidades, composición del árido reciclado, índice de lajas, coeficiente de Los Ángeles, partículas ligeras y contenido de sulfatos. De este estudio de los áridos reciclados, se han destacado relaciones entre las propiedades. Las diferentes correlaciones permiten proponer criterios de calidad de un árido reciclado mixto para un hormigón reciclado. Se ha elegido un árido reciclado mixto entre los estudiados, de características límite admisibles, para obtener resultados conservadores sobre el hormigón reciclado fabricado con él. En una segunda etapa, se ha realizado un estudio de dosificación completo del hormigón reciclado, evaluando la consistencia del hormigón en estado fresco y la resistencia a compresión del hormigón en estado endurecido y se ha comparado con las mismas propiedades de un hormigón convencional. Se ha analizado la capacidad de absorción del árido conseguida con los métodos de presaturación empleados y en función de su estado de humedad, para poder evaluar las relaciones agua/cemento totales y efectivas del hormigón. Se ha estudiado el efecto de estos dos parámetros tanto en la consistencia como en la resistencia del hormigón reciclado. Finalmente, se ha estudiado el hormigón fabricado con un 50% y 100% de una partida de árido reciclado mixto de calidad admisible y se han ensayado las siguientes propiedades: consistencia, resistencia a compresión, resistencia a tracción indirecta, módulo de elasticidad dinámico, cambios de longitud, porosidad abierta y microscopía. Para analizar el efecto de los sulfatos, se han añadido artificialmente cantidades de yeso controladas en el hormigón reciclado. Se fabricaron hormigones con dos tipos de cemento, un cemento CEM I 42,5 R con elevado contenido de C3A, que debería dar lugar a expansiones mayores y un cemento con adiciones puzolánicas CEM II A-P 42,5 R, que atenuaría el comportamiento expansivo en el hormigón. Los resultados finales indican que la utilización del árido reciclado mixto en proporciones de hasta un 50%, permiten cubrir la gama de resistencias más exigentes dentro del hormigón no estructural. El contenido de sulfatos puede variar desde un 0,8% hasta un 1,9%, según el tipo de cemento y la proporción de sustitución del árido natural por árido reciclado mixto. Tanto en el caso del árido reciclado como en el hormigón, se ha realizado un estudio comparativo entre el conjunto de datos recopilados en la bibliografía y los obtenidos en este estudio experimental. En varias propiedades del hormigón reciclado, se han comparado los resultados con las fórmulas de la Instrucción EHE-08, para establecer unos coeficientes de corrección a aplicar a un hormigón reciclado con fines no estructurales. The main objective of this investigation work is to study the possibilities of using recycled mixed aggregate for a recycled concrete in non structural applications, justifying by means of experimentation both the validity of the recycled aggregate and recycled concrete. This thesis focused on the most restrictive and limiting aspects in the mixed aggregate use in recycled concrete, on the basis of the international standards as well on the results obtained in the bibliographic studies consulted. The first task achieved was the complete charcaterization of the mixed recycled aggregate properties, specially the following aspects: grain size analysis, fines content, absorption and densities, recycled aggregate composition, flakiness index, Los Angeles coefficient, lightweight particles and sulphate content. From this study, correlations between the properties were highlighted. The different correlations make possible to propose quality criterions for recycled mixed aggregate in concrete. Among the recycled aggregates studied, one of acceptable characteristics but near the limits established, was chosen to obtain conservative results in the recycled concrete made with it. In a second step, a complete recycled concrete mix design was made, to evaluate concrete consistency in the fresh state and concrete compressive strength in the hardened state and its properties were compared to those of a control concrete. The aggregate absorption capacity was analized with the presaturation methods achieved and in function of its state of humidity, to evaluate the total and effective water/cement ratios. The effect of these two parameters, both in consistency and compressive strength of recycled concrete, was studied. Finally, the concrete made with 50% and 100% of the elected recycled mixed aggregate was studied and the following concrete properties were tested: consistency, compressive strength, tensile strength, dynamic modulus of elasticity, length changes, water absorption under vacuum and microscopy. To analize the effect of sulphate content, some controlled quantities of gypsum were artificially added to the recycled concrete. Concretes with two types of cement were made, a cement CEM I 42,5 R with a high content of C3A, that would lead to major expansions and a cement with puzzolanic additions CEM II A-P 42,5 R that would lower the expansive behaviour of concrete. The final results indicate that the use of mixed recycled aggregate in proportions up to 50% make possible to cover the overall demanding strengths within the non structural concrete. Sulphates content can range between 0,8% and 1,9%, in function of the type of cement and the proportion of natural aggregate replacement by mixed recycled one. Both in the case of recycled aggregate and concrete, a comparative study was made between the data coming from the bibliography and those obtained in the experimental study. In several recycled concrete properties, the results were compared to the formulas of Spanish Instruction of Structural Concrete (Instruction EHE-08), to establish some correction coefficients to apply for a non structural recycled concrete.
Resumo:
En los últimos años ha aumentado el interés en el desarrollo de proyectos en el ámbito de las centrales hidroeléctricas y en concreto en las centrales reversibles. Estas centrales están diseñadas para grandes caudales y saltos, lo cual conlleva túneles de gran diámetro y alta presión y a menudo son esquemas subterráneos. Por ello, los estudios relativos a revestimientos de túneles en presión y los referentes a los blindajes de acero han cobrado una mayor relevancia. En las décadas de los 60 y 70 se realizó una importante labor de investigación coincidiendo con el desarrollo hidroeléctrico en Europa y Norteamérica, que sin embargo ha quedado sin continuidad hasta esta década, en la que se ha experimentado un impulso debido al desarrollo de nuevos proyectos hidroeléctricos de gran magnitud. La adecuación de los métodos de cálculo de blindajes supone una herramienta imprescindible en el correcto desarrollo técnico de los nuevos proyectos hidroeléctricos, así como para la evaluación de la seguridad de los saltos hidroeléctricos existentes en operación. En la presente Tesis se realiza un análisis del comportamiento estructural de las galerías en presión de saltos hidroeléctricos, así como una discusión y revisión de los métodos de cálculo existentes. En concreto se analizan los siguientes aspectos: •Descripción y comparación de las formulaciones existentes para el cálculo de blindajes tanto a presión exterior como interior. •Aplicación del Método de Elementos Finitos para la modelización y cálculo resistente y frente a inestabilidad de blindajes sometidos a presión exterior. •Análisis de un caso real, en el que se ha producido un fallo estructural en un blindaje sometido a presión exterior. Discusión sobre el comportamiento de blindajes con rigidizadores. Estudio paramétrico de la capacidad resistente y de la estabilidad de los blindajes con rigidizadores. •Estudio del comportamiento diferenciado entre un rigidizador y un conector. •Detalles constructivos y de durabilidad de las galerías en presión. •Desarrollo de una metodología para el cálculo de blindajes y tuberías forzadas a fatiga derivada de las variaciones de presión de la conducción. •Análisis de un caso real de una tubería forzada sometida a procesos de variación de carga, evaluando su seguridad frente a la fatiga. El cálculo de blindajes en galerías forzadas presenta una serie de aspectos complejos, y que no permiten la definición del problema con exactitud, tales como las características del macizo rocoso y su permeabilidad, la determinación del nivel freático, la holgura existente entre el blindaje y el revestimiento del trasdós y sus posibles defectos geométricos. Por estas incertidumbres, el cálculo de blindajes supone una materia compleja y que debe ser abordada desde la cautela y el análisis de otros trabajos y/o análisis realizados con anterioridad. En cualquier caso, debe realizarse un análisis de sensibilidad de los diversos parámetros que intervienen en el cálculo. En esta tesis se han descrito las principales formulaciones de cálculo de blindajes de galerías forzadas sometidas a presión interior y exterior; se ha constatado que existe una gran diversidad y que de su aplicación no se llega a resultados concluyentes. Las formulaciones clásicas utilizadas en el cálculo de blindajes lisos y con rigidizadores sometidos a presión exterior (Amstutz y Jacobsen) no resultan del todo adecuadas ni son de aplicación general. Además, pueden arrojar resultados no conservadores o conducir a un sobredimensionamiento del blindaje en otros casos. En las formulaciones tradicionales de diseño se han tenido en cuenta como imperfecciones la holgura del blindaje y la ovalidad del mismo. En la presente tesis, se han analizado imperfecciones de tipo ondulatorio derivadas de los procesos de soldadura y la existencia de espesores reducidos en zonas de corrosión. En el caso práctico analizado sometido a presión exterior, se ha comprobado el funcionamiento real del blindaje mediante los modelos realizados con elementos finitos. Se desprende que los rigidizadores no han funcionado como tales, puesto que para blindajes lisos se obtienen presiones más bajas de pandeo y para el caso de funcionamiento correcto de los rigidizadores se habría obtenido un coeficiente de seguridad suficiente. Por este motivo, se ha analizado el posible funcionamiento de los rigidizadores, que en determinados casos pueden actuar como conectores. En estos casos deben dimensionarse de forma adecuada las soldaduras para soportar las tensiones entre chapa y conector. Por otra parte, tradicionalmente no se han tenido en cuenta los efectos de fatiga que pueden ocasionar los golpes de ariete y las pulsaciones de presión debidas a la regulación secundaria de la red. En esta tesis se ha establecido un procedimiento de comprobación de tuberías forzadas y blindajes sometidos a procesos de fatiga. Adicionalmente, se ha estudiado el caso real de las tuberías forzadas de una central reversible real (Bolarque II) en funcionamiento de regulación secundaria. Se ha concluido, como en otros casos analizados en la bibliografía, que las pulsaciones derivadas de la regulación secundaria no son significativas como para tener en cuenta la fatiga del acero. Por otra parte, las maniobras de arranque y parada (golpe de ariete) suponen una variación importante de la presión en la conducción. Sin embargo, el moderado número de ciclos permite asegurar la integridad de la tubería frente a fenómenos de fatiga. Nowadays, there is a significant concern in the development of projects in the field of hydroelectric power plants, particularly in the pump-storage projects. These plants are designed for high flow rates and heads, which entails large-diameter tunnels and high pressure ratios), and often as underground schemes. Therefore, this concern has reactivated studies about penstocks and in particular those related to steel liners. During the 1960s and 1970s due to hydropower-engineering development in Europe and North America, a major research effort was done. However, the increasing development of new large-scale hydropower projects has involved a renewed research effort during this decade. The adequacy of steel liner calculation methods is a very important issue in the proper technical development of new hydroelectric projects, and for the safety assessment of existing hydroelectric power plants in operation. In this work, an analysis of the structural behavior of pressure galleries in hydroelectric schemes was carried out. Also, a discussion and a review of existing calculation methods are included. In particular, the following issues have been considered: •Description and comparison of existing formulations for calculating the liner response to both external and internal pressure. •Analysis of an actual case study of a steel liner which failed due to external pressure. •Application of the Finite Element Method to liner modeling and analysis subjected to external pressure. •A parametric study of the shielding with stiffeners and discussion about the behavior of liner with stiffeners. •Constructive aspects and durability of pressure galleries. •Development of a methodology for estimating fatigue effects on penstocks and liners sue to pressure changes. •Analysis of an actual case study of a penstock under varying load and assessment of its safety against fatigue. The project of a hydropower penstock is a complex issue, due to the uncertainties in the definition of the problem data, such as the characteristics of the rock mass and its permeability, the determination of the water table, the existing gap between the steel liner and the concrete of the backfill, the geometric imperfections... Hence, the design and analysis of a steel liner must be addressed cautiously and take into account a review of previous studies performed. Ever, a sensitivity analysis of the various parameters involved in the calculation should be performed. In this work, some of the most relevant formulations for liner design subjected to inside and outside pressure have been studied. As a whole, there is a wide variety and its application does not lead to conclusive results. The classical formulations used in the steel liner calculation either with or without stiffeners under external pressure (Amstutz and Jacobsen) are not entirely adequate Also, those can yield both conservative and non-conservative results in large ranges of application. Traditionally design approaches only considered initial gap and ovality as the most relevant geometric imperfections. Thus, little attention was paid to those caused either by welding or by thickness loss in corroded areas. In the case study analyzed in this thesis, the actual working of the liner under external pressure has been simulated by the Finite Element Method. Results show that the stiffeners have not performed as such, since for unstiffened liner lower buckling pressures are obtained and for proper performance of the stiffeners would give a sufficient safety factor. Hence, it must be pointed out that stiffeners may perform either as such or as connectors. For the latter, welding must be designed to properly withstand stresses between the shell and the stiffener. Likewise, the potential fatigue effects due to both water hammer and pressure pulsations due to secondary regulation of the network have not been considered in many studies. It has been included in this work a procedure for checking penstocks and liners under fatigue processes. Additionally, the penstock fatigue response of an actual pump storage project (Bolarque II, Spain) subjected to secondary control operation has been assessed. As in other cases discussed in the literature, pulsations derived from the secondary control are not significant to account for fatigue of steel. Moreover, the start and stop manoeuvres (water hammer) cause a significant change in penstock pressure. However, the moderate number of cycles ensures the integrity of the penstock against fatigue phenomena.
Resumo:
Wireless sensor networks (WSNs) have shown their potentials in various applications, which bring a lot of benefits to users from both research and industrial areas. For many setups, it is envisioned thatWSNs will consist of tens to hundreds of nodes that operate on small batteries. However due to the diversity of the deployed environments and resource constraints on radio communication, sensing ability and energy supply, it is a very challenging issue to plan optimized WSN topology and predict its performance before real deployment. During the network planning phase, the connectivity, coverage, cost, network longevity and service quality should all be considered. Therefore it requires designers coping with comprehensive and interdisciplinary knowledge, including networking, radio engineering, embedded system and so on, in order to efficiently construct a reliable WSN for any specific types of environment. Nowadays there is still a lack of the analysis and experiences to guide WSN designers to efficiently construct WSN topology successfully without many trials. Therefore, simulation is a feasible approach to the quantitative analysis of the performance of wireless sensor networks. However the existing planning algorithms and tools, to some extent, have serious limitations to practically design reliable WSN topology: Only a few of them tackle the 3D deployment issue, and an overwhelming number of works are proposed to place devices in 2D scheme. Without considering the full dimension, the impacts of environment to the performance of WSN are not completely studied, thus the values of evaluated metrics such as connectivity and sensing coverage are not sufficiently accurate to make proper decision. Even fewer planning methods model the sensing coverage and radio propagation by considering the realistic scenario where obstacles exist. Radio signals propagate with multi-path phenomenon in the real world, in which direct paths, reflected paths and diffracted paths contribute to the received signal strength. Besides, obstacles between the path of sensor and objects might block the sensing signals, thus create coverage hole in the application. None of the existing planning algorithms model the network longevity and packet delivery capability properly and practically. They often employ unilateral and unrealistic formulations. The optimization targets are often one-sided in the current works. Without comprehensive evaluation on the important metrics, the performance of planned WSNs can not be reliable and entirely optimized. Modeling of environment is usually time consuming and the cost is very high, while none of the current works figure out any method to model the 3D deployment environment efficiently and accurately. Therefore many researchers are trapped by this issue, and their algorithms can only be evaluated in the same scenario, without the possibility to test the robustness and feasibility for implementations in different environments. In this thesis, we propose a novel planning methodology and an intelligent WSN planning tool to assist WSN designers efficiently planning reliable WSNs. First of all, a new method is proposed to efficiently and automatically model the 3D indoor and outdoor environments. To the best of our knowledge, this is the first time that the advantages of image understanding algorithm are applied to automatically reconstruct 3D outdoor and indoor scenarios for signal propagation and network planning purpose. The experimental results indicate that the proposed methodology is able to accurately recognize different objects from the satellite images of the outdoor target regions and from the scanned floor plan of indoor area. Its mechanism offers users a flexibility to reconstruct different types of environment without any human interaction. Thereby it significantly reduces human efforts, cost and time spent on reconstructing a 3D geographic database and allows WSN designers concentrating on the planning issues. Secondly, an efficient ray-tracing engine is developed to accurately and practically model the radio propagation and sensing signal on the constructed 3D map. The engine contributes on efficiency and accuracy to the estimated results. By using image processing concepts, including the kd-tree space division algorithm and modified polar sweep algorithm, the rays are traced efficiently without detecting all the primitives in the scene. The radio propagation model iv is proposed, which emphasizes not only the materials of obstacles but also their locations along the signal path. The sensing signal of sensor nodes, which is sensitive to the obstacles, is benefit from the ray-tracing algorithm via obstacle detection. The performance of this modelling method is robust and accurate compared with conventional methods, and experimental results imply that this methodology is suitable for both outdoor urban scenes and indoor environments. Moreover, it can be applied to either GSM communication or ZigBee protocol by varying frequency parameter of the radio propagation model. Thirdly, WSN planning method is proposed to tackle the above mentioned challenges and efficiently deploy reliable WSNs. More metrics (connectivity, coverage, cost, lifetime, packet latency and packet drop rate) are modeled more practically compared with other works. Especially 3D ray tracing method is used to model the radio link and sensing signal which are sensitive to the obstruction of obstacles; network routing is constructed by using AODV protocol; the network longevity, packet delay and packet drop rate are obtained via simulating practical events in WSNet simulator, which to the best of our knowledge, is the first time that network simulator is involved in a planning algorithm. Moreover, a multi-objective optimization algorithm is developed to cater for the characteristics of WSNs. The capability of providing multiple optimized solutions simultaneously allows users making their own decisions accordingly, and the results are more comprehensively optimized compared with other state-of-the-art algorithms. iMOST is developed by integrating the introduced algorithms, to assist WSN designers efficiently planning reliable WSNs for different configurations. The abbreviated name iMOST stands for an Intelligent Multi-objective Optimization Sensor network planning Tool. iMOST contributes on: (1) Convenient operation with a user-friendly vision system; (2) Efficient and automatic 3D database reconstruction and fast 3D objects design for both indoor and outdoor environments; (3) It provides multiple multi-objective optimized 3D deployment solutions and allows users to configure the network properties, hence it can adapt to various WSN applications; (4) Deployment solutions in the 3D space and the corresponding evaluated performance are visually presented to users; and (5) The Node Placement Module of iMOST is available online as well as the source code of the other two rebuilt heuristics. Therefore WSN designers will be benefit from v this tool on efficiently constructing environment database, practically and efficiently planning reliable WSNs for both outdoor and indoor applications. With the open source codes, they are also able to compare their developed algorithms with ours to contribute to this academic field. Finally, solid real results are obtained for both indoor and outdoor WSN planning. Deployments have been realized for both indoor and outdoor environments based on the provided planning solutions. The measured results coincide well with the estimated results. The proposed planning algorithm is adaptable according to the WSN designer’s desirability and configuration, and it offers flexibility to plan small and large scale, indoor and outdoor 3D deployments. The thesis is organized in 7 chapters. In Chapter 1, WSN applications and motivations of this work are introduced, the state-of-the-art planning algorithms and tools are reviewed, challenges are stated out and the proposed methodology is briefly introduced. In Chapter 2, the proposed 3D environment reconstruction methodology is introduced and its performance is evaluated for both outdoor and indoor environment. The developed ray-tracing engine and proposed radio propagation modelling method are described in details in Chapter 3, their performances are evaluated in terms of computation efficiency and accuracy. Chapter 4 presents the modelling of important metrics of WSNs and the proposed multi-objective optimization planning algorithm, the performance is compared with the other state-of-the-art planning algorithms. The intelligent WSN planning tool iMOST is described in Chapter 5. RealWSN deployments are prosecuted based on the planned solutions for both indoor and outdoor scenarios, important data are measured and results are analysed in Chapter 6. Chapter 7 concludes the thesis and discusses about future works. vi Resumen en Castellano Las redes de sensores inalámbricas (en inglés Wireless Sensor Networks, WSNs) han demostrado su potencial en diversas aplicaciones que aportan una gran cantidad de beneficios para el campo de la investigación y de la industria. Para muchas configuraciones se prevé que las WSNs consistirán en decenas o cientos de nodos que funcionarán con baterías pequeñas. Sin embargo, debido a la diversidad de los ambientes para desplegar las redes y a las limitaciones de recursos en materia de comunicación de radio, capacidad de detección y suministro de energía, la planificación de la topología de la red y la predicción de su rendimiento es un tema muy difícil de tratar antes de la implementación real. Durante la fase de planificación del despliegue de la red se deben considerar aspectos como la conectividad, la cobertura, el coste, la longevidad de la red y la calidad del servicio. Por lo tanto, requiere de diseñadores con un amplio e interdisciplinario nivel de conocimiento que incluye la creación de redes, la ingeniería de radio y los sistemas embebidos entre otros, con el fin de construir de manera eficiente una WSN confiable para cualquier tipo de entorno. Hoy en día todavía hay una falta de análisis y experiencias que orienten a los diseñadores de WSN para construir las topologías WSN de manera eficiente sin realizar muchas pruebas. Por lo tanto, la simulación es un enfoque viable para el análisis cuantitativo del rendimiento de las redes de sensores inalámbricos. Sin embargo, los algoritmos y herramientas de planificación existentes tienen, en cierta medida, serias limitaciones para diseñar en la práctica una topología fiable de WSN: Sólo unos pocos abordan la cuestión del despliegue 3D mientras que existe una gran cantidad de trabajos que colocan los dispositivos en 2D. Si no se analiza la dimensión completa (3D), los efectos del entorno en el desempeño de WSN no se estudian por completo, por lo que los valores de los parámetros evaluados, como la conectividad y la cobertura de detección, no son lo suficientemente precisos para tomar la decisión correcta. Aún en menor medida los métodos de planificación modelan la cobertura de los sensores y la propagación de la señal de radio teniendo en cuenta un escenario realista donde existan obstáculos. Las señales de radio en el mundo real siguen una propagación multicamino, en la que los caminos directos, los caminos reflejados y los caminos difractados contribuyen a la intensidad de la señal recibida. Además, los obstáculos entre el recorrido del sensor y los objetos pueden bloquear las señales de detección y por lo tanto crear áreas sin cobertura en la aplicación. Ninguno de los algoritmos de planificación existentes modelan el tiempo de vida de la red y la capacidad de entrega de paquetes correctamente y prácticamente. A menudo se emplean formulaciones unilaterales y poco realistas. Los objetivos de optimización son a menudo tratados unilateralmente en los trabajos actuales. Sin una evaluación exhaustiva de los parámetros importantes, el rendimiento previsto de las redes inalámbricas de sensores no puede ser fiable y totalmente optimizado. Por lo general, el modelado del entorno conlleva mucho tiempo y tiene un coste muy alto, pero ninguno de los trabajos actuales propone algún método para modelar el entorno de despliegue 3D con eficiencia y precisión. Por lo tanto, muchos investigadores están limitados por este problema y sus algoritmos sólo se pueden evaluar en el mismo escenario, sin la posibilidad de probar la solidez y viabilidad para las implementaciones en diferentes entornos. En esta tesis, se propone una nueva metodología de planificación así como una herramienta inteligente de planificación de redes de sensores inalámbricas para ayudar a los diseñadores a planificar WSNs fiables de una manera eficiente. En primer lugar, se propone un nuevo método para modelar demanera eficiente y automática los ambientes interiores y exteriores en 3D. Según nuestros conocimientos hasta la fecha, esta es la primera vez que las ventajas del algoritmo de _image understanding_se aplican para reconstruir automáticamente los escenarios exteriores e interiores en 3D para analizar la propagación de la señal y viii la planificación de la red. Los resultados experimentales indican que la metodología propuesta es capaz de reconocer con precisión los diferentes objetos presentes en las imágenes satelitales de las regiones objetivo en el exterior y de la planta escaneada en el interior. Su mecanismo ofrece a los usuarios la flexibilidad para reconstruir los diferentes tipos de entornos sin ninguna interacción humana. De este modo se reduce considerablemente el esfuerzo humano, el coste y el tiempo invertido en la reconstrucción de una base de datos geográfica con información 3D, permitiendo así que los diseñadores se concentren en los temas de planificación. En segundo lugar, se ha desarrollado un motor de trazado de rayos (en inglés ray tracing) eficiente para modelar con precisión la propagación de la señal de radio y la señal de los sensores en el mapa 3D construido. El motor contribuye a la eficiencia y la precisión de los resultados estimados. Mediante el uso de los conceptos de procesamiento de imágenes, incluyendo el algoritmo del árbol kd para la división del espacio y el algoritmo _polar sweep_modificado, los rayos se trazan de manera eficiente sin la detección de todas las primitivas en la escena. El modelo de propagación de radio que se propone no sólo considera los materiales de los obstáculos, sino también su ubicación a lo largo de la ruta de señal. La señal de los sensores de los nodos, que es sensible a los obstáculos, se ve beneficiada por la detección de objetos llevada a cabo por el algoritmo de trazado de rayos. El rendimiento de este método de modelado es robusto y preciso en comparación con los métodos convencionales, y los resultados experimentales indican que esta metodología es adecuada tanto para escenas urbanas al aire libre como para ambientes interiores. Por otra parte, se puede aplicar a cualquier comunicación GSM o protocolo ZigBee mediante la variación de la frecuencia del modelo de propagación de radio. En tercer lugar, se propone un método de planificación de WSNs para hacer frente a los desafíos mencionados anteriormente y desplegar redes de sensores fiables de manera eficiente. Se modelan más parámetros (conectividad, cobertura, coste, tiempo de vida, la latencia de paquetes y tasa de caída de paquetes) en comparación con otros trabajos. Especialmente el método de trazado de rayos 3D se utiliza para modelar el enlace de radio y señal de los sensores que son sensibles a la obstrucción de obstáculos; el enrutamiento de la red se construye utilizando el protocolo AODV; la longevidad de la red, retardo de paquetes ix y tasa de abandono de paquetes se obtienen a través de la simulación de eventos prácticos en el simulador WSNet, y según nuestros conocimientos hasta la fecha, es la primera vez que simulador de red está implicado en un algoritmo de planificación. Por otra parte, se ha desarrollado un algoritmo de optimización multi-objetivo para satisfacer las características de las redes inalámbricas de sensores. La capacidad de proporcionar múltiples soluciones optimizadas de forma simultánea permite a los usuarios tomar sus propias decisiones en consecuencia, obteniendo mejores resultados en comparación con otros algoritmos del estado del arte. iMOST se desarrolla mediante la integración de los algoritmos presentados, para ayudar de forma eficiente a los diseñadores en la planificación de WSNs fiables para diferentes configuraciones. El nombre abreviado iMOST (Intelligent Multi-objective Optimization Sensor network planning Tool) representa una herramienta inteligente de planificación de redes de sensores con optimización multi-objetivo. iMOST contribuye en: (1) Operación conveniente con una interfaz de fácil uso, (2) Reconstrucción eficiente y automática de una base de datos con información 3D y diseño rápido de objetos 3D para ambientes interiores y exteriores, (3) Proporciona varias soluciones de despliegue optimizadas para los multi-objetivo en 3D y permite a los usuarios configurar las propiedades de red, por lo que puede adaptarse a diversas aplicaciones de WSN, (4) las soluciones de implementación en el espacio 3D y el correspondiente rendimiento evaluado se presentan visualmente a los usuarios, y (5) El _Node Placement Module_de iMOST está disponible en línea, así como el código fuente de las otras dos heurísticas de planificación. Por lo tanto los diseñadores WSN se beneficiarán de esta herramienta para la construcción eficiente de la base de datos con información del entorno, la planificación práctica y eficiente de WSNs fiables tanto para aplicaciones interiores y exteriores. Con los códigos fuente abiertos, son capaces de comparar sus algoritmos desarrollados con los nuestros para contribuir a este campo académico. Por último, se obtienen resultados reales sólidos tanto para la planificación de WSN en interiores y exteriores. Los despliegues se han realizado tanto para ambientes de interior y como para ambientes de exterior utilizando las soluciones de planificación propuestas. Los resultados medidos coinciden en gran medida con los resultados estimados. El algoritmo de planificación x propuesto se adapta convenientemente al deiseño de redes de sensores inalámbricas, y ofrece flexibilidad para planificar los despliegues 3D a pequeña y gran escala tanto en interiores como en exteriores. La tesis se estructura en 7 capítulos. En el Capítulo 1, se presentan las aplicaciones de WSN y motivaciones de este trabajo, se revisan los algoritmos y herramientas de planificación del estado del arte, se presentan los retos y se describe brevemente la metodología propuesta. En el Capítulo 2, se presenta la metodología de reconstrucción de entornos 3D propuesta y su rendimiento es evaluado tanto para espacios exteriores como para espacios interiores. El motor de trazado de rayos desarrollado y el método de modelado de propagación de radio propuesto se describen en detalle en el Capítulo 3, evaluándose en términos de eficiencia computacional y precisión. En el Capítulo 4 se presenta el modelado de los parámetros importantes de las WSNs y el algoritmo de planificación de optimización multi-objetivo propuesto, el rendimiento se compara con los otros algoritmos de planificación descritos en el estado del arte. La herramienta inteligente de planificación de redes de sensores inalámbricas, iMOST, se describe en el Capítulo 5. En el Capítulo 6 se llevan a cabo despliegues reales de acuerdo a las soluciones previstas para los escenarios interiores y exteriores, se miden los datos importantes y se analizan los resultados. En el Capítulo 7 se concluye la tesis y se discute acerca de los trabajos futuros.
Resumo:
El desarrollo de la tecnología móvil ha cambiado la forma de interactuar con el entorno, ofreciendo cada día nuevas soluciones con un alto componente visual y de geoposicionamiento. En este sentido los yacimientos arqueológicos y otros lugares históricos o de interés pueden verse altamente beneficiados de la llamada realidad aumentada. En el presente trabajo se ofrece una nueva aplicación de la topografía y fotogrametría lejos de las concepciones clásicas relacionadas con el trabajo en obra, catastral o cartográfico. Se establece un estudio de los distintos avances en visión por ordenador y realidad aumentada para ofrecer una nueva forma de visitar el yacimiento arqueológico de Complutum. El proyecto se resume en los siguientes puntos: - Levantamiento y recreación de los restos del parque arqueológico de Complutum. - Estudio de las distintos avances en la visión por ordenador, así como de las soluciones en Tracking tanto 2D como 3D. - Desarrollo de una aplicación para dispositivos Android que implemente estas funciones para recrear el yacimiento mediante realidad aumentada.
Resumo:
Anastigmatic imaging of an object to an image surfaces without the point-to-point mapping prescription and using a single optical surface is analyzed in 2D and 3D geometries (free-form and rotational-symmetric). Several design techniques are shown.
Resumo:
In the last decade, multi-sensor data fusion has become a broadly demanded discipline to achieve advanced solutions that can be applied in many real world situations, either civil or military. In Defence,accurate detection of all target objects is fundamental to maintaining situational awareness, to locating threats in the battlefield and to identifying and protecting strategically own forces. Civil applications, such as traffic monitoring, have similar requirements in terms of object detection and reliable identification of incidents in order to ensure safety of road users. Thanks to the appropriate data fusion technique, we can give these systems the power to exploit automatically all relevant information from multiple sources to face for instance mission needs or assess daily supervision operations. This paper focuses on its application to active vehicle monitoring in a particular area of high density traffic, and how it is redirecting the research activities being carried out in the computer vision, signal processing and machine learning fields for improving the effectiveness of detection and tracking in ground surveillance scenarios in general. Specifically, our system proposes fusion of data at a feature level which is extracted from a video camera and a laser scanner. In addition, a stochastic-based tracking which introduces some particle filters into the model to deal with uncertainty due to occlusions and improve the previous detection output is presented in this paper. It has been shown that this computer vision tracker contributes to detect objects even under poor visual information. Finally, in the same way that humans are able to analyze both temporal and spatial relations among items in the scene to associate them a meaning, once the targets objects have been correctly detected and tracked, it is desired that machines can provide a trustworthy description of what is happening in the scene under surveillance. Accomplishing so ambitious task requires a machine learning-based hierarchic architecture able to extract and analyse behaviours at different abstraction levels. A real experimental testbed has been implemented for the evaluation of the proposed modular system. Such scenario is a closed circuit where real traffic situations can be simulated. First results have shown the strength of the proposed system.
Resumo:
No hay duda de que el ferrocarril es uno de los símbolos del avance tecnológico y social de la humanidad, y su imparable avance desde el primer tercio del Siglo XIX así lo atestigua. No obstante, a lo largo de gran parte de su historia se ha mostrado algo renuente a abrazar ciertas tecnologías, lo que le ha causado ser tachado de conservador. Sin embargo, en los últimos años, coincidiendo con el auge masivo de los trenes de alta velocidad, los metropolitanos y los tranvías, muchas tecnologías han ido penetrando en el mundo del ferrocarril. La que hoy nos ocupa es una de las que mayor valor añadido le ha proporcionado (y que probablemente le proporcionará también en el futuro): las comunicaciones móviles. Actualmente el uso de este tipo de tecnologías en el entorno ferroviario puede calificarse como de inicial o, por seguir la nomenclatura de las comunicaciones móviles públicas, de segunda generación. El GSM-R en las líneas de alta velocidad es un caso (aunque de éxito al fin y al cabo) que define perfectamente el estado del arte de las comunicaciones móviles en este entorno, ya que proporcionó un gran valor añadido a costa de un gran esfuerzo de estandarización; ha supuesto un importante salto adelante en el campo de la fiabilidad de este tipo de sistemas, aunque tiene unas grandes limitaciones de capacidad y graves problemas de escalabilidad. Todo hace pensar que en 2025 el sustituto de GSM-R deberá estar en el mercado. En cualquier caso, se debería abandonar la filosofía de crear productos de nicho, que son extraordinariamente caros, y abrazar las filosofías abiertas de las redes de comunicaciones públicas. Aquí es donde LTE, la última gran estrella de esta familia de estándares, puede aportar mucho valor. La idea subyacente detrás de esta Tesis es que LTE puede ser una tecnología que aporte gran valor a las necesidades actuales (y probablemente futuras) del sector del ferrocarril, no solamente en las líneas y trenes de alta velocidad, sino en las denominadas líneas convencionales y en los metros y tranvías. Dado que es un campo aún a día de hoy que dista bastante de estar completamente estudiado, se ha explorado la problemática de la propagación electromagnética en los diferentes entornos ferroviarios, como pueden ser los túneles de metro y la influencia de las estructuras de los trenes. En este sentido, se ha medido de forma bastante exhaustiva en ambos entornos. Por otro lado, dado que los sistemas multiantena son uno de los pilares fundamentales de los modernos sistemas de comunicaciones, se ha verificado de forma experimental la viabilidad de esta tecnología a la hora de implementar un sistema de comunicaciones trentierra en un túnel. Asimismo, de resultas de estas medidas, se ha comprobado la existencia de ciertos fenómenos físicos que pueden suponer una merma en la eficiencia de este tipo de sistemas. En tercer lugar, y dado que uno de los grandes desafíos de las líneas de alta velocidad está provocado por la gran celeridad a la que se desplazan los trenes, se ha explorado la influencia de este parámetro en la eficiencia global de una red completa de comunicaciones móviles. Por supuesto, se ha hecho especial hincapié en los aspectos relacionados con la gestión de la movilidad (traspasos o handovers Por último, a modo de cierre de la Tesis, se ha tratado de identificar los futuros servicios de comunicaciones que aportarán más valor a las explotaciones ferroviarias, así como los requisitos que supondrán para las redes de comunicaciones móviles. Para los casos antes enunciados (propagación, sistemas multiantena, movilidad y desafíos futuros) se proporcionan las contribuciones ya publicadas en revistas y congresos internacionales, así como las que están enviadas para su revisión. ABSTRACT There is almost no doubt that railways are one of the symbols of the technological and social progress of humanity. However, most of the time railways have been somewhat reluctant to embrace new technologies, gaining some reputation of being conservative. But in the last years, together with the massive boom of high speed lines, subways and trams all over the world, some technologies have broken through these conservative resistance. The one which concerns us now is one of the most value-added (both today and in the future): mobile communications. The state-of-the-art of these technologies in the railway field could be called as incipient, or (following the mobile communications’ notation) ‘second generation’. GSM-R, the best example of mobile communications in railways is a success story that shows perfectly the state-of-the-art of this field: it provided a noticeable mark-up but also required a great standardization effort; it also meant a huge step forward in the reliability of these systems but it also needs to face some scalability issues and some capacity problems. It looks more than feasible that in 2025 the alternative to GSM-R should be already available. Anyway, the vision here should be forgetting about expensive niche products, and embracing open standards like public mobile communications do. The main idea behind this Thesis is that LTE could be a technology that provides a lot of added value to the necessities of the railways of today and the future. And not only to highspeed lines, but also to the so-called conventional rail, subways and tramways. Due to the fact that even today, propagation in tunnels and influence of car bodies is far from being full-studied, we measured in a very exhaustive way the EM propagation in these two environments. Also, multiantenna systems are one of the basic foundations of the modern communications systems, so we experimentally verified the feasibility of using such a system in a train-towayside in a tunnel. Moreover, from the measurements carried out we proved the existence of some physical phenomena that could imply a decrease in the performance of these multiantenna systems. In third place, we have explored the influence of high-speed in the whole performance of the network, from the mobility management point-of-view. This high-speed movement is one of the most relevant challenges for the mobile communications networks. The emphasis was placed on the mobility aspects of the radio resource management. Finally, the Thesis closure is an identification of the future communication services that could provide a bigger addition of value to railways, and also the requirements that imply to mobile communications networks. For all the previous for scenarios depicted before (propagation, multiantenna systems, mobility and challenges) we provide some contributions already published (or submitted for revision or still in progress) on publications and international conferences.
Resumo:
The Circular Mausoleum tomb in the Roman Necropolis of Carmona was carved on a calcarenite sequence in an ancient quarry located in the town of Carmona, Southern Spain. This rock-cut tomb, representative of Roman burial practices, currently suffers from serious deterioration. A detailed survey over several years permitted the identification of the main tomb's pathologies and damaging processes, which include loss of material (scaling, flaking, granular disintegration), surface modifications (efflorescences, crusts and deposits) and extensive biological colonization. The results obtained in this study indicated that anthropogenic changes were largely responsible and enhanced the main alteration mechanisms observed in the Circular Mausoleum. Based on the deterioration diagnosis, effective corrective actions were proposed. This study shows that any conservative intervention in the interior of the tomb should be preceded by accurate in situ measurements and laboratory analyses to ascribe the source of the deterioration damages and thus designing effective treatments.
Resumo:
Background. Low back pain is an increasing global health problem, which is associated with intervertebral disc (IVD) damage and degeneration. Major changes occur in the nucleus pulposus (NP), with the degradation of the extracellular matrix (ECM).1 Further studies showed that growth factors from transforming growth factor β (TGFβ) and bone morphogenic proteins (BMP) family may induce chondrogenic differentiation of mesenchymal stem cells (MSC).2 Focusing on non-viral gene therapies and their possible translation into the clinics, we investigated if GDF6 (syn. BMP13 or CDMP2) can induce regeneration of degraded NP. We hypothesized that IVD transfected with plasmid over-expressing GDF6 also up-regulates other NP- and chondrogenic cell markers and enhances ECM deposition. Methods. Bovine nucleus pulposus (bNPC) and annulus fibrosus cells (bAFC) were harvested from bovine coccygeal IVD. Primary cells were then electroporized with plasmid GDF6 (Origene, vector RG211366) by optimizing parameters using the Neon Transfection system (Life Technologies, Basel). After transfection, cells were cultured in 2D monolayer or 3D alginate beads for 7, 14 or 21 days. Transfection efficiency of pGDF6 was analyzed by immunohistochemistry and fluorescent microscopy. Cell phenotype was quantified by real-time RT-PCR. To test a non-viral gene therapy applied directly to 3D whole organ culture, coccygeal bovine IVDs were harvested as previously described. Bovine IVDs were transfected by injection of plasmid GDF6 into the center. Electroporation was performed with ECM830 Square Wave Electroporation System (Harvard Apparatus, MA) using 2-needle array electrode or tweezertrodes. 72 h after tranfection discs were fixed and cryosectioned and analyzed by immunofluorescence against GDF6. Results. RT-PCR and immunohistochemistry confirmed up-regulation of GFP and GDF6 in the primary bNPC/bAFC culture. The GFP-tagged GDF6 protein, however, was not visible, possibly due to failure of dimer formation as a result of fusion structure. Organ IVD culture transfection revealed GDF6 positive staining in the center of the disc using 2-needle array electrode. Results from tweezertrodes did not show any GDF6 positive cells. Conclusion. Non-viral transfection is an appealing approach for gene therapy as it fulfills the translational safety aspects of transiency and lacks the toxic effects of viral transduction. We identified novel parameters to successfully transfect primary bovine IVD cells. For transfection of whole IVD explants electroporation parameters need to be further optimized. Acknowledgements. This project was funded by the Lindenhof Foundation (Funds “Research & Teaching”) Project no. 13-02-F. The imaging part of this study was performed with the facility of the Microscopy Imaging Center (MIC), University of Bern. References. Roughly PJ (2004): Spine (Phila), 29:2691-2699 Clarke LE, McConell JC, Sherratt MJ, Derby B, Richardson SM, Hoyland JA (2014), Arthritis Research & Therapy, 16:R67
Resumo:
A partir del análisis de normativas universitarias, bibliografía especializada y fundamentalmente fuentes documentales y testimoniales, este artículo aborda la trama del sector universitario privado durante el complejo interregno que significaron los años setentas para la historia reciente Argentina. Observaremos que tras el reingreso del peronismo al poder del Estado en 1973, la alta sustentabilidad adquirida por el sector en años anteriores fue puesta en jaque: conflictos estudiantiles, intervenciones políticas y un crecimiento institucional refrenado, fueron algunos de sus rasgos distintivos. En cuanto a la última dictadura militar (1976-1983), abrió una contradictoria etapa de desarrollo para las universidades privadas. Pese a la alternancia de católicos conservadores en el área educativa y al sesgo privatista identificado como un hito del modelo económico implementado, el sector privado resultó contraído en el marco del avasallamiento más brutal del sistema universitario en su conjunto. Sin embargo, algunas universidades católicas resultaron beneficiadas con importantes estímulos económicos.
Resumo:
"Sole American issue of the original Schott edition."