933 resultados para macroscopic traffic flow models


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ambient concentrations of trace elements with 2 h time resolution were measured in PM10–2.5, PM2.5–1.0 and PM1.0–0.3 size ranges at kerbside, urban background and rural sites in London during winter 2012. Samples were collected using rotating drum impactors (RDIs) and subsequently analysed with synchrotron radiation-induced X-ray fluorescence spectrometry (SR-XRF). Quantification of kerb and urban increments (defined as kerb-to-urban and urban-to-rural concentration ratios, respectively), and assessment of diurnal and weekly variability provided insight into sources governing urban air quality and the effects of urban micro-environments on human exposure. Traffic-related elements yielded the highest kerb increments, with values in the range of 10.4 to 16.6 for SW winds (3.3–6.9 for NE) observed for elements influenced by brake wear (e.g. Cu, Sb, Ba) and 5.7 to 8.2 for SW (2.6–3.0 for NE) for other traffic-related processes (e.g. Cr, Fe, Zn). Kerb increments for these elements were highest in the PM10–2.5 mass fraction, roughly twice that of the PM1.0–0.3 fraction. These elements also showed the highest urban increments (~ 3.0), although no difference was observed between brake wear and other traffic-related elements. All elements influenced by traffic exhibited higher concentrations during morning and evening rush hours, and on weekdays compared to weekends, with the strongest trends observed at the kerbside site, and additionally enhanced by winds coming directly from the road, consistent with street canyon effects. Elements related to mineral dust (e.g. Al, Si, Ca, Sr) showed significant influences from traffic-induced resuspension, as evidenced by moderate kerb (3.4–5.4 for SW, 1.7–2.3 for NE) and urban (~ 2) increments and increased concentrations during peak traffic flow. Elements related to regional transport showed no significant enhancement at kerb or urban sites, with the exception of PM10–2.5 sea salt (factor of up to 2), which may be influenced by traffic-induced resuspension of sea and/or road salt. Heavy-duty vehicles appeared to have a larger effect than passenger vehicles on the concentrations of all elements influenced by resuspension (including sea salt) and wearing processes. Trace element concentrations in London were influenced by both local and regional sources, with coarse and intermediate fractions dominated by traffic-induced resuspension and wearing processes and fine particles influenced by regional transport.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This article describes and compares three heuristics for a variant of the Steiner tree problem with revenues, which includes budget and hop constraints. First, a greedy method which obtains good approximations in short computational times is proposed. This initial solution is then improved by means of a destroy-and-repair method or a tabu search algorithm. Computational results compare the three methods in terms of accuracy and speed. (C) 2007 Elsevier B.V. All rights reserved.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The current system of controlling oil spills involves a complex relationship of international, federal and state law, which has not proven to be very effective. The multiple layers of regulation often leave shipowners unsure of the laws facing them. Furthemore, nations have had difficulty enforcing these legal requirements. This thesis deals with the role marine insurance can play within the existing system of legislation to provide a strong preventative influence that is simple and cost-effective to enforce. In principle, insurance has two ways of enforcing higher safety standards and limiting the risk of an accident occurring. The first is through the use of insurance premiums that are based on the level of care taken by the insured. This means that a person engaging in riskier behavior faces a higher insurance premium, because their actions increase the probability of an accident occurring. The second method, available to the insurer, is collectively known as cancellation provisions or underwriting clauses. These are clauses written into an insurance contract that invalidates the agreement when certain conditions are not met by the insured The problem has been that obtaining information about the behavior of an insured party requires monitoring and that incurs a cost to the insurer. The application of these principles proves to be a more complicated matter. The modern marine insurance industry is a complicated system of multiple contracts, through different insurers, that covers the many facets of oil transportation. Their business practices have resulted in policy packages that cross the neat bounds of individual, specific insurance coverage. This paper shows that insurance can improve safety standards in three general areas -crew training, hull and equipment construction and maintenance, and routing schemes and exclusionary zones. With crew, hull and equipment, underwriting clauses can be used to ensure that minimum standards are met by the insured. Premiums can then be structured to reflect the additional care taken by the insured above and beyond these minimum standards. Routing schemes are traffic flow systems applied to congested waterways, such as the entrance to New York harbor. Using natural obstacles or manmade dividers, ships are separated into two lanes of opposing traffic, similar to a road. Exclusionary zones are marine areas designated off limits to tanker traffic either because of a sensitive ecosystem or because local knowledge is required of the region to ensure safe navigation. Underwriting clauses can be used to nullify an insurance contract when a tanker is not in compliance with established exclusionary zones or routing schemes.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O reservatório da UHE Coaracy Nunes no rio Araguari esta localizado entre os municípios de Ferreira Gomes e Porto Grande no estado do Amapá-Brasil, distando 200 km do Oceano Atlântico. A usina Coaracy Nunes foi a primeira hidrelétrica a ser construída na Amazônia brasileira, tendo suas obras iniciadas em 1967. O rio Araguari e o principal rio do estado do Amapá e representa fonte de geração de renda através da pesca, atividades agropecuárias em sua várzea, navegação, mineração, geração de energia e lazer. O presente estudo teve por objetivo avaliar as alterações impostas pela construção do reservatório da UHE Coaracy Nunes, através das assembleias de peixes de quatro áreas de influencia direta desta usina. Para isso, no período de maio de 2009 a julho de 2010, foram realizadas coletas bimensais, de peixes, com redes de malhas padronizadas variando de 1,0 a 10,0 cm entre nos adjacentes e outras técnicas auxiliares. A partir destas coletas, no capitulo 1 foi verificado a composição, abundancia (CPUEn) e biomassa (CPUEp) relativas da ictiofauna, eficiência amostral (curva do coletor, curva de rarefação e Jacknife) e descritores ecológicos de comunidades (riqueza, diversidade, equitabilidade e dominância) das assembleias das quatro áreas. Foram efetuadas analises de variância (ANOVA: bifatorial), Kruskal-Wallis, teste-T e Mann-Whitney para verificar se havia diferenças significativas dos descritores entre as áreas e períodos sazonais. Estas análises foram corroboradas por analises multivariadas de agrupamento (cluster), ordenamento (MDS), Anosim e Simper. No capitulo 2, os estados ecológicos das quatro áreas foram verificados utilizando como indicadores: curvas espécie abundancia, curvas K-dominância e curvas ABC, assim como modelos espécie-abundancia serie geométrica, log serie, log normal e broken stick, e modelo de regressão linear de espectros de tamanho. No capitulo 3, a estrutura trófica foi estimada a partir da categorização das espécies de cada área em 5 guildas: piscívora, onívora, detritívora, carnívora e herbívora. A abundancia, biomassa e índices ecológicos destas guildas foram estimados e verificados suas variações espaço-temporais, por analises de variância (ANOVA: bifatorial e Kruskal-Wallis) e teste t. No capitulo 4, a dieta das espécies mais abundantes das assembleias de cada área foi verificada e suas variações espaço-temporais detectadas por analise de variância (ANOVA: bifatorial e Kruskal-Wallis). Também foram estimados a amplitude e sobreposição de nicho das espécies mais abundantes, assim como a existência de competição entre as espécies através de modelagem nula. No capitulo 5 foi realizada a avaliação ecossistêmica das quatro áreas através de modelos de fluxo de biomassa na rede trófica do ecossistema, usando como instrumento de modelação o software Ecopath. Essas análises tinham por objetivo descrever as variações dos atributos ecológicos que quantificam as propriedades de maturidade, estabilidade e resiliência ecossistêmica que pudessem refletir os estados ecológicos dessas áreas. O modelo incluiu compartimentos funcionais desde produtores primários ate predadores de topo. No geral, todas as análises indicaram sensíveis alterações na ictiofauna atribuídas a implantação da UHE Coaracy Nunes, que se refletem nos três níveis de organização: ecossistema, comunidade (assembleia) e guilda. Os resultados indicaram a captura de 1.977 peixes distribuídos em 2 classes, 9 ordens, 23 famílias, 73 gêneros e 108 espécies. As curvas de acumulação de espécies e curvas de rarefação individualizadas demonstraram que houve suficiência amostral nas áreas Reservatório e Lacustre. Os resultados mostraram que a área Jusante foi mais rica, diversa e equitativa em relação as demais e que a sazonalidade não influenciou na variação destes índices. A abundancia relativa (CPUEn) foi superior nas áreas Reservatório e Lacustre e a biomassa relativa (CPUEb) foi superior na área Jusante, não havendo diferenças sazonais para esses descritores em todas as áreas. As analises de agrupamento (cluster) e ordenamento (MDS) da ictiofauna permitiram identificar a formação de três assembleias distintas: Jusante, Montante e uma assembleia que compreende as áreas Reservatório e Lacustre, ratificando a similaridade dessas duas áreas. Os resultados das curvas whitakeplot, ABC e K-dominância, assim como o ajuste satisfatório do modelo broken stick e os padrões das curvas de espectro de tamanho para a assembleia da área a jusante indicam que esta área foi a mais equilibrada em termos ecológicos. Nas áreas Lacustre e Reservatório, os resultados tanto do ajuste ao modelo serie geométrica, quanto os resultados das curvas whitake-plot, ABC e K-dominância e o espectro de tamanho, assim como os resultados das curvas e ajustes ao modelo série e menor espectro de tamanho para a assembleia da área Reservatório, refletem que os peixes destas áreas, em sua maioria, são indivíduos pequenos com elevada dominância e baixa equitabilidade, caracterizando comunidades típicas de áreas impactadas. A estrutura trófica das assembleias de peixes das áreas represadas (Reservatório e Lacustre) foram formatadas em função do barramento do rio, que isolou e fragmentou o ambiente, determinando sua modificação física, impondo o estabelecimento de uma ictiofauna de espécies pré-adaptadas as condições ambientais de represamento, diferente, em parte, da estrutura da ictiofauna fluvial pre-barramento, destacando as piscívoras, onívoras e detritívoras, que foram as mais ricas e abundantes em função da disponibilidade, nas duas áreas, dos recursos alimentares de sua preferencia. Os resultados demonstraram que as dietas das assembleias de todas as áreas foram similares quanto ao predomínio do consumo de peixes e detritos, seguidos de alimento vegetal aloctone, revelando um padrão com poucos nichos amplos e uma concentração maior de espécies com nichos mais estreitos. Contudo, o padrão de baixa amplitude trófica foi evidenciado pelo predomínio da guilda piscívora, somada as guildas detritívora e herbívora. A sazonalidade pouco influenciou na alimentação da maioria das espécies em todas as áreas. Os padrões comparativos da dieta entre as áreas Montante e Jusante com as áreas Reservatório e Lacustre indicam que a maioria das espécies das áreas represadas pertenciam as guildas piscívora, onívora e detritívora antes do barramento do rio, que colonizaram estes ambientes, influenciadas, principalmente, pela abundancia dos recursos alimentares de suas preferencias e das condições físicas ambientais favoráveis. Interações competitivas foram evidenciadas pelos modelos nulos, sugerindo que a competição também foi um fator importante na estruturação das assembleias. Ecossistemicamente, os quatro modelos de fluxo de biomassa representam ecossistemas com elevada produção primaria oriunda da floresta riparia e algas filamentosas, que são utilizadas parcialmente. A cadeia trófica baseada em detrito apresentou ser mais importante que a que tem como base a produção primaria nas áreas Reservatório e Lacustre. A maioria dos fluxos ocorre nos compartimentos de níveis tróficos baixos. As propriedades ecossistêmicas da área Jusante indicam que este ambiente se encontra mais desenvolvido e maduro em relação aos outros, caracterizado por resiliência e entropia altas. As áreas represadas (Reservatório e Lacustre) apresentaram atributos ecossistêmicos que lhe conferiram características de menos resiliente e menos maduro que as áreas de rio. A área Montante apresentou um padrão intermediário de resiliência, estabilidade e maturidade. Esses resultados evidenciam que apos quarenta anos da construção da barragem do reservatório de Coaracy Nunes, a fragmentação do ambiente proporcionou alterações ecossistêmicas negativas, refletidas nas assembleias de peixes das áreas acima do barramento e na analise ecossistêmica, evidenciando que a área jusante apresenta características de ambiente em bom estado ecológico, com baixa alteração de origem antrópica e capaz de suportar distúrbios.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The development of medium-sized cities in recent decade, caused, partly, by the industrial deconcentration process generated, beyond benefits, several problems for these cities population. The unplanned rapid growth of these cities, together with the capitalist model of production collaborated for the increase of socioeconomics questions in these locations. The urban mobility became one of these problems, embarrassing citizen’s lives, especially in downtown area. Therefore, the State began looking for solutions to improve urban mobility of the population, contributing to their quality of life and also to adapt the city to new market demand. In these work, we analyzed the situation of Brazilian medium-sized cities downtown area, as well as its growth process, tanking as an example the case of the city of Rio Claro – SP and it´s Public Administration proposal to improve the flow and urban mobility in a particular street in the town´s commercial centre

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Thema: Quantifizierung von Steinschlagrisiken an Straßen Die Einschätzung eines bestehenden Steinschlagrisikos an Verkehrswegen ist in Gebirgs- und Mittelgebirgsregionen seit jeher eine Aufgabe, die mit verschiedensten Methoden und unterschiedlichem Aufwand bearbeitet wird. In der vorliegenden Untersuchung werden die maßgebenden Parameter zur Beschreibung einer Böschung aufgenommen und bewertet. Es wurde ein Arbeitsblatt entwickelt, in dem festgelegte Parameter erfasst werden, die teils mit Ankreuztechnik, teils mit der Eingabe von Daten, im Computer notiert werden. Das Arbeitsblatt umfasst vier Themenbereiche: Allgemeine Daten, Angaben zur Geometrie der Böschung, Angaben zum Verkehr und Angaben zum Gestein und Gebirge. Ein Computerprogramm, das auf der Basis der Software Excel von Microsoft erstellt wurde, vergibt nach der Dateneingabe Bewertungspunkte (1. Bewertungsschritt). Es werden Summen gebildet und die Teilbereiche bewertet (2. Bewertungsschritt). Jeder Teilbereich besitzt drei Bewertungsklassen. Die Verknüpfung der Bewertung der Teilbereiche Geometrische Angaben und Angaben zum Gestein und Gebirge stellt die eigentliche Risikoeinschätzung dar (3. Bewertungsschritt). Es gibt drei Einstufungen zur Beschreibung des Risikos: ð Der Verkehr ist durch Steinschlag sehr gering gefährdet. ð Der Verkehr ist durch Steinschlag gering gefährdet. Eine Detailüberprüfung muss erfolgen, da eine Gefährdung nicht auszuschließen ist. ð Der Verkehr ist gefährdet. Es besteht ein hohes Steinschlagrisiko. Bewertungen und Hinweise zu den Teilbereichen Allgemeine Daten und Angaben zum Verkehr kann der Anwender nach eigenem Ermessen zusätzlich nutzen. Die abschließende Risikoeinschätzung erfolgt durch den Anwender bzw. einen Sachverständigen.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In una situazione caratterizzata dalla scarsità delle risorse finanziare a disposizione degli enti locali, che rende necessario il contributo dei privati alla realizzazione delle opere pubbliche, e dalla scarsità delle risorse ambientali, che impone di perseguire la sostenibilità degli interventi, la tesi si pone l’obiettivo di rendere le realizzazioni di nuove infrastrutture viarie “attive” rispetto al contesto in cui si collocano, garantendo l’impegno di tutte parti coinvolte. Si tratta di ottenere il contributo dei privati oltre che per le opere di urbanizzazione primaria, funzionali all’insediamento stesso, anche per la realizzazione di infrastrutture viarie non esclusivamente dedicate a questo, ma che sono necessarie per garantirne la sostenibilità. Tale principio, che viene anche denominato “contributo di sostenibilità”, comincia oggi a trovare un’applicazione nelle pratiche urbanistiche, sconta ancora alcune criticità, in quanto i casi sviluppati si basano spesso su considerazioni che si prestano a contenziosi tra operatori privati e pubblica amministrazione. Ponendosi come obiettivo la definizione di una metodologia di supporto alla negoziazione per la determinazione univoca e oggettiva del contributo da chiedere agli attuatori delle trasformazioni per la realizzazione di nuove infrastrutture viarie, ci si è concentrati sullo sviluppo di un metodo operativo basato sull’adozione dei modelli di simulazione del traffico a 4 stadi. La metodologia proposta è stata verificata attraverso l’applicazione ad un caso di studio, che riguarda la realizzazione di un nuovo asse viario al confine tra i comuni di Castel Maggiore ed Argelato. L’asse, indispensabile per garantire l’accessibilità alle nuove aree di trasformazione che interessano quel quadrante, permette anche di risolvere alcune criticità viabilistiche attualmente presenti. Il tema affrontato quindi è quello della determinazione del contributo che ciascuno degli utilizzatori del nuovo asse dovrà versare al fine di consentirne la realizzazione. In conclusione, si formulano alcune considerazioni sull’utilità della metodologia proposta e sulla sua applicabilità a casi analoghi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Karst aquifers are known for their wide distribution of water transfer velocities. From this observation, a multiple geochemical tracer approach seems to be particularly well suited to provide a significant assessment of groundwater flows, but the choice of adapted tracers is essential. In this study, several common tracers in karst aquifers such as physicochemical parameters, major ions, stable isotopes, and d13C to more specific tracers such as dating tracers – 14C, 3H, 3H–3He, CFC-12, SF6 and 85Kr, and 39Ar – were used, in a fractured karstic carbonated aquifer located in Burgundy (France). The information carried by each tracer and the best sampling strategy are compared on the basis of geochemical monitoring done during several recharge events and over longer time periods (months to years). This study’s results demonstrate that at the seasonal and recharge event time scale, the variability of concentrations is low for most tracers due to the broad spectrum of groundwater mixings. The tracers used traditionally for the study of karst aquifers, i.e., physicochemical parameters and major ions, efficiently describe hydrological processes such as the direct and differed recharge, but require being monitored at short time steps during recharge events to be maximized. From stable isotopes, tritium, and Cl� contents, the proportion of the fast direct recharge by the largest porosity was estimated using a binary mixing model. The use of tracers such as CFC-12, SF6, and 85Kr in karst aquifers provides additional information, notably an estimation of apparent age, but they require good preliminary knowledge of the karst system to interpret the results suitably. The CFC-12 and SF6 methods efficiently determine the apparent age of baseflow, but it is preferable to sample the groundwater during the recharge event. Furthermore, these methods are based on different assumptions such as regional enrichment in atmospheric SF6, excess air, and flow models among others. 85Kr and 39Ar concentrations can potentially provide a more direct estimation of groundwater residence time. Conversely, the 3H–3He method is inefficient in the karst aquifer for dating due to 3He degassing.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabajo, de tipo descriptivo exploratorio, se propone efectuar un análisis de una serie de repositorios cooperativos pertenecientes a instituciones académicas de América Latina. Hace hincapié en la importancia de la cooperación como práctica de larga data en el ámbito de las bibliotecas, muchas de las cuales se han convertido en líderes o partícipes importantes tanto en la implementación como en el desarrollo de los repositorios en sus respectivas instituciones. Se toman en consideración los flujos informacionales que los atraviesan a fin de conocer cómo se delinean y desarrollan en el marco de instituciones académicas de cierta envergadura y complejidad, a través de un análisis de documentación. Se resaltan los modelos de flujos de información detectados en dichos repositorios cooperativos y cómo estos, desde su singularidad, favorecen la visibilidad y la difusión del conocimiento académico y científico existente en formato digital

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabajo, de tipo descriptivo exploratorio, se propone efectuar un análisis de una serie de repositorios cooperativos pertenecientes a instituciones académicas de América Latina. Hace hincapié en la importancia de la cooperación como práctica de larga data en el ámbito de las bibliotecas, muchas de las cuales se han convertido en líderes o partícipes importantes tanto en la implementación como en el desarrollo de los repositorios en sus respectivas instituciones. Se toman en consideración los flujos informacionales que los atraviesan a fin de conocer cómo se delinean y desarrollan en el marco de instituciones académicas de cierta envergadura y complejidad, a través de un análisis de documentación. Se resaltan los modelos de flujos de información detectados en dichos repositorios cooperativos y cómo estos, desde su singularidad, favorecen la visibilidad y la difusión del conocimiento académico y científico existente en formato digital

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabajo, de tipo descriptivo exploratorio, se propone efectuar un análisis de una serie de repositorios cooperativos pertenecientes a instituciones académicas de América Latina. Hace hincapié en la importancia de la cooperación como práctica de larga data en el ámbito de las bibliotecas, muchas de las cuales se han convertido en líderes o partícipes importantes tanto en la implementación como en el desarrollo de los repositorios en sus respectivas instituciones. Se toman en consideración los flujos informacionales que los atraviesan a fin de conocer cómo se delinean y desarrollan en el marco de instituciones académicas de cierta envergadura y complejidad, a través de un análisis de documentación. Se resaltan los modelos de flujos de información detectados en dichos repositorios cooperativos y cómo estos, desde su singularidad, favorecen la visibilidad y la difusión del conocimiento académico y científico existente en formato digital

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Abstract The proliferation of wireless sensor networks and the variety of envisioned applications associated with them has motivated the development of distributed algorithms for collaborative processing over networked systems. One of the applications that has attracted the attention of the researchers is that of target localization where the nodes of the network try to estimate the position of an unknown target that lies within its coverage area. Particularly challenging is the problem of estimating the target’s position when we use received signal strength indicator (RSSI) due to the nonlinear relationship between the measured signal and the true position of the target. Many of the existing approaches suffer either from high computational complexity (e.g., particle filters) or lack of accuracy. Further, many of the proposed solutions are centralized which make their application to a sensor network questionable. Depending on the application at hand and, from a practical perspective it could be convenient to find a balance between localization accuracy and complexity. Into this direction we approach the maximum likelihood location estimation problem by solving a suboptimal (and more tractable) problem. One of the main advantages of the proposed scheme is that it allows for a decentralized implementation using distributed processing tools (e.g., consensus and convex optimization) and therefore, it is very suitable to be implemented in real sensor networks. If further accuracy is needed an additional refinement step could be performed around the found solution. Under the assumption of independent noise among the nodes such local search can be done in a fully distributed way using a distributed version of the Gauss-Newton method based on consensus. Regardless of the underlying application or function of the sensor network it is al¬ways necessary to have a mechanism for data reporting. While some approaches use a special kind of nodes (called sink nodes) for data harvesting and forwarding to the outside world, there are however some scenarios where such an approach is impractical or even impossible to deploy. Further, such sink nodes become a bottleneck in terms of traffic flow and power consumption. To overcome these issues instead of using sink nodes for data reporting one could use collaborative beamforming techniques to forward directly the generated data to a base station or gateway to the outside world. In a dis-tributed environment like a sensor network nodes cooperate in order to form a virtual antenna array that can exploit the benefits of multi-antenna communications. In col-laborative beamforming nodes synchronize their phases in order to add constructively at the receiver. Some of the inconveniences associated with collaborative beamforming techniques is that there is no control over the radiation pattern since it is treated as a random quantity. This may cause interference to other coexisting systems and fast bat-tery depletion at the nodes. Since energy-efficiency is a major design issue we consider the development of a distributed collaborative beamforming scheme that maximizes the network lifetime while meeting some quality of service (QoS) requirement at the re¬ceiver side. Using local information about battery status and channel conditions we find distributed algorithms that converge to the optimal centralized beamformer. While in the first part we consider only battery depletion due to communications beamforming, we extend the model to account for more realistic scenarios by the introduction of an additional random energy consumption. It is shown how the new problem generalizes the original one and under which conditions it is easily solvable. By formulating the problem under the energy-efficiency perspective the network’s lifetime is significantly improved. Resumen La proliferación de las redes inalámbricas de sensores junto con la gran variedad de posi¬bles aplicaciones relacionadas, han motivado el desarrollo de herramientas y algoritmos necesarios para el procesado cooperativo en sistemas distribuidos. Una de las aplicaciones que suscitado mayor interés entre la comunidad científica es la de localization, donde el conjunto de nodos de la red intenta estimar la posición de un blanco localizado dentro de su área de cobertura. El problema de la localization es especialmente desafiante cuando se usan niveles de energía de la seal recibida (RSSI por sus siglas en inglés) como medida para la localization. El principal inconveniente reside en el hecho que el nivel de señal recibida no sigue una relación lineal con la posición del blanco. Muchas de las soluciones actuales al problema de localization usando RSSI se basan en complejos esquemas centralizados como filtros de partículas, mientas que en otras se basan en esquemas mucho más simples pero con menor precisión. Además, en muchos casos las estrategias son centralizadas lo que resulta poco prácticos para su implementación en redes de sensores. Desde un punto de vista práctico y de implementation, es conveniente, para ciertos escenarios y aplicaciones, el desarrollo de alternativas que ofrezcan un compromiso entre complejidad y precisión. En esta línea, en lugar de abordar directamente el problema de la estimación de la posición del blanco bajo el criterio de máxima verosimilitud, proponemos usar una formulación subóptima del problema más manejable analíticamente y que ofrece la ventaja de permitir en¬contrar la solución al problema de localization de una forma totalmente distribuida, convirtiéndola así en una solución atractiva dentro del contexto de redes inalámbricas de sensores. Para ello, se usan herramientas de procesado distribuido como los algorit¬mos de consenso y de optimización convexa en sistemas distribuidos. Para aplicaciones donde se requiera de un mayor grado de precisión se propone una estrategia que con¬siste en la optimización local de la función de verosimilitud entorno a la estimación inicialmente obtenida. Esta optimización se puede realizar de forma descentralizada usando una versión basada en consenso del método de Gauss-Newton siempre y cuando asumamos independencia de los ruidos de medida en los diferentes nodos. Independientemente de la aplicación subyacente de la red de sensores, es necesario tener un mecanismo que permita recopilar los datos provenientes de la red de sensores. Una forma de hacerlo es mediante el uso de uno o varios nodos especiales, llamados nodos “sumidero”, (sink en inglés) que actúen como centros recolectores de información y que estarán equipados con hardware adicional que les permita la interacción con el exterior de la red. La principal desventaja de esta estrategia es que dichos nodos se convierten en cuellos de botella en cuanto a tráfico y capacidad de cálculo. Como alter¬nativa se pueden usar técnicas cooperativas de conformación de haz (beamforming en inglés) de manera que el conjunto de la red puede verse como un único sistema virtual de múltiples antenas y, por tanto, que exploten los beneficios que ofrecen las comu¬nicaciones con múltiples antenas. Para ello, los distintos nodos de la red sincronizan sus transmisiones de manera que se produce una interferencia constructiva en el recep¬tor. No obstante, las actuales técnicas se basan en resultados promedios y asintóticos, cuando el número de nodos es muy grande. Para una configuración específica se pierde el control sobre el diagrama de radiación causando posibles interferencias sobre sis¬temas coexistentes o gastando más potencia de la requerida. La eficiencia energética es una cuestión capital en las redes inalámbricas de sensores ya que los nodos están equipados con baterías. Es por tanto muy importante preservar la batería evitando cambios innecesarios y el consecuente aumento de costes. Bajo estas consideraciones, se propone un esquema de conformación de haz que maximice el tiempo de vida útil de la red, entendiendo como tal el máximo tiempo que la red puede estar operativa garantizando unos requisitos de calidad de servicio (QoS por sus siglas en inglés) que permitan una decodificación fiable de la señal recibida en la estación base. Se proponen además algoritmos distribuidos que convergen a la solución centralizada. Inicialmente se considera que la única causa de consumo energético se debe a las comunicaciones con la estación base. Este modelo de consumo energético es modificado para tener en cuenta otras formas de consumo de energía derivadas de procesos inherentes al funcionamiento de la red como la adquisición y procesado de datos, las comunicaciones locales entre nodos, etc. Dicho consumo adicional de energía se modela como una variable aleatoria en cada nodo. Se cambia por tanto, a un escenario probabilístico que generaliza el caso determinista y se proporcionan condiciones bajo las cuales el problema se puede resolver de forma eficiente. Se demuestra que el tiempo de vida de la red mejora de forma significativa usando el criterio propuesto de eficiencia energética.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nowadays, Computational Fluid Dynamics (CFD) solvers are widely used within the industry to model fluid flow phenomenons. Several fluid flow model equations have been employed in the last decades to simulate and predict forces acting, for example, on different aircraft configurations. Computational time and accuracy are strongly dependent on the fluid flow model equation and the spatial dimension of the problem considered. While simple models based on perfect flows, like panel methods or potential flow models can be very fast to solve, they usually suffer from a poor accuracy in order to simulate real flows (transonic, viscous). On the other hand, more complex models such as the full Navier- Stokes equations provide high fidelity predictions but at a much higher computational cost. Thus, a good compromise between accuracy and computational time has to be fixed for engineering applications. A discretisation technique widely used within the industry is the so-called Finite Volume approach on unstructured meshes. This technique spatially discretises the flow motion equations onto a set of elements which form a mesh, a discrete representation of the continuous domain. Using this approach, for a given flow model equation, the accuracy and computational time mainly depend on the distribution of nodes forming the mesh. Therefore, a good compromise between accuracy and computational time might be obtained by carefully defining the mesh. However, defining an optimal mesh for complex flows and geometries requires a very high level expertize in fluid mechanics and numerical analysis, and in most cases a simple guess of regions of the computational domain which might affect the most the accuracy is impossible. Thus, it is desirable to have an automatized remeshing tool, which is more flexible with unstructured meshes than its structured counterpart. However, adaptive methods currently in use still have an opened question: how to efficiently drive the adaptation ? Pioneering sensors based on flow features generally suffer from a lack of reliability, so in the last decade more effort has been made in developing numerical error-based sensors, like for instance the adjoint-based adaptation sensors. While very efficient at adapting meshes for a given functional output, the latter method is very expensive as it requires to solve a dual set of equations and computes the sensor on an embedded mesh. Therefore, it would be desirable to develop a more affordable numerical error estimation method. The current work aims at estimating the truncation error, which arises when discretising a partial differential equation. These are the higher order terms neglected in the construction of the numerical scheme. The truncation error provides very useful information as it is strongly related to the flow model equation and its discretisation. On one hand, it is a very reliable measure of the quality of the mesh, therefore very useful in order to drive a mesh adaptation procedure. On the other hand, it is strongly linked to the flow model equation, so that a careful estimation actually gives information on how well a given equation is solved, which may be useful in the context of _ -extrapolation or zonal modelling. The following work is organized as follows: Chap. 1 contains a short review of mesh adaptation techniques as well as numerical error prediction. In the first section, Sec. 1.1, the basic refinement strategies are reviewed and the main contribution to structured and unstructured mesh adaptation are presented. Sec. 1.2 introduces the definitions of errors encountered when solving Computational Fluid Dynamics problems and reviews the most common approaches to predict them. Chap. 2 is devoted to the mathematical formulation of truncation error estimation in the context of finite volume methodology, as well as a complete verification procedure. Several features are studied, such as the influence of grid non-uniformities, non-linearity, boundary conditions and non-converged numerical solutions. This verification part has been submitted and accepted for publication in the Journal of Computational Physics. Chap. 3 presents a mesh adaptation algorithm based on truncation error estimates and compares the results to a feature-based and an adjoint-based sensor (in collaboration with Jorge Ponsín, INTA). Two- and three-dimensional cases relevant for validation in the aeronautical industry are considered. This part has been submitted and accepted in the AIAA Journal. An extension to Reynolds Averaged Navier- Stokes equations is also included, where _ -estimation-based mesh adaptation and _ -extrapolation are applied to viscous wing profiles. The latter has been submitted in the Proceedings of the Institution of Mechanical Engineers, Part G: Journal of Aerospace Engineering. Keywords: mesh adaptation, numerical error prediction, finite volume Hoy en día, la Dinámica de Fluidos Computacional (CFD) es ampliamente utilizada dentro de la industria para obtener información sobre fenómenos fluidos. La Dinámica de Fluidos Computacional considera distintas modelizaciones de las ecuaciones fluidas (Potencial, Euler, Navier-Stokes, etc) para simular y predecir las fuerzas que actúan, por ejemplo, sobre una configuración de aeronave. El tiempo de cálculo y la precisión en la solución depende en gran medida de los modelos utilizados, así como de la dimensión espacial del problema considerado. Mientras que modelos simples basados en flujos perfectos, como modelos de flujos potenciales, se pueden resolver rápidamente, por lo general aducen de una baja precisión a la hora de simular flujos reales (viscosos, transónicos, etc). Por otro lado, modelos más complejos tales como el conjunto de ecuaciones de Navier-Stokes proporcionan predicciones de alta fidelidad, a expensas de un coste computacional mucho más elevado. Por lo tanto, en términos de aplicaciones de ingeniería se debe fijar un buen compromiso entre precisión y tiempo de cálculo. Una técnica de discretización ampliamente utilizada en la industria es el método de los Volúmenes Finitos en mallas no estructuradas. Esta técnica discretiza espacialmente las ecuaciones del movimiento del flujo sobre un conjunto de elementos que forman una malla, una representación discreta del dominio continuo. Utilizando este enfoque, para una ecuación de flujo dado, la precisión y el tiempo computacional dependen principalmente de la distribución de los nodos que forman la malla. Por consiguiente, un buen compromiso entre precisión y tiempo de cálculo se podría obtener definiendo cuidadosamente la malla, concentrando sus elementos en aquellas zonas donde sea estrictamente necesario. Sin embargo, la definición de una malla óptima para corrientes y geometrías complejas requiere un nivel muy alto de experiencia en la mecánica de fluidos y el análisis numérico, así como un conocimiento previo de la solución. Aspecto que en la mayoría de los casos no está disponible. Por tanto, es deseable tener una herramienta que permita adaptar los elementos de malla de forma automática, acorde a la solución fluida (remallado). Esta herramienta es generalmente más flexible en mallas no estructuradas que con su homóloga estructurada. No obstante, los métodos de adaptación actualmente en uso todavía dejan una pregunta abierta: cómo conducir de manera eficiente la adaptación. Sensores pioneros basados en las características del flujo en general, adolecen de una falta de fiabilidad, por lo que en la última década se han realizado grandes esfuerzos en el desarrollo numérico de sensores basados en el error, como por ejemplo los sensores basados en el adjunto. A pesar de ser muy eficientes en la adaptación de mallas para un determinado funcional, este último método resulta muy costoso, pues requiere resolver un doble conjunto de ecuaciones: la solución y su adjunta. Por tanto, es deseable desarrollar un método numérico de estimación de error más asequible. El presente trabajo tiene como objetivo estimar el error local de truncación, que aparece cuando se discretiza una ecuación en derivadas parciales. Estos son los términos de orden superior olvidados en la construcción del esquema numérico. El error de truncación proporciona una información muy útil sobre la solución: es una medida muy fiable de la calidad de la malla, obteniendo información que permite llevar a cabo un procedimiento de adaptación de malla. Está fuertemente relacionado al modelo matemático fluido, de modo que una estimación precisa garantiza la idoneidad de dicho modelo en un campo fluido, lo que puede ser útil en el contexto de modelado zonal. Por último, permite mejorar la precisión de la solución resolviendo un nuevo sistema donde el error local actúa como término fuente (_ -extrapolación). El presenta trabajo se organiza de la siguiente manera: Cap. 1 contiene una breve reseña de las técnicas de adaptación de malla, así como de los métodos de predicción de los errores numéricos. En la primera sección, Sec. 1.1, se examinan las estrategias básicas de refinamiento y se presenta la principal contribución a la adaptación de malla estructurada y no estructurada. Sec 1.2 introduce las definiciones de los errores encontrados en la resolución de problemas de Dinámica Computacional de Fluidos y se examinan los enfoques más comunes para predecirlos. Cap. 2 está dedicado a la formulación matemática de la estimación del error de truncación en el contexto de la metodología de Volúmenes Finitos, así como a un procedimiento de verificación completo. Se estudian varias características que influyen en su estimación: la influencia de la falta de uniformidad de la malla, el efecto de las no linealidades del modelo matemático, diferentes condiciones de contorno y soluciones numéricas no convergidas. Esta parte de verificación ha sido presentada y aceptada para su publicación en el Journal of Computational Physics. Cap. 3 presenta un algoritmo de adaptación de malla basado en la estimación del error de truncación y compara los resultados con sensores de featured-based y adjointbased (en colaboración con Jorge Ponsín del INTA). Se consideran casos en dos y tres dimensiones, relevantes para la validación en la industria aeronáutica. Este trabajo ha sido presentado y aceptado en el AIAA Journal. También se incluye una extensión de estos métodos a las ecuaciones RANS (Reynolds Average Navier- Stokes), en donde adaptación de malla basada en _ y _ -extrapolación son aplicados a perfiles con viscosidad de alas. Este último trabajo se ha presentado en los Actas de la Institución de Ingenieros Mecánicos, Parte G: Journal of Aerospace Engineering. Palabras clave: adaptación de malla, predicción del error numérico, volúmenes finitos

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Several studies conducted in urban areas have pointed out that road dust resuspension contributes significantly to PM concentration levels. Street washing is one of the methods proposed to reduce resuspended road dust contributions to ambient PM concentrations. As resuspended particles are mainly found in the coarse mode, published studies investigating the effects of street washing have focused on PM10 size fraction. As the PM2.5 mass fraction of particles originating from mechanical abrasion processes may still be significant we conducted a study in order to evaluate the effects of street washing on the mitigation of resuspension of fine particles. The PM2.5 mass concentration data were examined and integrated with the occurrence of street washing activities. In addition, the effect of the meteorological variability, traffic flow and street washing activities, on ambient PM2.5 levels was valuated by means of a multivariate regression model. The results revealed that traffic low is the most important factor that controls PM2.5 hourly concentrations while street washing activities did not influence fine particle mass levels.