874 resultados para Pipeline Spanning
Resumo:
We present four SHRIMP U-Pb zircon ages for the Choiyoi igneous province from the San Rafael Block, central-western Argentina. Dated samples come from the Yacimiento Los Reyunos Formation (281.4 +/- 2.5 Ma) of the Cochico Group (Lower Choiyoi section: andesitic breccias, dacitic to rhyolitic ignimbrites and continental conglomerates). Agua de los Burros Formation (264.8 +/- 2.3 Ma and 264.5 +/- 3.0 Ma) and Cerro Carrizalito Formation (251.9 +/- 2.7 Ma Upper Choiyoi section: rhyolitic ignimbrites and pyroclastic flows) spanning the entire Permian succession of the Choiyoi igneous province. A single ziron from the El Imperial Formation, that is overlain unconformably by the Choiyoi succession, yielded an early Permian age (297.2 +/- 5.3 Ma). while the main detrital zircon population indicated an Ordovician age (453.7 +/- 8.1 Ma). The new data establishes a more precise Permian age (Artinskian-Lopingian) for the section studied spanning 30 Ma of volcanic activity. Volcanological observations for the Choiyoi succession support the occurrence of explosive eruptions of plinian to ultraplinian magnitudes, capable of injecting enormous volumes of tephra in the troposphere-stratosphere. The new SHRIMP ages indicate contemporaneity between the Choyoi succession and the upper part of the Parana Basin late Paleozoic section, from the Irad up to the Rio do Rasto formations, encompassing about 24 Ma. Geochemical data show a general congruence in compositional and tectonic settings between the volcanics and Parana Basin Permian ash fall derived layers of bentonites. Thickness and granulometry of ash fall layers broadly fit into the depletion curve versus distance from the remote source vent of ultraplinian eruptions. Thus, we consider that the Choiyoi igneous province was the source of ash fall deposits in the upper Permian section of the Parana Basin. Data presented here allow a more consistent correlation between tectono-volcanic Permian events along the paleo-Pacific margin of southwestern Gondwana and the geological evolution of neighboring Paleozoic foreland basins in South America and Africa. (C) 2010 International Association for Gondwana Research. Published by Elsevier B.V. All rights reserved.
Resumo:
Dating granulites has always been of great interest because they represent one of the most extreme settings of an orogen. Owing to the resilience of zircon, even in such severe environments, the link between P-T conditions and geological time is possible. However, a challenge to geochronologists is to define whether the growth of new zircon is related to pre- or post-P-T peak conditions and which processes might affect the (re) crystallization. In this context, the Anapolis-Itaucu Complex, a high-grade complex in central Brazil with ultrahigh temperature (UHT) granulites, may provide valuable information within this topic. The Anapolis-Itaucu Complex (AIC) includes ortho- and paragranulites, locally presenting UHT mineral assemblages, with igneous zircon ages varying between 760 and 650 Ma and metamorphic overgrowths dated at around 650-640 Ma. Also common in the Anapolis-Itaucu Complex are layered mafic-ultramafic complexes metamorphosed under high-grade conditions. This article presents the first geological and geochronological constraints of three of these layered complexes within the AIC, the Damolandia, Taquaral and Goianira-Trindade complexes. U-Pb (LA-MC-ICPMS, SHRIMP and ID-TIMS) zircon analyses reveal a spread of concordant ages spanning within an age interval of similar to 80 Ma with an ""upper"" intercept age of similar to 670 Ma. Under cathodoluminescence imaging, these crystals show partially preserved primary sector zoning, as well as internal textures typical of alteration during high-grade metamorphism, such as inward-moving boundaries. Zircon grains reveal homogeneous initial (176)Hf/(177)Hf values in distinct crystal-scale domains in all samples. Moreover. Hf isotopic ratios show correlation neither with U-Pb ages nor with Th/U ratios, suggesting that zircon grains crystallized during a single growth event. It is suggested, therefore, that the observed spread of concordant U-Pb ages may be related to a memory effect due to coupled dissolution-reprecipitation process during high grade metamorphism. Therefore, understanding the emplacement and metamorphism of this voluminous mafic magmatism is crucial as it may represent an additional heat source for the development of the ultrahigh temperature paragenesis recorded in the paragranulites. (C) 2010 Elsevier B.V. All rights reserved.
Resumo:
This paper examines the relationships among per capita CO2 emissions, per capita GDP and international trade based on panel data sets spanning the period 1960-2008: one for 150 countries and the others for sub-samples comprising OECD and Non-OECD economies. We apply panel unit root and cointegration tests, and estimate a panel error correction model. The results from the error correction model suggest that there are long-term relationships between the variables for the whole sample and for Non-OECD countries. Finally, Granger causality tests show that there is bi-directional short-term causality between per capita GDP and international trade for the whole sample and between per capita GDP and CO2 emissions for OECD countries
Resumo:
This thesis consists of a summary and four self-contained papers. Paper [I] Following the 1987 report by The World Commission on Environment and Development, the genuine saving has come to play a key role in the context of sustainable development, and the World Bank regularly publishes numbers for genuine saving on a national basis. However, these numbers are typically calculated as if the tax system is non-distortionary. This paper presents an analogue to genuine saving in a second best economy, where the government raises revenue by means of distortionary taxation. We show how the social cost of public debt, which depends on the marginal excess burden, ought to be reflected in the genuine saving. We also illustrate by presenting calculations for Greece, Japan, Portugal, U.K., U.S. and OECD average, showing that the numbers published by the World Bank are likely to be biased and may even give incorrect information as to whether the economy is locally sustainable. Paper [II] This paper examines the relationships among per capita CO2 emissions, per capita GDP and international trade based on panel data spanning the period 1960-2008 for 150 countries. A distinction is also made between OECD and Non-OECD countries to capture the differences of this relationship between developed and developing economies. We apply panel unit root and cointegration tests, and estimate a panel error correction model. The results from the error correction model suggest that there are long-term relationships between the variables for the whole sample and for Non-OECD countries. Finally, Granger causality tests show that there is bi-directional short-term causality between per capita GDP and international trade for the whole sample and between per capita GDP and CO2 emissions for OECD countries. Paper [III] Fundamental questions in economics are why some regions are richer than others, why their growth rates differ, whether their growth rates tend to converge, and what key factors contribute to explain economic growth. This paper deals with the average income growth, net migration, and changes in unemployment rates at the municipal level in Sweden. The aim is to explore in depth the effects of possible underlying determinants with a particular focus on local policy variables. The analysis is based on a three-equation model. Our results show, among other things, that increases in the local public expenditure and income taxe rate have negative effects on subsequent income income growth. In addition, the results show conditional convergence, i.e. that the average income among the municipal residents tends to grow more rapidly in relatively poor local jurisdictions than in initially “richer” jurisdictions, conditional on the other explanatory variables. Paper [IV] This paper explores the relationship between income growth and income inequality using data at the municipal level in Sweden for the period 1992-2007. We estimate a fixed effects panel data growth model, where the within-municipality income inequality is one of the explanatory variables. Different inequality measures (Gini coefficient, top income shares, and measures of inequality in the lower and upper part of the income distribution) are examined. We find a positive and significant relationship between income growth and income inequality measured as the Gini coefficient and top income shares, respectively. In addition, while inequality in the upper part of the income distribution is positively associated with the income growth rate, inequality in the lower part of the income distribution seems to be negatively related to the income growth. Our findings also suggest that increased income inequality enhances growth more in municipalities with a high level of average income than in municipalities with a low level of average income.
Resumo:
With the service life of water supply network (WSN) growth, the growing phenomenon of aging pipe network has become exceedingly serious. As urban water supply network is hidden underground asset, it is difficult for monitoring staff to make a direct classification towards the faults of pipe network by means of the modern detecting technology. In this paper, based on the basic property data (e.g. diameter, material, pressure, distance to pump, distance to tank, load, etc.) of water supply network, decision tree algorithm (C4.5) has been carried out to classify the specific situation of water supply pipeline. Part of the historical data was used to establish a decision tree classification model, and the remaining historical data was used to validate this established model. Adopting statistical methods were used to access the decision tree model including basic statistical method, Receiver Operating Characteristic (ROC) and Recall-Precision Curves (RPC). These methods has been successfully used to assess the accuracy of this established classification model of water pipe network. The purpose of classification model was to classify the specific condition of water pipe network. It is important to maintain the pipeline according to the classification results including asset unserviceable (AU), near perfect condition (NPC) and serious deterioration (SD). Finally, this research focused on pipe classification which plays a significant role in maintaining water supply networks in the future.
Resumo:
An underwater gas pipeline is the portion of the pipeline that crosses a river beneath its bottom. Underwater gas pipelines are subject to increasing dangers as time goes by. An accident at an underwater gas pipeline can lead to technological and environmental disaster on the scale of an entire region. Therefore, timely troubleshooting of all underwater gas pipelines in order to prevent any potential accidents will remain a pressing task for the industry. The most important aspect of resolving this challenge is the quality of the automated system in question. Now the industry doesn't have any automated system that fully meets the needs of the experts working in the field maintaining underwater gas pipelines. Principle Aim of this Research: This work aims to develop a new system of automated monitoring which would simplify the process of evaluating the technical condition and decision making on planning and preventive maintenance and repair work on the underwater gas pipeline. Objectives: Creation a shared model for a new, automated system via IDEF3; Development of a new database system which would store all information about underwater gas pipelines; Development a new application that works with database servers, and provides an explanation of the results obtained from the server; Calculation of the values MTBF for specified pipelines based on quantitative data obtained from tests of this system. Conclusion: The new, automated system PodvodGazExpert has been developed for timely and qualitative determination of the physical conditions of underwater gas pipeline; The basis of the mathematical analysis of this new, automated system uses principal component analysis method; The process of determining the physical condition of an underwater gas pipeline with this new, automated system increases the MTBF by a factor of 8.18 above the existing system used today in the industry.
Resumo:
Most of water distribution systems (WDS) need rehabilitation due to aging infrastructure leading to decreasing capacity, increasing leakage and consequently low performance of the WDS. However an appropriate strategy including location and time of pipeline rehabilitation in a WDS with respect to a limited budget is the main challenge which has been addressed frequently by researchers and practitioners. On the other hand, selection of appropriate rehabilitation technique and material types is another main issue which has yet to address properly. The latter can affect the environmental impacts of a rehabilitation strategy meeting the challenges of global warming mitigation and consequent climate change. This paper presents a multi-objective optimization model for rehabilitation strategy in WDS addressing the abovementioned criteria mainly focused on greenhouse gas (GHG) emissions either directly from fossil fuel and electricity or indirectly from embodied energy of materials. Thus, the objective functions are to minimise: (1) the total cost of rehabilitation including capital and operational costs; (2) the leakage amount; (3) GHG emissions. The Pareto optimal front containing optimal solutions is determined using Non-dominated Sorting Genetic Algorithm NSGA-II. Decision variables in this optimisation problem are classified into a number of groups as: (1) percentage proportion of each rehabilitation technique each year; (2) material types of new pipeline for rehabilitation each year. Rehabilitation techniques used here includes replacement, rehabilitation and lining, cleaning, pipe duplication. The developed model is demonstrated through its application to a Mahalat WDS located in central part of Iran. The rehabilitation strategy is analysed for a 40 year planning horizon. A number of conventional techniques for selecting pipes for rehabilitation are analysed in this study. The results show that the optimal rehabilitation strategy considering GHG emissions is able to successfully save the total expenses, efficiently decrease the leakage amount from the WDS whilst meeting environmental criteria.
Resumo:
This futuristic article discusses the shift in academic and research libraries to electronic collections in the context of information access, costs, publication models, and preservation of content. Certain factors currently complicate the shift to electronic formats and challenge their widespread acceptance. Future scenarios spanning skill ecosystems, technologies and workflows, and societal implications are explored as logical outgrowths of present circumstances.
Resumo:
This article provides a blueprint for successful library strategies in support of accreditations for regional bodies as well as reviews of discipline-specific academic programs spanning a wide range of knowledge areas.
Resumo:
Este trabalho apresenta uma metodologia para a geração automática de ASICs, em VHDL, a partir da linguagem de entrada Java. Como linguagem de especificação adotou-se a Linguagem Java por esta possuir características desejáveis para especificação a nível de sistema, como: orientação a objetos, portabilidade e segurança. O sistema é especificamente projetado para suportar síntese de ASICs a partir dos modelos de computação Máquina de Estados Finita e Pipeline. Neste trabalho, adotou-se estes modelos de computação por serem mais usados em sistemas embarcados As principais características exploradas são a disponibilização da geração de ASICs para a ferramenta SASHIMI, o alto nível de abstração com que o projetista pode contar em seu projeto, as otimizações de escalonamento realizadas automaticamente, e o sistema ser capaz de abstrair diferentes modelos de computação para uma descrição em VHDL. Portanto, o ambiente permite a redução do tempo de projeto e, consequentemente, dos custos agregados, diminuindo a probabilidade de erros na elaboração do projeto, portabilidade e reuso de código – através da orientação a objetos de Java – podendo-se proteger os investimentos prévios em desenvolvimento de software. A validação desses conceitos foi realizada mediante estudos de casos, utilizando-se algumas aplicações e analisando os resultados obtidos com a geração dos ASICs.
Resumo:
Com o aperfeiçoamento de técnicas de aquisição de imagens médicas, como, por exemplo, a tomografia computadorizada e ressonância magnética, a capacidade e a fidelidade do diagnóstico por imagens foram ampliadas. Atualmente, existe a tendência de utilizarem-se imagens através de diversas modalidades para um único diagnóstico, principalmente no caso de doenças graves. Entretanto, o registro e a fusão dessas imagens, chamadas mutimodais, em uma única representação 3D do paciente é uma arefa extremamente dif[icil, que consome tempo e que está sujeita a erros. Sendo assim, a integração de imagens de diferentes modalidades tem sido objeto de pesquisa sob a denominação de Visualização de Volumes de Dados Multimodais. Sistemas desenvolvidos com este objetivo são usados, principalmente, para combinar informações metabólicas e funcionais com dados de anatomia, aumentando a precisão do diagnóstico, uma vez que possibilitam extrrair uma superfície ou região da imagem que apresenta a anatomia, e, então, observar a atividade funcional na outra modalidade. Durante a análise de tais imagens, os médicos estão interessados e quantificar diferentes estruturas. Seusobjetivos envolvem, por exemplo, a visualização de artérias e órgãos do corpo humano para análise de patologias, tais como tumores, má-formações artério-venosas, ou lesões em relação às estuturas que as circundam. Assim, um dos principais obetivos de um algoritmo de visualização volumétrica é permitir a identificação e exploração de estruturas internas no volume. Como o volume é normalmente um "bloco de dados", não se pode visualizar o seu interior, a menos que se assuma que é possível ver através de voxels transparentes, ou que é possivel remover voxels que estão na frente na qual o usuário está interessado, o que foi feito através de técnicas de segmentação ou de corte. Este trabalho presenta uma abordagem para a visualização de estruturas internas em volumes de dados multimodais. A abordagem está fundamentada na utilização de ferramentas de corte, tanto geométricas quanto baseadas em conteúdo, evitando, assim, o uso de técnicas de segmentação; e na integração dos dados multimodais na etapa de acumulação de pipeline de visualização volumétrica. Considerando que as aplicações que suportam este tipo de visualização envolvem a integração de várias ferramentas, tais como registro, corte e visualização, também é apresentado o projeto de um framework que permite esta integração e um alto grau de interação com usuário. Para teste e validação das técnicas de visualização de estruturas internas propostas e do algoritmo desenvolvido, que consiste numa extensão do algoritmo de ray casting tradicional, foram implementadas algumas classes desse framework. Uma revisão baseada na análise e na classificação das ferramentas de corte e funções de transferências, que correspondem a técnicas que permitem visualizar estruturas internas, também é apresentada.
Resumo:
Este livro tem por objetivo apresentar uma visão atualizada do arcabouço legal que embasa o sistema de patentes de invenção e modelos de utilidade. Mostra a importância da patente nos cenários internacional e nacional, as formas de proteção das criações técnicas, a estrutura dos documentos de patentes, seu preparo e tramitação, e sua utilização como fonte de informação tecnológica. Por fim, aborda questões atuais e pouco exploradas, como as patentes farmacêuticas, as patentes pipeline e as patentes de biotecnologia.
Resumo:
Em decorrência do atual processo de transformação da indústria do petróleo no Brasil, iniciado com base na Nova Lei do Petróleo - Lei n° 9.478, de 6 de agosto de 1997, assim como da respectiva abertura do mercado nacional, que poderá se consolidar a partir do ano 2001, são esperadas mudanças na estrutura da cadeia petrolífera brasileira. Tais modificações deverão ser causadas pelo aumento da concorrência, como conseqüência da entrada de novos agentes no setor, bem como entre o produto nacional e o importado, caracterizando um novo cenário de cunho competitivo no mercado de derivados de petróleo. Desta forma, a importação e exportação de petróleo e seus derivados por novos agentes, associado com a movimentação destes produtos e a utilização da infra-estrutura existente para transporte e armazenagem, são questões que merecem análises e considerações, sob a ótica da regulação. Dentro deste processo em curso, é fundamental a avaliação do grau da regulação, uma vez que os mercados legais, estruturados para a competição, atuam dentro de um contexto de regras preestabelecidas e que economias de mercado totalmente desregulamentadas podem acarretar sérias desigualdades para a sociedade. Esta dissertação tem por objetivo analisar quais são os principais fatores críticos, de cunho administrativo e econômico, que devem ser considerados na abertura do setor de transporte de petróleo e seus derivados a outros agentes, de modo a se obter uma efetiva transição para uma economia orientada pelo mercado, dentro do novo modelo de Estado Regulador. Trata-se de uma pesquisa explicativa, por explicitar tais fatores críticos, assim como exploratória, pois é realizada em área onde existe pouco conhecimento e experiência disponível no País, bem como bibliográfica e documental, uma vez que se apoia na consulta a leis, decretos, portarias, documentos de órgãos públicos, livros, artigos etc. O processo de investigação consiste no levantamento da evolução histórica do setor, até o momento atual, na pesquisa da legislação e regulamentação em vigor, dos princípios da teoria da regulação e da experiência internacional, na análise descritiva do setor de transportes nacional, limitando-se ao transporte marítimo e dutoviário de petróleo e derivados, efetuando uma análise crítica do setor frente à Lei 9.478/97 e a abertura do mercado. O estudo identifica os fatores críticos que permitem criar as condições para o estabelecimento de um mercado orientado pela competição, ou seja, a existência de elementos básicos como oferta, demanda, acessibilidade aos serviços pela sociedade, qualidade e segurança, informação sobre preço e utilização dos produtos ou serviços e adequada fiscalização pelo Estado. Tais fatores estão associados ao acesso a informações, ao controle de tarifas, ao estabelecimento de condições de entrada e saída do mercado, ao controle da qualidade dos serviços prestados e à criação de um ambiente de transição de um regime controlado para um regime de mercado competitivo.
Resumo:
As modernas aplicações em diversas áreas como multimídia e telecomunicações exigem arquiteturas que ofereçam altas taxas de processamento. Entretanto, os padrões e algoritmos mudam com incrível rapidez o que gera a necessidade de que esses sistemas digitais tenham também por característica uma grande flexibilidade. Dentro desse contexto, tem-se as arquiteturas reconfiguráveis em geral e, mais recentemente, os sistemas reconfiguráveis em um único chip como soluções adequadas que podem oferecer desempenho, sendo, ao mesmo tempo, adaptáveis a novos problemas e a classes mais amplas de algoritmos dentro de um dado escopo de aplicação. Este trabalho apresenta o estado-da-arte em relação a arquiteturas reconfiguráveis nos meios acadêmcio e industrial e descreve todas as etapas de desenvolvimento do processador de imagens reconfigurável DRIP (Dynamically Reconfigurable Image Processor), desde suas origens como um processador estático até sua última versão reconfigurável em tempo de execução. O DRIP possui um pipeline composto por 81 processadores elementares. Esses processadores constituem a chave do processo de reconfiguração e possuem a capacidade de computar um grande número de algoritmos de processamento de imagens, mais específicamente dentro do domínio da filtragem digital de imagens. Durante o projeto, foram desenvolvidos uma série de modelos em linguagem de descrição de hardware da arquitetura e também ferramentas de software para auxiliar nos processos de implementação de novos algorimos, geração automática de modelos VHDL e validação das implementações. O desenvolvimento de mecanismos com o objetivo de incluir a possibilidade de reconfiguração dinâmica, naturalmente, introduz overheads na arquitetura. Contudo, o processo de reconfiguração do DRIP-RTR é da ordem de milhões de vezes mais rápido do que na versão estaticamente reconfigurável implementada em FPGAs Altera. Finalizando este trabalho, é apresentado o projeto lógico e elétrico do processador elementar do DRIP, visando uma futura implementação do sistema diretamente como um circuito VLSI.
Resumo:
Apesar do crescente interesse no conceito de engajamento da marca ainda existe discordância quanto aos seus conceitos fundamentais. Esta tese de doutorado explora a natureza da construção engajamento da marca do consumidor (EMC). No primeiro artigo, EMC é avaliada no âmbito da Teoria da Expectância para explicar e esclarecer como a antecipação de possíveis resultados de se envolver com uma marca, sendo tais resultados classificados como “primeiro nível” (resultante do esforço pessoal alocado para interagir com uma marca) e “segundo nível” (ou nível final, representando a consequência dos resultados de primeiro nível) e uma nova definição de EMC é formulada. Um arcabouço teórico abrangente é proposto para engajamento da marca, usando o Teoria Organizacional de Marketing para Expansão de Fronteiras (TOMEF) como referência para os pontos de contato entre o consumidor e a marca. A partir dos fundamentos teóricos das dimensões cognitivas, emocionais e comportamentais do EMC, quinze proposições teóricas são desenvolvidas para incorporar uma perspectiva multilateral às doutrinas teóricas do construto. No segundo artigo, quatro estudos são usados para desenvolver uma escala de engajamento da marca do consumidor. O Estudo 1 (n = 11) utiliza revisão da literatura e entrevistas em profundidade com os consumidores para gerar os itens da escala. No Estudo 2, oito especialistas avaliam 144 itens quanto a validade de face e validade de conteúdo. No Estudo 3 dados coletados com alunos de graduação (n = 172) é submetida à análise fatorial exploratória (AFE) e confirmatória (AFC) para redução adicional de itens. Trezentos e oitenta e nove respostas de um painel de consumidores são usados no Estudo 4 para avaliar o ajuste do modelo, usando a análise fatorial confirmatória (AFC) e Modelagem por Equações Estruturais (MEE). A escala proposta possui excelentes níveis de validade e confiabilidade. Finalmente, no terceiro papel, uma escala de engajamento do consumidor de Vivek et al. (2014) é replicada (n = 598) junto à consumidores em uma feira automotiva, para estender o debate sobre formas de medição do constructo usando a perspectiva da Teoria de Resposta ao Item (TRI). Embora o modelo desenvolvido com base na teoria clássica de teste (TCT) usando AFC, um modelo de resposta gradual (MRG) identifica cinco itens que têm baixos níveis de poder discriminante e com baixos níveis de informação. A abordagem usando TRI indica um possível caminho para melhorias metodológicas futuras para as escalas desenvolvidas na área de marketing em geral, e para a escala engajamento do consumidor, em particular.