860 resultados para Open diagonal
Resumo:
We report in this work the study of the interaction between formic acid and an oxidized platinum surface under open circuit conditions. The investigation was carried out with the aid of in situ infrared spectroscopy, and results analyzed in terms of a mathematical model and numerical simulations. It has been found that during the first seconds of the interaction a small amount of CO(2) is produced and absolutely no adsorbed CO was observed. A sudden drop in potential then follows, which is accompanied by a steep increase first of CO(2) production and then by adsorbed CO. The steep transient was rationalized in terms of an autocatalytic production of free platinum sites which enhances the overall rate of reaction. Modeling and simulation showed nearly quantitative agreement with the experimental observations and provided further insight into some experimentally inaccessible variables such as surface free sites. Finally, based on the understanding provided from the combined experimental and theoretical approach, we discuss the general aspects influencing the open circuit transient.
Resumo:
In this thesis, one of the current control algorithms for the R744 cycle, which tries tooptimize the performance of the system by two SISO control loops, is compared to acost-effective system with just one actuator. The operation of a key component of thissystem, a two stage orifice expansion valve is examined in a range of typical climateconditions. One alternative control loop for this system, which has been proposed byBehr group, is also scrutinized.The simulation results affirm the preference of using two control-loops instead of oneloop, but refute advantages of the Behr alternate control approach against one-loopcontrol. As far as the economic considerations of the A/C unit are concerned, usinga two-stage orifice expansion valve is desired by the automotive industry, thus basedon the experiment results, an improved logic for control of this system is proposed.In the second part, it is investigated whether the one-actuator control approach isapplicable to a system consisting of two parallel evaporators to allow passengers tocontrol different climate zones. The simulation results show that in the case of usinga two-stage orifice valve for the front evaporator and a fixed expansion valve forthe rear one, a proper distribution of the cooling power between the front and rearcompartment is possible for a broad range of climate conditions.
Resumo:
Background: Home-management of malaria (HMM) strategy improves early access of anti-malarial medicines to high-risk groups in remote areas of sub-Saharan Africa. However, limited data are available on the effectiveness of using artemisinin-based combination therapy (ACT) within the HMM strategy. The aim of this study was to assess the effectiveness of artemether-lumefantrine (AL), presently the most favoured ACT in Africa, in under-five children with uncomplicated Plasmodium falciparum malaria in Tanzania, when provided by community health workers (CHWs) and administered unsupervised by parents or guardians at home. Methods: An open label, single arm prospective study was conducted in two rural villages with high malaria transmission in Kibaha District, Tanzania. Children presenting to CHWs with uncomplicated fever and a positive rapid malaria diagnostic test (RDT) were provisionally enrolled and provided AL for unsupervised treatment at home. Patients with microscopy confirmed P. falciparum parasitaemia were definitely enrolled and reviewed weekly by the CHWs during 42 days. Primary outcome measure was PCR corrected parasitological cure rate by day 42, as estimated by Kaplan-Meier survival analysis. This trial is registered with ClinicalTrials.gov, number NCT00454961. Results: A total of 244 febrile children were enrolled between March-August 2007. Two patients were lost to follow up on day 14, and one patient withdrew consent on day 21. Some 141/241 (58.5%) patients had recurrent infection during follow-up, of whom 14 had recrudescence. The PCR corrected cure rate by day 42 was 93.0% (95% CI 88.3%-95.9%). The median lumefantrine concentration was statistically significantly lower in patients with recrudescence (97 ng/mL [IQR 0-234]; n = 10) compared with reinfections (205 ng/mL [114-390]; n = 92), or no parasite reappearance (217 [121-374] ng/mL; n = 70; p <= 0.046). Conclusions: Provision of AL by CHWs for unsupervised malaria treatment at home was highly effective, which provides evidence base for scaling-up implementation of HMM with AL in Tanzania.
Resumo:
Agent-oriented software engineering (AOSE) is a promising approach to developing applications for dynamic open systems. If well developed, these applications can be opportunistic, taking advantage of services implemented by other developers at appropriate times. However, methodologies are needed to aid the development of systems that are both flexible enough to be opportunistic and tightly defined by the application requirements. In this paper, we investigate how developers can choose the coordination mechanisms of agents so that the agents will best fulfil application requirements in an open system.
Resumo:
The open provenance architecture (OPA) approach to the challenge was distinct in several regards. In particular, it is based on an open, well-defined data model and architecture, allowing different components of the challenge workflow to independently record documentation, and for the workflow to be executed in any environment. Another noticeable feature is that we distinguish between the data recorded about what has occurred, emphprocess documentation, and the emphprovenance of a data item, which is all that caused the data item to be as it is and is obtained as the result of a query over process documentation. This distinction allows us to tailor the system to separately best address the requirements of recording and querying documentation. Other notable features include the explicit recording of causal relationships between both events and data items, an interaction-based world model, intensional definition of data items in queries rather than relying on explicit naming mechanisms, and emphstyling of documentation to support non-functional application requirements such as reducing storage costs or ensuring privacy of data. In this paper we describe how each of these features aid us in answering the challenge provenance queries.
Resumo:
The Open Provenance Model is a model of provenance that is designed to meet the following requirements: (1) To allow provenance information to be exchanged between systems, by means of a compatibility layer based on a shared provenance model. (2) To allow developers to build and share tools that operate on such a provenance model. (3) To define provenance in a precise, technology-agnostic manner. (4) To support a digital representation of provenance for any 'thing', whether produced by computer systems or not. (5) To allow multiple levels of description to coexist. (6) To define a core set of rules that identify the valid inferences that can be made on provenance representation. This document contains the specification of the Open Provenance Model (v1.1) resulting from a community-effort to achieve inter-operability in the Provenance Challenge series.
Resumo:
A description of a data item's provenance can be provided in dierent forms, and which form is best depends on the intended use of that description. Because of this, dierent communities have made quite distinct underlying assumptions in their models for electronically representing provenance. Approaches deriving from the library and archiving communities emphasise agreed vocabulary by which resources can be described and, in particular, assert their attribution (who created the resource, who modied it, where it was stored etc.) The primary purpose here is to provide intuitive metadata by which users can search for and index resources. In comparison, models for representing the results of scientific workflows have been developed with the assumption that each event or piece of intermediary data in a process' execution can and should be documented, to give a full account of the experiment undertaken. These occurrences are connected together by stating where one derived from, triggered, or otherwise caused another, and so form a causal graph. Mapping between the two approaches would be benecial in integrating systems and exploiting the strengths of each. In this paper, we specify such a mapping between Dublin Core and the Open Provenance Model. We further explain the technical issues to overcome and the rationale behind the approach, to allow the same method to apply in mapping similar schemes.
Resumo:
Just about every time I open a journal or read a blog online, I see something about e-books saving newspapers and magazines. Both magazines and newspapers–and really all scholalry communication–are going the way of all flesh, we’re told, but e-book reading may provide a stay of execution, however short that may be. It got me to thinking if there might be something else that would provide a similarDies Irae proroguement for scholarly communication in general. That’s when it occurred to me it could well be open access (OA), or at least as I envision it here.
Resumo:
O objetivo desta dissertação é a paralelização e a avaliação do desempenho de alguns métodos de resolução de sistemas lineares esparsos. O DECK foi utilizado para implementação dos métodos em um cluster de PCs. A presente pesquisa é motivada pela vasta utilização de Sistemas de Equações Lineares em várias áreas científicas, especialmente, na modelagem de fenômenos físicos através de Equações Diferenciais Parciais (EDPs). Nessa área, têm sido desenvolvidas pesquisas pelo GMC-PAD – Grupo de Matemática da Computação e Processamento de Alto Desempenho da UFRGS, para as quais esse trabalho vem contribuindo. Outro fator de motivação para a realização dessa pesquisa é a disponibilidade de um cluster de PCs no Instituto de Informática e do ambiente de programação paralela DECK – Distributed Execution and Communication Kernel. O DECK possibilita a programação em ambientes paralelos com memória distribuída e/ou compartilhada. Ele está sendo desenvolvido pelo grupo de pesquisas GPPD – Grupo de Processamento Paralelo e Distribuído e com a paralelização dos métodos, nesse ambiente, objetiva-se também validar seu funcionamento e avaliar seu potencial e seu desempenho. Os sistemas lineares originados pela discretização de EDPs têm, em geral, como características a esparsidade e a numerosa quantidade de incógnitas. Devido ao porte dos sistemas, para a resolução é necessária grande quantidade de memória e velocidade de processamento, característicos de computações de alto desempenho. Dois métodos de resolução foram estudados e paralelizados, um da classe dos métodos diretos, o Algoritmo de Thomas e outro da classe dos iterativos, o Gradiente Conjugado. A forma de paralelizar um método é completamente diferente do outro. Isso porque o método iterativo é formado por operações básicas de álgebra linear, e o método direto é formado por operações elementares entre linhas e colunas da matriz dos coeficientes do sistema linear. Isso permitiu a investigação e experimentação de formas distintas de paralelismo. Do método do Gradiente Conjugado, foram feitas a versão sem précondicionamento e versões pré-condicionadas com o pré-condicionador Diagonal e com o pré-condicionador Polinomial. Do Algoritmo de Thomas, devido a sua formulação, somente a versão básica foi feita. Após a paralelização dos métodos de resolução, avaliou-se o desempenho dos algoritmos paralelos no cluster, através da realização de medidas do tempo de execução e foram calculados o speedup e a eficiência. As medidas empíricas foram realizadas com variações na ordem dos sistemas resolvidos e no número de nodos utilizados do cluster. Essa avaliação também envolveu a comparação entre as complexidades dos algoritmos seqüenciais e a complexidade dos algoritmos paralelos dos métodos. Esta pesquisa demonstra o desempenho de métodos de resolução de sistemas lineares esparsos em um ambiente de alto desempenho, bem como as potencialidades do DECK. Aplicações que envolvam a resolução desses sistemas podem ser realizadas no cluster, a partir do que já foi desenvolvido, bem como, a investigação de précondicionadores, comparação do desempenho com outros métodos de resolução e paralelização dos métodos com outras ferramentas possibilitando uma melhor avaliação do DECK.
Resumo:
Os Sistemas de Informação Geográfica (SIG) são construídos, especificamente, para armazenar, analisar e manipular dados geográficos, ou seja, dados que representam objetos e fenômenos do mundo real, cuja localização em relação à superfície da Terra seja considerada. A interoperabilidade desses sistemas, que constitui-se na capacidade de compartilhar e trocar informações e processos entre ambientes computacionais heterogêneos, se faz necessária, pois, devido ao elevado custo de aquisição dos dados geográficos, as comunidades de informação precisam compartilhar dados de fontes existentes, sem a necessidade de fazer conversões. Porém, pela complexidade e incompatibilidades de representação, de estrutura e de semântica das informações geográficas, a maioria dos softwares de SIG, hoje, não são interoperáveis. Existe também, além do problema da não interoperabilidade, uma crescente preocupação com relação à qualidade e à integridade espacial dos dados geográficos. Contudo, alguns modelos conceituais de dados geográficos e os softwares de SIG não oferecem, ainda, os meios adequados para representar e garantir a integridade espacial das informações. As restrições de integridade definidas durante a fase de projeto conceitual, normalmente, são implementadas durante o projeto físico, seja de forma implícita ou explícita, podendo ser incorporadas diretamente no modelo de implementação do SIG, de forma que o usuário da aplicação apenas mencione a regra e o sistema a implemente e a garanta automaticamente.Este trabalho de pesquisa propõe uma extensão ao Modelo Abstrato OpenGIS, modelo este que deve ser um padrão de interoperabilidade de software para SIG. A extensão proposta incorpora ao mesmo um subconjunto de tipos de restrição espacial, buscando com isso oferecer melhor suporte às regras da realidade geográfica expressáveis na modelagem conceitual do sistema.
Resumo:
o presente trabalho versa, fundamentalmente, sobre o entendimento da volatilidade, sua modelagem e estimação. Como objeto mais específico, tem-se a comparação de dois métodos de estimação da razão de hedge para uma carteira com dois ativos: dólar spot e dólar futuro. Usando dados para dois períodos - abril de 1995 a março de 2004 e janeiro de 1999 a 30 de março de 2004 -, a análise pelo método MGARCH-BEKK-Diagonal se mostrou superior ao MQO, no sentido de que, com o primeiro, conseguiu-se uma variação percentual negativa da variância da carteira em relação à carteira sem hedge - resultado oposto ao obtido, usando-se a outra abordagem. Sugere-se aqui que a explicação do sucesso de um modelo multivariado - extensão do modelo ARCH inicialmente proposto por Engle (1982) - deve-se a sua melhor adequação a um fato estilizado em Finanças: a concentração de volatilidade durante certos períodos, bem como ao uso de uma covariância em cuja estrutura se consideram seu caráter autoregressivo e o efeito de choques passados. A redução percentual da variância obtida indica ainda a importância do mercado futuro de dólar para a atividade de hedge e para a diminuição da incerteza.