946 resultados para incremental computation


Relevância:

10.00% 10.00%

Publicador:

Resumo:

O trabalho proposto tem como objetivo apresentar um projeto de elaboração de um sistema de informação que visa gerir o desenvolvimento de uma ontologia promovida pelo organismo de coordenação da política arquivística para a classificação e avaliação da informação na Administração Central e Local, em Portugal. Entre os produtos propostos a partir do referido sistema, conta-se um website no qual é possível consultar toda a informação contida na ontologia, bem como descarregar versões da mesma, com níveis diferentes de semântica. A referida ontologia foi promovida pelo órgão coordenador da política arquivística portuguesa, e tem por base uma Lista consolidada (LC) de processos de processos de negócio da Administração Pública (AP). Esta lista de natureza incremental e colaborativa foi desenvolvida a partir da identificação de uma macroestrutura representativa das funções exercidas pela AP, a Macroestrutura Funcional (MEF). Concretizado este produto e colocado à disposição da comunidade, na página oficial da Direção-Geral do Livro, dos Arquivos e das Bibliotecas (DGLAB), importa potenciar a sua aplicabilidade. Neste sentido, encontra-se em curso um projeto que envolve os autores, em contexto universitário, orientado para o desenvolvimento de um vocabulário formal, um modelo de dados que represente este conjunto de conceitos referentes aos processos de negócio e aos relacionamentos entre eles. Pretende-se que esta ontologia possa vir a ser disponibilizada em listas ou diretórios de ontologias com mecanismos de pesquisa (bibliotecas de ontologias) de modo a incrementar a sua utilização na web semântica, para além da sua utilização como esquema de classificação em sistemas eletrónicos de gestão de arquivos (SEGA), businesse intelligence systems e sistemas de gestão do conhecimento. Com esta comunicação pretende-se dar a conhecer à comunidade de profissionais um projeto de aplicação transversal para todas as entidades públicas e para as empresas com interesse na área.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tese de Doutoramento em Engenharia Têxtil

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Recent advances in computation allow for the integration of design and simulation of highly interrelated systems, such as hybrids of structural membranes and bending active elements. The engaged complexities of forces and logistics can be mediated through the development of materials with project specific properties and detailing. CNC knitting with high tenacity yarn enables this practice and offers an alternative to current woven membranes. The design and fabrication of an 8m high fabric tower through an interdisciplinary team of architects, structural and textile engineers, allowed to investigate means to design, specify, make and test CNC knit as material for hybrid structures in architectural scale. This paper shares the developed process, identifies challenges, potentials and future work.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Proceedings da AUTEX 2015, Bucareste, Roménia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação de mestrado integrado em Engenharia Eletrónica Industrial e Computadores

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The computation of the optical conductivity of strained and deformed graphene is discussed within the framework of quantum field theory in curved spaces. The analytical solutions of the Dirac equation in an arbitrary static background geometry for one dimensional periodic deformations are computed, together with the corresponding Dirac propagator. Analytical expressions are given for the optical conductivity of strained and deformed graphene associated with both intra and interbrand transitions. The special case of small deformations is discussed and the result compared to the prediction of the tight-binding model.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this paper we consider the approximate computation of isospectral flows based on finite integration methods( FIM) with radial basis functions( RBF) interpolation,a new algorithm is developed. Our method ensures the symmetry of the solutions. Numerical experiments demonstrate that the solutions have higher accuracy by our algorithm than by the second order Runge- Kutta( RK2) method.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A teoria institucional constituiu o enquadramento no qual foi suportada a pergunta geral desta investigação: como e porquê a Normalização da Contabilidade de Gestão (NCG) nos hospitais públicos portugueses surgiu e evoluiu? O objetivo geral foi compreender de forma profunda o surgimento e a mudança nas regras de NCG dos hospitais públicos portugueses no período histórico 1954-2011. Face ao enquadramento institucional que justificou uma investigação interpretativa, foi usado como método de investigação um estudo de caso explanatório. A evidência sobre o caso da NCG nos hospitais públicos portugueses foi recolhida em documentos e através de 58 entrevistas realizadas em 47 unidades de análise (nos serviços centrais de contabilidade do Ministério da Saúde e em 46 hospitais públicos, num total de 53 existentes). Quanto aos principais resultados obtidos, no período 1954-1974, as regras criadas pelo poder político para controlo dos gastos públicos e a contabilidade orçamental de base de caixa estiveram na génese dos primeiros conceitos de Contabilidade de Gestão (CG) para os serviços públicos de saúde portugueses. A transição de um regime ditatorial para um regime democrático (25 de Abril de 1974), a criação do Plano Oficial de Contabilidade (POC/77) e a implementação de um estado social com Serviço Nacional de Saúde (SNS) criaram a conjuntura crítica necessária para o surgimento de um Plano Oficial de Contabilidade para os Serviços de Saúde (POCSS/80) que incluiu regras de CG. A primeira edição do Plano de Contabilidade Analítica dos Hospitais (PCAH), aprovada em 1996, não foi uma construção de raiz, mas antes uma adaptação para os hospitais das regras de CG incluídas no POCSS/91 que havia revisto o POCSS/80. Após o início da implementação do PCAH, em 1998, ocorreram sequências de autorreforço institucionalizadoras destas normas, no período 1998-2011, por influência de pressões isomórficas coercivas que delinearam um processo de evolução incremental cujo resultado foi uma reprodução por adaptação, num contexto de dependência de recursos. Vários agentes internos e externos pressionaram, no período 2003-2011, através de sequências reativas para a desinstitucionalização do PCAH em resposta ao persistente fenómeno de loose coupling. Mas o PCAH só foi descontinuado nos hospitais com privatização da governação e rejeição dos anteriores sistemas de informação. Ao nível da extensão da teoria, este estudo de caso adotou o institucionalismo histórico na investigação em CG, quanto se sabe pela primeira vez, que se mostra útil na interpretação dos processos e dos resultados da criação e evolução de instituições de CG num determinado contexto histórico. Na condição de dependência de recursos, as sequências de autorreforço, via isomorfismo coercivo, tendem para uma institucionalização com fenómeno de loose coupling. Como resposta a este fenómeno, ocorrem sequências reativas no sentido da desinstitucionalização. Perante as pressões (políticas, funcionais, sociais e tecnológicas) desinstitucionalizadoras, o fator governação privada acelera o processo de desinstitucionalização, enquanto o fator governação pública impede ou abranda esse processo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tese de Doutoramento em Engenharia Civil

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tese de Doutoramento (Programa Doutoral em Engenharia Biomédica)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Distributed data aggregation is an important task, allowing the de- centralized determination of meaningful global properties, that can then be used to direct the execution of other applications. The resulting val- ues result from the distributed computation of functions like count, sum and average. Some application examples can found to determine the network size, total storage capacity, average load, majorities and many others. In the last decade, many di erent approaches have been pro- posed, with di erent trade-o s in terms of accuracy, reliability, message and time complexity. Due to the considerable amount and variety of ag- gregation algorithms, it can be di cult and time consuming to determine which techniques will be more appropriate to use in speci c settings, jus- tifying the existence of a survey to aid in this task. This work reviews the state of the art on distributed data aggregation algorithms, providing three main contributions. First, it formally de nes the concept of aggrega- tion, characterizing the di erent types of aggregation functions. Second, it succinctly describes the main aggregation techniques, organizing them in a taxonomy. Finally, it provides some guidelines toward the selection and use of the most relevant techniques, summarizing their principal characteristics.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Software product lines (SPL) are diverse systems that are developed using a dual engineering process: (a)family engineering defines the commonality and variability among all members of the SPL, and (b) application engineering derives specific products based on the common foundation combined with a variable selection of features. The number of derivable products in an SPL can thus be exponential in the number of features. This inherent complexity poses two main challenges when it comes to modelling: Firstly, the formalism used for modelling SPLs needs to be modular and scalable. Secondly, it should ensure that all products behave correctly by providing the ability to analyse and verify complex models efficiently. In this paper we propose to integrate an established modelling formalism (Petri nets) with the domain of software product line engineering. To this end we extend Petri nets to Feature Nets. While Petri nets provide a framework for formally modelling and verifying single software systems, Feature Nets offer the same sort of benefits for software product lines. We show how SPLs can be modelled in an incremental, modular fashion using Feature Nets, provide a Feature Nets variant that supports modelling dynamic SPLs, and propose an analysis method for SPL modelled as Feature Nets. By facilitating the construction of a single model that includes the various behaviours exhibited by the products in an SPL, we make a significant step towards efficient and practical quality assurance methods for software product lines.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

OBJECTIVE: The aim of this study is to evaluate the survival rate in a cohort of Parkinson's disease patients with and without depression. METHODS: A total of 53 Parkinson's disease subjects were followed up from 2003-2008 and 21 were diagnosed as depressed. Mean time of follow up was 3.8 (SD 95% = 1.5) years for all the sample and there was no significant difference in mean time of follow up between depressed and nondepressed Parkinson's disease patients. Survival curves rates were fitted using the Kaplan-Meier method. In order to compare survival probabilities according to the selected covariables the Log-Rank test was used. Multivariate analysis with Cox regression was performed aiming at estimating the effect of predictive covariables on the survival. RESULTS: The cumulative global survival of this sample was 83% with nine deaths at the end of the study - five in the depressed and four in the nondepressed group, and 55.6% died in the first year of observation, and none died at the fourth and fifth year of follow up. CONCLUSION: Our finding point toward incremental death risk in depressed Parkinson's disease patients.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We study the problem of privacy-preserving proofs on authenticated data, where a party receives data from a trusted source and is requested to prove computations over the data to third parties in a correct and private way, i.e., the third party learns no information on the data but is still assured that the claimed proof is valid. Our work particularly focuses on the challenging requirement that the third party should be able to verify the validity with respect to the specific data authenticated by the source — even without having access to that source. This problem is motivated by various scenarios emerging from several application areas such as wearable computing, smart metering, or general business-to-business interactions. Furthermore, these applications also demand any meaningful solution to satisfy additional properties related to usability and scalability. In this paper, we formalize the above three-party model, discuss concrete application scenarios, and then we design, build, and evaluate ADSNARK, a nearly practical system for proving arbitrary computations over authenticated data in a privacy-preserving manner. ADSNARK improves significantly over state-of-the-art solutions for this model. For instance, compared to corresponding solutions based on Pinocchio (Oakland’13), ADSNARK achieves up to 25× improvement in proof-computation time and a 20× reduction in prover storage space.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Temporal logics targeting real-time systems are traditionally undecidable. Based on a restricted fragment of MTL-R, we propose a new approach for the runtime verification of hard real-time systems. The novelty of our technique is that it is based on incremental evaluation, allowing us to e↵ectively treat duration properties (which play a crucial role in real-time systems). We describe the two levels of operation of our approach: offline simplification by quantifier removal techniques; and online evaluation of a three-valued interpretation for formulas of our fragment. Our experiments show the applicability of this mechanism as well as the validity of the provided complexity results.