25 resultados para Temporal structure


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Benign focal epilepsy in childhood with centro-temporal spikes (BECTS) is one of the most common forms of idiopathic epilepsy, with onset from age 3 to 14 years. Although the prognosis for children with BECTS is excellent, some studies have revealed neuropsychological deficits in many domains, including language. Auditory event-related potentials (AERPs) reflect activation of different neuronal populations and are suggested to contribute to the evaluation of auditory discrimination (N1), attention allocation and phonological categorization (N2), and echoic memory (mismatch negativity – MMN). The scarce existing literature about this theme motivated the present study, which aims to investigate and document the existing AERP changes in a group of children with BECTS. AERPs were recorded, during the day, to pure and vocal tones and in a conventional auditory oddball paradigm in five children with BECTS (aged 8–12; mean = 10 years; male = 5) and in six gender and age-matched controls. Results revealed high amplitude of AERPs for the group of children with BECTS with a slight latency delay more pronounced in fronto-central electrodes. Children with BECTS may have abnormal central auditory processing, reflected by electrophysiological measures such as AERPs. In advance, AERPs seem a good tool to detect and reliably reveal cortical excitability in children with typical BECTS.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The positioning of the consumers in the power systems operation has been changed in the recent years, namely due to the implementation of competitive electricity markets. Demand response is an opportunity for the consumers’ participation in electricity markets. Smart grids can give an important support for the integration of demand response. The methodology proposed in the present paper aims to create an improved demand response program definition and remuneration scheme for aggregated resources. The consumers are aggregated in a certain number of clusters, each one corresponding to a distinct demand response program, according to the economic impact of the resulting remuneration tariff. The knowledge about the consumers is obtained from its demand price elasticity values. The illustrative case study included in the paper is based on a 218 consumers’ scenario.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The implementation of competitive electricity markets has changed the consumers’ and distributed generation position power systems operation. The use of distributed generation and the participation in demand response programs, namely in smart grids, bring several advantages for consumers, aggregators, and system operators. The present paper proposes a remuneration structure for aggregated distributed generation and demand response resources. A virtual power player aggregates all the resources. The resources are aggregated in a certain number of clusters, each one corresponding to a distinct tariff group, according to the economic impact of the resulting remuneration tariff. The determined tariffs are intended to be used for several months. The aggregator can define the periodicity of the tariffs definition. The case study in this paper includes 218 consumers, and 66 distributed generation units.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

WWW is a huge, open, heterogeneous system, however its contents data is mainly human oriented. The Semantic Web needs to assure that data is readable and “understandable” to intelligent software agents, though the use of explicit and formal semantics. Ontologies constitute a privileged artifact for capturing the semantic of the WWW data. Temporal and spatial dimensions are transversal to the generality of knowledge domains and therefore are fundamental for the reasoning process of software agents. Representing temporal/spatial evolution of concepts and their relations in OWL (W3C standard for ontologies) it is not straightforward. Although proposed several strategies to tackle this problem but there is still no formal and standard approach. This work main goal consists of development of methods/tools to support the engineering of temporal and spatial aspects in intelligent systems through the use of OWL ontologies. An existing method for ontology engineering, Fonte was used as framework for the development of this work. As main contributions of this work Fonte was re-engineered in order to: i) support the spatial dimension; ii) work with OWL Ontologies; iii) and support the application of Ontology Design Patterns. Finally, the capabilities of the proposed approach were demonstrated by engineering time and space in a demo ontology about football.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Since the discovery of the first penicillin bacterial resistance to β-lactam antibiotics has spread and evolved promoting new resistances to pathogens. The most common mechanism of resistance is the production of β-lactamases that have spread thorough nature and evolve to complex phenotypes like CMT type enzymes. New antibiotics have been introduced in clinical practice, and therefore it becomes necessary a concise summary about their molecular targets, specific use and other properties. β-lactamases are still a major medical concern and they have been extensively studied and described in the scientific literature. Several authors agree that Glu166 should be the general base and Ser70 should perform the nucleophilic attack to the carbon of the carbonyl group of the β-lactam ring. Nevertheless there still is controversy on their catalytic mechanism. TEMs evolve at incredible pace presenting more complex phenotypes due to their tolerance to mutations. These mutations lead to an increasing need of novel, stronger and more specific and stable antibiotics. The present review summarizes key structural, molecular and functional aspects of ESBL, IRT and CMT TEM β-lactamases properties and up to date diagrams of the TEM variants with defined phenotype. The activity and structural characteristics of several available TEMs in the NCBI-PDB are presented, as well as the relation of the various mutated residues and their specific properties and some previously proposed catalytic mechanisms.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O processo de liberalização do setor elétrico em Portugal Continental seguiu uma metodologia idêntica à da maior parte dos países europeus, tendo a abertura de mercado sido efetuada de forma progressiva. Assim, no âmbito do acompanhamento do setor elétrico nacional, reveste-se de particular interesse caracterizar a evolução mais recente do mercado liberalizado, nomeadamente em relação ao preço da energia elétrica. A previsão do preço da energia elétrica é uma questão muito importante para todos os participantes do mercado de energia elétrica. Como se trata de um assunto de grande importância, a previsão do preço da energia elétrica tem sido alvo de diversos estudos e diversas metodologias têm sido propostas. Esta questão é abordada na presente dissertação recorrendo a técnicas de previsão, nomeadamente a métodos baseados no histórico da variável em estudo. As previsões são, segundo alguns especialistas, um dos inputs essenciais que os gestores desenvolvem para ajudar no processo de decisão. Virtualmente cada decisão relevante ao nível das operações depende de uma previsão. Para a realização do modelo de previsão de preço da energia elétrica foram utilizados os modelos Autorregressivos Integrados de Médias Móveis, Autoregressive / Integrated / Moving Average (ARIMA), que geram previsões através da informação contida na própria série temporal. Como se pretende avaliar a estrutura do preço da energia elétrica do mercado de energia, é importante identificar, deste conjunto de variáveis, quais as que estão mais relacionados com o preço. Neste sentido, é realizada em paralelo uma análise exploratória, através da correlação entre o preço da energia elétrica e outras variáveis de estudo, utilizando para esse efeito o coeficiente de correlação de Pearson. O coeficiente de correlação de Pearson é uma medida do grau e da direção de relação linear entre duas variáveis quantitativas. O modelo desenvolvido foi aplicado tendo por base o histórico de preço da eletricidade desde o inicio do mercado liberalizado e de modo a obter as previsões diária, mensal e anual do preço da eletricidade. A metodologia desenvolvida demonstrou ser eficiente na obtenção das soluções e ser suficientemente rápida para prever o valor do preço da energia elétrica em poucos segundos, servindo de apoio à decisão em ambiente de mercado.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nowadays, data centers are large energy consumers and the trend for next years is expected to increase further, considering the growth in the order of cloud services. A large portion of this power consumption is due to the control of physical parameters of the data center (such as temperature and humidity). However, these physical parameters are tightly coupled with computations, and even more so in upcoming data centers, where the location of workloads can vary substantially due, for example, to workloads being moved in the cloud infrastructure hosted in the data center. Therefore, managing the physical and compute infrastructure of a large data center is an embodiment of a Cyber-Physical System (CPS). In this paper, we describe a data collection and distribution architecture that enables gathering physical parameters of a large data center at a very high temporal and spatial resolution of the sensor measurements. We think this is an important characteristic to enable more accurate heat-flow models of the data center and with them, find opportunities to optimize energy consumptions. Having a high-resolution picture of the data center conditions, also enables minimizing local hot-spots, perform more accurate predictive maintenance (failures in all infrastructure equipments can be more promptly detected) and more accurate billing. We detail this architecture and define the structure of the underlying messaging system that is used to collect and distribute the data. Finally, we show the results of a preliminary study of a typical data center radio environment.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Elaborado com vista à reflexão fundamentada acerca do percurso, das práticas educativas e das políticas de ensino, o presente trabalho pretende reunir um conjunto de saberes inerentes à atividade docente. Relacionando teorias e práticas no âmbito do ensino da música, a apresentação de uma filosofia de trabalho, congregando como eixo estruturante a prática musical supervisionada realizada no âmbito do ensino vocacional, apresenta-se como pano de fundo à análise dos vários conteúdos referentes à literatura específica inerente à prática pedagógica. Partindo da caracterização da escola do ensino vocacional de música, nos ensinos Básico e Secundário, a presente reflexão emerge no seguimento do pensamento articulado das várias áreas do saber através da apreciação, fundamentação e discussão das perspetivas de ensino vigentes ao longo do processo de estágio. Deste modo, será exposta toda a perspetiva de ensino por nós desenvolvida, partindo de uma linha temporal, tendo por princípio a descrição de um plano modelo, com o objetivo de podermos demonstrar a direção do nosso pensamento. Tendo como objetivo verificar a eficácia da abordagem ao jogo, como estratégia de ensino, na aprendizagem do ritmo, na disciplina de Formação Musical, partimos de uma investigação bibliográfica sobre a relação entre a escola tradicional e a escola moderna, o jogo e a motivação, e por último, a aprendizagem do ritmo sobre a perspetiva das atividades de aprendizagem sequencial, sustentadas por Edwin Gordon. O projeto de investigação aborda uma nova conceção do jogo, aliando o mesmo às atividades de leitura rítmicas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Temos vindo a assistir nos últimos anos a uma evolução no que respeita à avaliação do risco de crédito. As constantes alterações de regulamentação bancária, que resultam dos Acordos de Basileia, têm vindo a impor novas normas que condicionam a quantidade e a qualidade do risco de crédito que as Instituições de Crédito podem assumir nos seus balanços. É de grande importância as Instituições de Crédito avaliarem o risco de crédito, as garantias e o custo de capital, pois têm um impacto direto na sua gestão nomeadamente quanto à afetação de recursos e proteção contra perdas. Desta forma, pretende-se com o presente trabalho elaborar e estruturar um modelo de rating interno através de técnicas estatísticas, assim como identificar as variáveis estatisticamente relevantes no modelo considerado. Foi delineada uma metodologia de investigação mista, considerando na primeira parte do trabalho uma pesquisa qualitativa e na segunda parte uma abordagem quantitativa. Através da análise documental, fez-se uma abordagem dos conceitos teóricos e da regulamentação que serve de base ao presente trabalho. No estudo de caso, o modelo de rating interno foi desenvolvido utilizando a técnica estatística designada de regressão linear múltipla. A amostra considerada foi obtida através da base de dados SABI e é constituída por cem empresas solventes, situadas na zona de Paredes, num horizonte temporal de 2011-2013. A nossa análise baseou-se em três cenários, correspondendo cada cenário aos dados de cada ano (2011, 2012 e 2013). Para validar os pressupostos do modelo foram efetuados testes estatísticos de Durbin Watson e o teste de significância - F (ANOVA). Por fim, para obtermos a classificação de rating de cada variável foi aplicada a técnica dos percentis. Pela análise dos três cenários considerados, verificou-se que o cenário dois foi o que obteve maior coeficiente de determinação. Verificou-se ainda que as variáveis independentes, rácio de liquidez geral, grau de cobertura do ativo total pelo fundo de maneio e rácio de endividamento global são estatisticamente relevantes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A crescente evolução dos dispositivos contendo circuitos integrados, em especial os FPGAs (Field Programmable Logic Arrays) e atualmente os System on a chip (SoCs) baseados em FPGAs, juntamente com a evolução das ferramentas, tem deixado um espaço entre o lançamento e a produção de materiais didáticos que auxiliem os engenheiros no Co- Projecto de hardware/software a partir dessas tecnologias. Com o intuito de auxiliar na redução desse intervalo temporal, o presente trabalho apresenta o desenvolvimento de documentos (tutoriais) direcionados a duas tecnologias recentes: a ferramenta de desenvolvimento de hardware/software VIVADO; e o SoC Zynq-7000, Z-7010, ambos desenvolvidos pela Xilinx. Os documentos produzidos são baseados num projeto básico totalmente implementado em lógica programável e do mesmo projeto implementado através do processador programável embarcado, para que seja possível avaliar o fluxo de projeto da ferramenta para um projeto totalmente implementado em hardware e o fluxo de projeto para o mesmo projeto implementado numa estrutura de harware/software.