888 resultados para power to extend time


Relevância:

100.00% 100.00%

Publicador:

Resumo:

The catalytic properties of enzymes are usually evaluated by measuring and analyzing reaction rates. However, analyzing the complete time course can be advantageous because it contains additional information about the properties of the enzyme. Moreover, for systems that are not at steady state, the analysis of time courses is the preferred method. One of the major barriers to the wide application of time courses is that it may be computationally more difficult to extract information from these experiments. Here the basic approach to analyzing time courses is described, together with some examples of the essential computer code to implement these analyses. A general method that can be applied to both steady state and non-steady-state systems is recommended. (C) 2001 academic Press.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The South African style SAG (RoM) mills operate in a window that is almost exclusive from the operation of the Australian and North American mills that have been used for the development of SAG mill models. Combining good quality, test data from the RoM mills is extending and improving these models, and assisting in a practical manner in improving our understanding of SAG/AG milling. Data from high mill loads, both in absolute filling and ball loading, have been used to extend and improve the JK SAG mill model. This improved understanding has been successfully applied to increasing the throughput of a mill by 8%. Data is presented on relationships between power and load for high mill loading. Slurry pooling is common in closed-circuit RoM mills, and the detrimental effect of this has been dramatically demonstrated at ALCOA with a mill throughput increase of over 20%. Techniques for calculating the effects of slurry pooling have been developed and a new pulp lifter system designed to give optimal slurry discharge. The influence of mill speed in shifting the product size distribution has also been measured. (C) 2001 Elsevier Science Ltd. All rights reserved.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

There is overwhelming evidence for the existence of substantial genetic influences on individual differences in general and specific cognitive abilities, especially in adults. The actual localization and identification of genes underlying variation in cognitive abilities and intelligence has only just started, however. Successes are currently limited to neurological mutations with rather severe cognitive effects. The current approaches to trace genes responsible for variation in the normal ranges of cognitive ability consist of large scale linkage and association studies. These are hampered by the usual problems of low statistical power to detect quantitative trait loci (QTLs) of small effect. One strategy to boost the power of genomic searches is to employ endophenotypes of cognition derived from the booming field of cognitive neuroscience This special issue of Behavior Genetics reports on one of the first genome-wide association studies for general IQ. A second paper summarizes candidate genes for cognition, based on animal studies. A series of papers then introduces two additional levels of analysis in the ldquoblack boxrdquo between genes and cognitive ability: (1) behavioral measures of information-processing speed (inspection time, reaction time, rapid naming) and working memory capacity (performance on on single or dual tasks of verbal and spatio-visual working memory), and (2) electrophyiosological derived measures of brain function (e.g., event-related potentials). The obvious way to assess the reliability and validity of these endophenotypes and their usefulness in the search for cognitive ability genes is through the examination of their genetic architecture in twin family studies. Papers in this special issue show that much of the association between intelligence and speed-of-information processing/brain function is due to a common gene or set of genes, and thereby demonstrate the usefulness of considering these measures in gene-hunting studies for IQ.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Our interest lies in applying the principles of critical systems thinking to human activity systems in developing countries in situations where issues of natural resource sustainability constrain the feasible set of long-term strategies. The concept of sustainable development provides an expanded domain for critical systems thinking. The fundamental values underpinning sustainable development are that both intragenerational and intergenerational equity are important. As a consequence, key stakeholders are often excluded from power-sharing within current social systems. Addressing these issues requires renewed focus on emancipatory commitment and methodologies. To date, Ulrich's critical systems heuristics is the only critical systems methodology that offers practicable tools for emancipation. A case study analysis in Tigray, northern Ethiopia, provides insights in relation to the application of critical system heuristics to issues of sustainable development and highlights the need to extend the use of critical systems heuristics beyond the design and monitoring of structured interventions.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Most finite element packages use the Newmark algorithm for time integration of structural dynamics. Various algorithms have been proposed to better optimize the high frequency dissipation of this algorithm. Hulbert and Chung proposed both implicit and explicit forms of the generalized alpha method. The algorithms optimize high frequency dissipation effectively, and despite recent work on algorithms that possess momentum conserving/energy dissipative properties in a non-linear context, the generalized alpha method remains an efficient way to solve many problems, especially with adaptive timestep control. However, the implicit and explicit algorithms use incompatible parameter sets and cannot be used together in a spatial partition, whereas this can be done for the Newmark algorithm, as Hughes and Liu demonstrated, and for the HHT-alpha algorithm developed from it. The present paper shows that the explicit generalized alpha method can be rewritten so that it becomes compatible with the implicit form. All four algorithmic parameters can be matched between the explicit and implicit forms. An element interface between implicit and explicit partitions can then be used, analogous to that devised by Hughes and Liu to extend the Newmark method. The stability of the explicit/implicit algorithm is examined in a linear context and found to exceed that of the explicit partition. The element partition is significantly less dissipative of intermediate frequencies than one using the HHT-alpha method. The explicit algorithm can also be rewritten so that the discrete equation of motion evaluates forces from displacements and velocities found at the predicted mid-point of a cycle. Copyright (C) 2003 John Wiley Sons, Ltd.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The aim of this study was to compare the cycling performance of cyclists and triathletes. Each week for 3 weeks, and on different days, 25 highly trained male cyclists and 18 highly trained male triathletes performed: (1) an incremental exercise test on a cycle ergometer for the determination of peak oxygen consumption ((V) over dot O-2peak), peak power output and the first and second ventilatory thresholds, followed 15 min later by a sprint to volitional fatigue at 150% of peak power output; (2) a cycle to exhaustion test at the (V) over dot O-2peak power output; and (3) a 40-km cycle time-trial. There were no differences in (V) over dot O-2peak, peak power output, time to volitional fatigue at 150% of peak power output or time to exhaustion at (V) over dot O-2peak power output between the two groups. However, the cyclists had a significantly faster time to complete the 40-km time-trial (56:18 +/- 2:31 min:s; mean +/- s) than the triathletes (58:57 +/- 3:06 min:s; P < 0.01), which could be partially explained (r = 0.34-0.51; P < 0.05) by a significantly higher first (3.32 +/- 0.36 vs 3.08 +/- 0.36 l . min(-1)) and second ventilatory threshold (4.05 +/- 0.36 vs 3.81 +/- 0.29 l . min(-1); both P < 0.05) in the cyclists compared with the triathletes. In conclusion, cyclists may be able to perform better than triathletes in cycling time-trial events because they have higher first and second ventilatory thresholds.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A tese afirma a vida por meio das biopotências que se manifestam em movimentações invisíveis aos olhos acostumados a permitir o ver, o julgar e o falar. Foca o tempo presente, na comunicação em redes, traz em si a potência de reatar a multidão, com a capacidade de sondar possibilidades mostrando o que antes parecia opaco e impossível. Perambular é ligar nas redes quentes de um bairro com/no/do território ao privilegiar o movimento, o processo, sempre caminhando pelas vias e conexões abertas, aposta estética-ética-política nos paradoxos sem superação e não hierarquizados. Toma como método de pesquisa-intervenção elementos de uma cartografia de movimentos e devires, traçando um perambular rizomático em que são problematizados a constituição do problema de pesquisa, que considera a construção do conhecimento diversificada, descentralizada e horizontalizada. Problematiza as práticas discursivas de si em suas relações com a biopolítica, a governabilidade e a biopolítica das populações. O que está(rá) rolando nesse bairro, no que foi chamado de criança, adolescente, escola, compor para que as coisas apareçam, junto com outros que vivem a loucura em duplas e trios. A tese é a possibilidade da existência de uma educação menor na periferia para as populações marginalizadas, muçulmanizadas. Educação menor, da sala de aula, do bairro, do cotidiano de professores, familiares e alunos. Educação que permite revolucionários, na medida em que alguma revolução ainda faz sentido na educação nesses dias. A educação menor constitui-se, assim, num empreendimento de militância, de professores militantes. Plano das afecções em que não há unidades, apenas intensidade. A tese fala do processo, de como reproduzir, ou não, os modos de subjetividade dominante, não se trata de medidas - "menor" ou "pequeno". Nesse sentido, é preciso considerar os efeitos de produção de subjetividade e a incorporação dos fatos à própria vida. A tese analisa movimentos instituintes buscando reconhecê-los em sua natureza contestatória e transgressora e ter conhecimento de como se organiza na escola e muito além dela. Discutindo a produtividade dessa coreografia do perambular, esboçamos movimentos que denominamos: estradas que levam a nada, além muro

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Over the last decade, software architecture emerged as a critical issue in Software Engineering. This encompassed a shift from traditional programming towards software development based on the deployment and assembly of independent components. The specification of both the overall systems structure and the interaction patterns between their components became a major concern for the working developer. Although a number of formalisms to express behaviour and to supply the indispensable calculational power to reason about designs, are available, the task of deriving architectural designs on top of popular component platforms has remained largely informal. This paper introduces a systematic approach to derive, from CCS behavioural specifications the corresponding architectural skeletons in the Microsoft .Net framework, in the form of executable C and Cω code. The prototyping process is fully supported by a specific tool developed in Haskell

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O pinheiro tem um papel importante na ecologia e economia nacional. O Pinheiro sofre de uma praga severa, denominada por doença da murchidão dos pinheiros, causada pelo nemátodo da madeira do pinheiro (NMP). Apresenta-se como um verme microscópico, invertebrado, medindo menos de 1,5 mm de comprimento. O contágio entre árvores deve-se a vectores biologicamente conhecidos por longicórneo e capricórnio do pinheiro. Os produtores de madeira de pinho são desta forma obrigados a efectuar tratamentos térmicos (HT), de eliminação do NMP e dos seus vectores para que a exportação da madeira serrada cumpra com a norma NP 4487. De modo a manter a competitividade internacional das empresas nacionais, o impacto dos custos do HT deve ser minimizado. O objectivo desta dissertação é efectuar o estudo técnico-económico da implementação de um sistema de cogeração capaz produzir calor para efectuar o tratamento ao NMP e simultaneamente energia eléctrica para vender à rede pública. As receitas da venda de energia eléctrica poderão contribuir para a minimização dos custos do HT. Tendo em conta que os resíduos das serrações de madeira podem ser usados como combustível consideraram-se para avaliação duas tecnologias de cogeração, um sistema de turbina a vapor clássico (ciclo Rankine) e um sistema Organic Rankine Cycle (ORC), permitindo ambas a queima dos resíduos das serrações de madeira. No que diz respeito à avaliação económica, foi desenvolvido um simulador de tecnologia/modalidade de remuneração que efectua cálculos consoante as necessidades térmicas de cada produtor, a potência eléctrica a instalar e indicadores económicos, VAL, TIR e PAYBACK da instalação do sistema de cogeração. O simulador desenvolvido aplica a nova legislação que enquadra o sistema jurídico e remuneratório da cogeração (DL 23/2010), na qual se consideram duas modalidades, geral e especial. A metodologia desenvolvida foi aplicada num caso real de uma serração de madeira e os principais resultados mostram que as soluções apresentadas, turbina a vapor e sistema ORC, não apresentam viabilidade económica. Através da análise de sensibilidade, conclui-se que um dos factores que mais influência a viabilidade económica do projecto é o tempo de funcionamento reduzido. Sendo uma das soluções apresentada a criação de uma central de cogeração para vários produtores de madeira. Uma possível solução para o problema do reduzido tempo de utilização seria o fornecimento do serviço de tratamentos térmicos a outros produtores de paletes de madeira que não possuem estufa própria.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Voltage source multilevel power converter structures are being considered for high power high voltage applications where they have well known advantages. Recently, full back-to-back connected multilevel neutral diode clamped converters (NPC) have been used in high voltage direct current (HVDC) transmission systems. Bipolar back-to-back connection of NPCs have advantages in long distance HVDC transmission systems, but highly increased difficulties to balance the dc capacitor voltage dividers on both sending and receiving end NPCs. This paper proposes a fast optimum-predictive controller to balance the dc capacitor voltages and to control the power flow in a long distance HVDCsystem using bipolar back-to-back connected NPCs. For both converter sides, the control strategy considers active and reactive power to establish ac grid currents on sending and receiving ends, while guaranteeing the balancing of both NPC dc bus capacitor voltages. Furthermore, the fast predictivecontroller minimizes the semiconductor switching frequency to reduce global switching losses. The performance and robustness of the new fast predictive control strategy and the associated dc capacitors voltage balancing are evaluated. (C) 2011 Elsevier B.V. All rights reserved.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This paper presents a Unit Commitment model with reactive power compensation that has been solved by Genetic Algorithm (GA) optimization techniques. The GA has been developed a computational tools programmed/coded in MATLAB. The main objective is to find the best generations scheduling whose active power losses are minimal and the reactive power to be compensated, subjected to the power system technical constraints. Those are: full AC power flow equations, active and reactive power generation constraints. All constraints that have been represented in the objective function are weighted with a penalty factors. The IEEE 14-bus system has been used as test case to demonstrate the effectiveness of the proposed algorithm. Results and conclusions are dully drawn.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

OBJECTIVE: To extend an existing computer programme for the evaluation and design of shift schedules (BASS 3) by integrating workload as well as economic aspects. METHODS: The redesigned prototype BASS 4 includes a new module with a suitable and easily applicable screening method (EBA) for the assessment of the intensity of physical, emotional and cognitive workload components and their temporal patterns. Specified criterion functions based on these ratings allow for an adjustment of shift and rest duration according to the intensity of physical and mental workload. Furthermore, with regard to interactive effects both workload and temporal conditions, e.g. time of day, are taken into account. In a second new module, important economic aspects and criteria have been implemented. Different ergonomic solutions for scheduling problems can now also be evaluated with regard to their economic costs. RESULTS: The new version of the computer programme (BASS 4) can now simultaneously take into account numerous ergonomic, legal, agreed and economic criteria for the design and evaluation of working hours. CONCLUSIONS: BASS 4 can now be used as an instrument for the design and the evaluation of working hours with regard to legal, ergonomic and economic aspects at the shop floor as well as in administrative (e.g. health and safety inspection) and research problems.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Mestrado em Engenharia Química. Ramo Tecnologias de Protecção Ambiental.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Actualmente, a sociedade depara-se com um enorme desafio: a gestão dos resíduos sólidos urbanos. A sua produção tem vindo a aumentar devido à intensificação das actividades humanas nas últimas décadas. A criação de um sistema de gestão dos resíduos é fundamental para definir prioridades nas acções e metas para que haja uma prevenção na produção de resíduos. Os resíduos sólidos urbanos quando dispostos de forma inadequada podem provocar graves impactos ambientais, tendo sido neste trabalho demonstrado que através de uma gestão eficiente destes é possível aproveitar o potencial energético do biogás e consequentemente diminuir o consumo de combustíveis fósseis reduzindo o impacto ambiental. Os aterros sanitários devem funcionar como a ultima etapa do sistema de tratamento dos resíduos sólidos urbanos e são uma alternativa a ter em conta se forem tomadas todas as medidas necessárias. Estima-se que os aterros sejam responsáveis pela produção de 6-20% do metano existente e que contribuam com 3-4% da produção anual de gases efeito de estufa provenientes de actividades antropogénicas1. É, portanto, fundamental proceder a uma impermeabilização do solo e à criação de condições para recolha do biogás produzido durante a decomposição dos resíduos. Foi estimada a produção de biogás, de acordo com o modelo “LandGEM”, no entanto comparando esta produção com a produção medida pelo explorador, constatou-se uma diferença significativa que pode ser justificada pelo: modo de funcionamento do aterro (longos períodos de paragem); desvio dos resíduos rapidamente biodegradáveis para valorização; a existência de uma percentagem superior ao normal de oxigénio no biogás; a utilização de escórias e cinzas, e a correspondente redução da humidade devido ao compactamento exercido sobre os resíduos durante a sua deposição. Visto tratar-se de um estudo de viabilidade económica da valorização do biogás, foram propostos três cenários para a valorização do biogás. O 1º cenário contempla a instalação de um sistema gerador de energia para comercialização junto da Rede Eléctrica Nacional. O 2º Cenário contempla a instalação de um sistema alternativo de alimentação à caldeira da central de valorização energética de forma a substituir o combustível utilizado actualmente. E o 3º Cenário vem de encontro com os resultados observados actualmente onde se verifica uma reduzida produção/recolha de biogás no aterro. Assim é proposto um sistema gerador de energia que garanta o auto-consumo da exploração do aterro (26 MWh/ano). Qualquer um dos cenários apresenta uma VAL negativa o que leva a concluir que não são viáveis. No entanto, através da análise de sensibilidade, verificamos que estes são claramente afectados por factores como o benefício e o investimento anual, concluindo-se que com alterações nos factores de cálculo, como por exemplo, um aumento no consumo de combustível auxiliar da caldeira (2º cenário), ou com um aumento da factura eléctrica (3º cenário), ou com o aumento do tempo de retorno do investimento inicial(1º cenário), os projectos podem-se tornar viáveis. Por fim importa referir que independentemente da valorização é fundamental continuar a eliminar a máxima quantidade de metano produzida para tentar diminuir o impacto que este tem sobre o ambiente.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ethernet is the most popular LAN technology. Its low price and robustness, resulting from its wide acceptance and deployment, has created an eagerness to expand its responsibilities to the factory-floor, where real-time requirements are to be fulfilled. However, it is difficult to build a real-time control network using Ethernet, because its MAC protocol, the 1-persistent CSMA/CD protocol with the BEB collision resolution algorithm, has unpredictable delay characteristics. Many anticipate that the recent technological advances in Ethernet such as the emerging Fast/Gigabit Ethernet, micro-segmentation and full-duplex operation using switches will also enable it to support time-critical applications. This technical report provides a comprehensive look at the unpredictability inherent to Ethernet and at recent technological advances towards real-time operation.