912 resultados para Optimal power flow


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Renewable energy sources (RES) have unique characteristics that grant them preference in energy and environmental policies. However, considering that the renewable resources are barely controllable and sometimes unpredictable, some challenges are faced when integrating high shares of renewable sources in power systems. In order to mitigate this problem, this paper presents a decision-making methodology regarding renewable investments. The model computes the optimal renewable generation mix from different available technologies (hydro, wind and photovoltaic) that integrates a given share of renewable sources, minimizing residual demand variability, therefore stabilizing the thermal power generation. The model also includes a spatial optimization of wind farms in order to identify the best distribution of wind capacity. This methodology is applied to the Portuguese power system.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The PulseCath iVAC 3L? left ventricular assist device is an option to treat transitory left heart failure or dysfunction post-cardiac surgery. Assisted blood flow should reach up to 3 l/min. In the present in vitro model exact pump flow, depending on various frequencies and afterload was examined. Optimal flow was achieved with inflation/deflation frequencies of about 70-80/min. The maximal flow rate was achieved at about 2.5 l/min with a minimal afterload of 22 mmHg. Handling of the device was easy due to the connection to a standard intra-aortic balloon pump console. With increasing afterload (up to a simulated mean systemic pressure of 66 mmHg) flow rate and cardiac support are in some extent limited.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

BACKGROUND AND OBJECTIVES: The SBP values to be achieved by antihypertensive therapy in order to maximize reduction of cardiovascular outcomes are unknown; neither is it clear whether in patients with a previous cardiovascular event, the optimal values are lower than in the low-to-moderate risk hypertensive patients, or a more cautious blood pressure (BP) reduction should be obtained. Because of the uncertainty whether 'the lower the better' or the 'J-curve' hypothesis is correct, the European Society of Hypertension and the Chinese Hypertension League have promoted a randomized trial comparing antihypertensive treatment strategies aiming at three different SBP targets in hypertensive patients with a recent stroke or transient ischaemic attack. As the optimal level of low-density lipoprotein cholesterol (LDL-C) level is also unknown in these patients, LDL-C-lowering has been included in the design. PROTOCOL DESIGN: The European Society of Hypertension-Chinese Hypertension League Stroke in Hypertension Optimal Treatment trial is a prospective multinational, randomized trial with a 3 × 2 factorial design comparing: three different SBP targets (1, <145-135; 2, <135-125; 3, <125 mmHg); two different LDL-C targets (target A, 2.8-1.8; target B, <1.8 mmol/l). The trial is to be conducted on 7500 patients aged at least 65 years (2500 in Europe, 5000 in China) with hypertension and a stroke or transient ischaemic attack 1-6 months before randomization. Antihypertensive and statin treatments will be initiated or modified using suitable registered agents chosen by the investigators, in order to maintain patients within the randomized SBP and LDL-C windows. All patients will be followed up every 3 months for BP and every 6 months for LDL-C. Ambulatory BP will be measured yearly. OUTCOMES: Primary outcome is time to stroke (fatal and non-fatal). Important secondary outcomes are: time to first major cardiovascular event; cognitive decline (Montreal Cognitive Assessment) and dementia. All major outcomes will be adjudicated by committees blind to randomized allocation. A Data and Safety Monitoring Board has open access to data and can recommend trial interruption for safety. SAMPLE SIZE CALCULATION: It has been calculated that 925 patients would reach the primary outcome after a mean 4-year follow-up, and this should provide at least 80% power to detect a 25% stroke difference between SBP targets and a 20% difference between LDL-C targets.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Regulatory light chain (RLC) phosphorylation in fast twitch muscle is catalyzed by skeletal myosin light chain kinase (skMLCK), a reaction known to increase muscle force, work, and power. The purpose of this study was to explore the contribution of RLC phosphorylation on the power of mouse fast muscle during high frequency (100 Hz) concentric contractions. To determine peak power shortening ramps (1.05 to 0.90 Lo) were applied to Wildtype (WT) and skMLCK knockout (skMLCK-/-) EDL muscles at a range of shortening velocities between 0.05-0.65 of maximal shortening velocity (Vmax), before and after a conditioning stimulus (CS). As a result, mean power was increased to 1.28 ± 0.05 and 1.11 ± .05 of pre-CS values, when collapsed for shortening velocity in WT and skMLCK-/-, respectively (n = 10). In addition, fitting each data set to a second order polynomial revealed that WT mice had significantly higher peak power output (27.67 ± 1.12 W/ kg-1) than skMLCK-/- (25.97 ± 1.02 W/ kg-1), (p < .05). No significant differences in optimal velocity for peak power were found between conditions and genotypes (p > .05). Analysis with Urea Glycerol PAGE determined that RLC phosphate content had been elevated in WT muscles from 8 to 63 % while minimal changes were observed in skMLCK-/- muscles: 3 and 8 %, respectively. Therefore, the lack of stimulation induced increase in RLC phosphate content resulted in a ~40 % smaller enhancement of mean power in skMLCK-/-. The increase in power output in WT mice suggests that RLC phosphorylation is a major potentiating component required for achieving peak muscle performance during brief high frequency concentric contractions.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les systèmes multiprocesseurs sur puce électronique (On-Chip Multiprocessor [OCM]) sont considérés comme les meilleures structures pour occuper l'espace disponible sur les circuits intégrés actuels. Dans nos travaux, nous nous intéressons à un modèle architectural, appelé architecture isométrique de systèmes multiprocesseurs sur puce, qui permet d'évaluer, de prédire et d'optimiser les systèmes OCM en misant sur une organisation efficace des nœuds (processeurs et mémoires), et à des méthodologies qui permettent d'utiliser efficacement ces architectures. Dans la première partie de la thèse, nous nous intéressons à la topologie du modèle et nous proposons une architecture qui permet d'utiliser efficacement et massivement les mémoires sur la puce. Les processeurs et les mémoires sont organisés selon une approche isométrique qui consiste à rapprocher les données des processus plutôt que d'optimiser les transferts entre les processeurs et les mémoires disposés de manière conventionnelle. L'architecture est un modèle maillé en trois dimensions. La disposition des unités sur ce modèle est inspirée de la structure cristalline du chlorure de sodium (NaCl), où chaque processeur peut accéder à six mémoires à la fois et où chaque mémoire peut communiquer avec autant de processeurs à la fois. Dans la deuxième partie de notre travail, nous nous intéressons à une méthodologie de décomposition où le nombre de nœuds du modèle est idéal et peut être déterminé à partir d'une spécification matricielle de l'application qui est traitée par le modèle proposé. Sachant que la performance d'un modèle dépend de la quantité de flot de données échangées entre ses unités, en l'occurrence leur nombre, et notre but étant de garantir une bonne performance de calcul en fonction de l'application traitée, nous proposons de trouver le nombre idéal de processeurs et de mémoires du système à construire. Aussi, considérons-nous la décomposition de la spécification du modèle à construire ou de l'application à traiter en fonction de l'équilibre de charge des unités. Nous proposons ainsi une approche de décomposition sur trois points : la transformation de la spécification ou de l'application en une matrice d'incidence dont les éléments sont les flots de données entre les processus et les données, une nouvelle méthodologie basée sur le problème de la formation des cellules (Cell Formation Problem [CFP]), et un équilibre de charge de processus dans les processeurs et de données dans les mémoires. Dans la troisième partie, toujours dans le souci de concevoir un système efficace et performant, nous nous intéressons à l'affectation des processeurs et des mémoires par une méthodologie en deux étapes. Dans un premier temps, nous affectons des unités aux nœuds du système, considéré ici comme un graphe non orienté, et dans un deuxième temps, nous affectons des valeurs aux arcs de ce graphe. Pour l'affectation, nous proposons une modélisation des applications décomposées en utilisant une approche matricielle et l'utilisation du problème d'affectation quadratique (Quadratic Assignment Problem [QAP]). Pour l'affectation de valeurs aux arcs, nous proposons une approche de perturbation graduelle, afin de chercher la meilleure combinaison du coût de l'affectation, ceci en respectant certains paramètres comme la température, la dissipation de chaleur, la consommation d'énergie et la surface occupée par la puce. Le but ultime de ce travail est de proposer aux architectes de systèmes multiprocesseurs sur puce une méthodologie non traditionnelle et un outil systématique et efficace d'aide à la conception dès la phase de la spécification fonctionnelle du système.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

"Sur un ton humoristique, les auteurs avouent être des voleurs… d’idées. À quoi riment les lois sur le droit d’auteur demandent-ils ? À l’origine, ce ne sont pas les droits des créateurs que le souverain ou l’État voulait protéger, mais bien les privilèges des éditeurs. Et d’où vient qu’on ait ainsi accordé à ces derniers le droit exclusif de publier ? C’est que dès l’invention de l’imprimerie, les hommes de pouvoir ont bien vu la menace que représentait pour eux la dissémination des idées : le calcul qu’ils ont fait a profité aux imprimeurs. Le phénomène n’est pas étranger à l’existence des permis de radiodiffusion / télévision existant de nos jours dans nos États démocratiques ; et l’histoire se répète comme on l’observe aujourd’hui quant à la régulation du réseau Internet. Quand les éditeurs se rendirent compte qu’ils ne pouvaient plus avoir la main haute sur tout ce qui se publiait, ils ont pris prétexte du droit des créateurs pour protéger leurs propres intérêts. Ni l’éthique ni l’esthétique ne motivaient les éditeurs , mais bien leurs seuls intérêts commerciaux, légitimes au demeurant. Deux factions s’opposent aujourd’hui quant à la question du droit des auteurs à l’ère numérique. La vieille garde se bat pour préserver à peu de choses près le statu quo tandis que ses vis-à-vis proclament la mort du droit d’auteur tel qu’il a existé. Et quel modèle nouveau préconisent ces derniers ? En fait, ils ne s’opposent pas à toute forme de protection pour ceux qui traditionnellement en ont bénéficié, mais songent à des mécanismes nouveaux …, de sorte que la vieille garde n’a pas à s’en faire outre mesure. Le fond du problème est ailleurs soutiennent MM. Benyekhlef et Tresvant : même si les avocats plaideront que ce ne sont pas les idées, mais bien la forme particulière qu’un créateur a choisie pour les exprimer qu’on protège par les lois sur le droit d’auteur, cela ne change rien. Dès qu’une idée est exprimée et fixée d’une certaine manière, il devient plus difficile de l’exprimer à nouveau puisqu’une partie du champ virtuel qu’elle pouvait occuper est déjà conquise, à bon droit selon le droit actuel. Il faut en conclure que le droit d’auteur nouveau, comme le droit d’auteur traditionnel, est une entrave à la libre circulation des idées."

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les diagnostics cliniques des maladies cardio-vasculaires sont principalement effectués à l’aide d’échographies Doppler-couleur malgré ses restrictions : mesures de vélocité dépendantes de l’angle ainsi qu’une fréquence d’images plus faible à cause de focalisation traditionnelle. Deux études, utilisant des approches différentes, adressent ces restrictions en utilisant l’imagerie à onde-plane, post-traitée avec des méthodes de délai et sommation et d’autocorrélation. L’objectif de la présente étude est de ré-implémenté ces méthodes pour analyser certains paramètres qui affecte la précision des estimations de la vélocité du flux sanguin en utilisant le Doppler vectoriel 2D. À l’aide d’expériences in vitro sur des flux paraboliques stationnaires effectuées avec un système Verasonics, l’impact de quatre paramètres sur la précision de la cartographie a été évalué : le nombre d’inclinaisons par orientation, la longueur d’ensemble pour les images à orientation unique, le nombre de cycles par pulsation, ainsi que l’angle de l’orientation pour différents flux. Les valeurs optimales sont de 7 inclinaisons par orientation, une orientation de ±15° avec 6 cycles par pulsation. La précision de la reconstruction est comparable à l’échographie Doppler conventionnelle, tout en ayant une fréquence d’image 10 à 20 fois supérieure, permettant une meilleure caractérisation des transitions rapides qui requiert une résolution temporelle élevée.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le présent mémoire décrit le développement d’une méthode de synthèse des hélicènes catalysée par la lumière visible. Les conditions pour la formation de [5]hélicène ont été établies par une optimisation du photocatalyseur, du solvant, du système d’oxydation et du temps réactionnel. Suite aux études mécanistiques préliminaires, un mécanisme oxydatif est proposé. Les conditions optimisées ont été appliquées à la synthèse de [6]hélicènes pour laquelle la régiosélectivité a été améliorée en ajoutant des substituants sur la colonne hélicale. La synthèse de thiohélicènes a aussi été testée en utilisant les mêmes conditions sous irradiation par la lumière visible. La méthode a été inefficace pour la formation de benzodithiophènes et de naphtothiophènes, par contre elle permet la formation du phenanthro[3,4-b]thiophène avec un rendement acceptable. En prolongeant la surface-π de la colonne hélicale, le pyrène a été fusionné aux motifs de [4]- et [5]hélicène. Trois dérivés de pyrène-hélicène ont été synthétisés en utilisant les conditions optimisées pour la photocyclisation et leurs caractéristiques physiques ont été étudiées. La méthode de cyclisation sous l’action de la lumière visible a aussi été étudiée en flux continu. Une optimisation du montage expérimental ainsi que de la source lumineuse a été effectuée et les meilleures conditions ont été appliquées à la formation de [5]hélicène et des trois dérivés du pyrène-hélicène. Une amélioration ou conservation des rendements a été observée pour la plupart des produits formés en flux continu comparativement à la synthèse en batch. La concentration de la réaction a aussi été conservée et le temps réactionnel a été réduit par un facteur de dix toujours en comparaison avec la synthèse en batch.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Data centre is a centralized repository,either physical or virtual,for the storage,management and dissemination of data and information organized around a particular body and nerve centre of the present IT revolution.Data centre are expected to serve uniinterruptedly round the year enabling them to perform their functions,it consumes enormous energy in the present scenario.Tremendous growth in the demand from IT Industry made it customary to develop newer technologies for the better operation of data centre.Energy conservation activities in data centre mainly concentrate on the air conditioning system since it is the major mechanical sub-system which consumes considerable share of the total power consumption of the data centre.The data centre energy matrix is best represented by power utilization efficiency(PUE),which is defined as the ratio of the total facility power to the IT equipment power.Its value will be greater than one and a large value of PUE indicates that the sub-systems draw more power from the facility and the performance of the data will be poor from the stand point of energy conservation. PUE values of 1.4 to 1.6 are acievable by proper design and management techniques.Optimizing the air conditioning systems brings enormous opportunity in bringing down the PUE value.The air conditioning system can be optimized by two approaches namely,thermal management and air flow management.thermal management systems are now introduced by some companies but they are highly sophisticated and costly and do not catch much attention in the thumb rules.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In Wireless Sensor Networks (WSN), neglecting the effects of varying channel quality can lead to an unnecessary wastage of precious battery resources and in turn can result in the rapid depletion of sensor energy and the partitioning of the network. Fairness is a critical issue when accessing a shared wireless channel and fair scheduling must be employed to provide the proper flow of information in a WSN. In this paper, we develop a channel adaptive MAC protocol with a traffic-aware dynamic power management algorithm for efficient packet scheduling and queuing in a sensor network, with time varying characteristics of the wireless channel also taken into consideration. The proposed protocol calculates a combined weight value based on the channel state and link quality. Then transmission is allowed only for those nodes with weights greater than a minimum quality threshold and nodes attempting to access the wireless medium with a low weight will be allowed to transmit only when their weight becomes high. This results in many poor quality nodes being deprived of transmission for a considerable amount of time. To avoid the buffer overflow and to achieve fairness for the poor quality nodes, we design a Load prediction algorithm. We also design a traffic aware dynamic power management scheme to minimize the energy consumption by continuously turning off the radio interface of all the unnecessary nodes that are not included in the routing path. By Simulation results, we show that our proposed protocol achieves a higher throughput and fairness besides reducing the delay

Relevância:

30.00% 30.00%

Publicador:

Resumo:

We consider a first order implicit time stepping procedure (Euler scheme) for the non-stationary Stokes equations in smoothly bounded domains of R3. Using energy estimates we can prove optimal convergence properties in the Sobolev spaces Hm(G) (m = 0;1;2) uniformly in time, provided that the solution of the Stokes equations has a certain degree of regularity. For the solution of the resulting Stokes resolvent boundary value problems we use a representation in form of hydrodynamical volume and boundary layer potentials, where the unknown source densities of the latter can be determined from uniquely solvable boundary integral equations’ systems. For the numerical computation of the potentials and the solution of the boundary integral equations a boundary element method of collocation type is used. Some simulations of a model problem are carried out and illustrate the efficiency of the method.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Im Rahmen dieser Arbeit werden Modellbildungsverfahren zur echtzeitfähigen Simulation wichtiger Schadstoffkomponenten im Abgasstrom von Verbrennungsmotoren vorgestellt. Es wird ein ganzheitlicher Entwicklungsablauf dargestellt, dessen einzelne Schritte, beginnend bei der Ver-suchsplanung über die Erstellung einer geeigneten Modellstruktur bis hin zur Modellvalidierung, detailliert beschrieben werden. Diese Methoden werden zur Nachbildung der dynamischen Emissi-onsverläufe relevanter Schadstoffe des Ottomotors angewendet. Die abgeleiteten Emissionsmodelle dienen zusammen mit einer Gesamtmotorsimulation zur Optimierung von Betriebstrategien in Hybridfahrzeugen. Im ersten Abschnitt der Arbeit wird eine systematische Vorgehensweise zur Planung und Erstellung von komplexen, dynamischen und echtzeitfähigen Modellstrukturen aufgezeigt. Es beginnt mit einer physikalisch motivierten Strukturierung, die eine geeignete Unterteilung eines Prozessmodells in einzelne überschaubare Elemente vorsieht. Diese Teilmodelle werden dann, jeweils ausgehend von einem möglichst einfachen nominalen Modellkern, schrittweise erweitert und ermöglichen zum Abschluss eine robuste Nachbildung auch komplexen, dynamischen Verhaltens bei hinreichender Genauigkeit. Da einige Teilmodelle als neuronale Netze realisiert werden, wurde eigens ein Verfah-ren zur sogenannten diskreten evidenten Interpolation (DEI) entwickelt, das beim Training einge-setzt, und bei minimaler Messdatenanzahl ein plausibles, also evidentes Verhalten experimenteller Modelle sicherstellen kann. Zum Abgleich der einzelnen Teilmodelle wurden statistische Versuchs-pläne erstellt, die sowohl mit klassischen DoE-Methoden als auch mittels einer iterativen Versuchs-planung (iDoE ) generiert wurden. Im zweiten Teil der Arbeit werden, nach Ermittlung der wichtigsten Einflussparameter, die Model-strukturen zur Nachbildung dynamischer Emissionsverläufe ausgewählter Abgaskomponenten vor-gestellt, wie unverbrannte Kohlenwasserstoffe (HC), Stickstoffmonoxid (NO) sowie Kohlenmono-xid (CO). Die vorgestellten Simulationsmodelle bilden die Schadstoffkonzentrationen eines Ver-brennungsmotors im Kaltstart sowie in der anschließenden Warmlaufphase in Echtzeit nach. Im Vergleich zur obligatorischen Nachbildung des stationären Verhaltens wird hier auch das dynami-sche Verhalten des Verbrennungsmotors in transienten Betriebsphasen ausreichend korrekt darge-stellt. Eine konsequente Anwendung der im ersten Teil der Arbeit vorgestellten Methodik erlaubt, trotz einer Vielzahl von Prozesseinflussgrößen, auch hier eine hohe Simulationsqualität und Ro-bustheit. Die Modelle der Schadstoffemissionen, eingebettet in das dynamische Gesamtmodell eines Ver-brennungsmotors, werden zur Ableitung einer optimalen Betriebsstrategie im Hybridfahrzeug ein-gesetzt. Zur Lösung solcher Optimierungsaufgaben bieten sich modellbasierte Verfahren in beson-derer Weise an, wobei insbesondere unter Verwendung dynamischer als auch kaltstartfähiger Mo-delle und der damit verbundenen Realitätsnähe eine hohe Ausgabequalität erreicht werden kann.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The challenge of reducing carbon emission and achieving emission target until 2050, has become a key development strategy of energy distribution for each country. The automotive industries, as the important portion of implementing energy requirements, are making some related researches to meet energy requirements and customer requirements. For modern energy requirements, it should be clean, green and renewable. For customer requirements, it should be economic, reliable and long life time. Regarding increasing requirements on the market and enlarged customer quantity, EVs and PHEV are more and more important for automotive manufactures. Normally for EVs and PHEV there are two important key parts, which are battery package and power electronics composing of critical components. A rechargeable battery is a quite important element for achieving cost competitiveness, which is mainly used to story energy and provide continue energy to drive an electric motor. In order to recharge battery and drive the electric motor, power electronics group is an essential bridge to convert different energy types for both of them. In modern power electronics there are many different topologies such as non-isolated and isolated power converters which can be used to implement for charging battery. One of most used converter topology is multiphase interleaved power converter, pri- marily due to its prominent advantages, which is frequently employed to obtain optimal dynamic response, high effciency and compact converter size. Concerning its usage, many detailed investigations regarding topology, control strategy and devices have been done. In this thesis, the core research is to investigate some branched contents in term of issues analysis and optimization approaches of building magnetic component. This work starts with an introduction of reasons of developing EVs and PEHV and an overview of different possible topologies regarding specific application requirements. Because of less components, high reliability, high effciency and also no special safety requirement, non-isolated multiphase interleaved converter is selected as the basic research topology of founded W-charge project for investigating its advantages and potential branches on using optimized magnetic components. Following, all those proposed aspects and approaches are investigated and analyzed in details in order to verify constrains and advantages through using integrated coupled inductors. Furthermore, digital controller concept and a novel tapped-inductor topology is proposed for multiphase power converter and electric vehicle application.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Caches are known to consume up to half of all system power in embedded processors. Co-optimizing performance and power of the cache subsystems is therefore an important step in the design of embedded systems, especially those employing application specific instruction processors. In this project, we propose an analytical cache model that succinctly captures the miss performance of an application over the entire cache parameter space. Unlike exhaustive trace driven simulation, our model requires that the program be simulated once so that a few key characteristics can be obtained. Using these application-dependent characteristics, the model can span the entire cache parameter space consisting of cache sizes, associativity and cache block sizes. In our unified model, we are able to cater for direct-mapped, set and fully associative instruction, data and unified caches. Validation against full trace-driven simulations shows that our model has a high degree of fidelity. Finally, we show how the model can be coupled with a power model for caches such that one can very quickly decide on pareto-optimal performance-power design points for rapid design space exploration.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

We report the first systematic study on the photocatalytic oxidation of humic acid (HA) in artificial seawater (ASW). TiO2 (Degussa P25) dispersions were used as the catalyst with irradiation from a medium-pressure mercury lamp. The optimum quantity of catalyst was found to be between 2 and 2.5 g l(-1); whiled the decomposition was fastest at low pH values (pH 4.5 in the range examined), and the optimum air-flow, using an immersion well reactor with a capacity of 400 ml, was 850 ml min(-1). Reactivity increased with air-flow up to this figure, above which foaming prevented operation of the reactor. Using pure. oxygen, an optimal flow rate was observed at 300 nil min(-1), above which reactivity remains essentially constant. Following treatment for 1 h, low-salinity water (2700 mg l(-1)) was completely mineralised, whereas ASW (46000 mg l(-1)) had traces of HA remaining. These effects are interpreted and kinetic data presented. To avoid problems of precipitation due to change of ionic strength humic substances were prepared directly in ASW, and the effects of ASW on catalyst suspension and precipitation have been taken into account. The Langmuir-Hinshelwood kinetic model has been shown to be followed only approximately for the catalytic oxidation of HA in ASW. The activation energy for the reaction derived from an Arrhenius treatment was 17 ( +/-0.6) kJ mol(-1). (C) 2003 Elsevier Science Ltd. All rights reserved.