977 resultados para Reactive power scheduling
Resumo:
The integration of wind power in eletricity generation brings new challenges to unit commitment due to the random nature of wind speed. For this particular optimisation problem, wind uncertainty has been handled in practice by means of conservative stochastic scenario-based optimisation models, or through additional operating reserve settings. However, generation companies may have different attitudes towards operating costs, load curtailment, or waste of wind energy, when considering the risk caused by wind power variability. Therefore, alternative and possibly more adequate approaches should be explored. This work is divided in two main parts. Firstly we survey the main formulations presented in the literature for the integration of wind power in the unit commitment problem (UCP) and present an alternative model for the wind-thermal unit commitment. We make use of the utility theory concepts to develop a multi-criteria stochastic model. The objectives considered are the minimisation of costs, load curtailment and waste of wind energy. Those are represented by individual utility functions and aggregated in a single additive utility function. This last function is adequately linearised leading to a mixed-integer linear program (MILP) model that can be tackled by general-purpose solvers in order to find the most preferred solution. In the second part we discuss the integration of pumped-storage hydro (PSH) units in the UCP with large wind penetration. Those units can provide extra flexibility by using wind energy to pump and store water in the form of potential energy that can be generated after during peak load periods. PSH units are added to the first model, yielding a MILP model with wind-hydro-thermal coordination. Results showed that the proposed methodology is able to reflect the risk profiles of decision makers for both models. By including PSH units, the results are significantly improved.
Resumo:
Esta dissertação apresenta um estudo sobre os problemas de sequenciamento de tarefas de produção do tipo job shop scheduling. Os problemas de sequenciamento de tarefas de produção pretendem encontrar a melhor sequência para o processamento de uma lista de tarefas, o instante de início e término de cada tarefa e a afetação de máquinas para as tarefas. Entre estes, encontram-se os problemas com máquinas paralelas, os problemas job shop e flow shop. As medidas de desempenho mais comuns são o makespan (instante de término da execução de todas as tarefas), o tempo de fluxo total, a soma dos atrasos (tardiness), o atraso máximo, o número de tarefas que são completadas após a data limite, entre outros. Num problema do tipo job shop, as tarefas (jobs) consistem num conjunto de operações que têm de ser executadas numa máquina pré-determinada, obedecendo a um determinado sequenciamento com tempos pré-definidos. Estes ambientes permitem diferentes cenários de sequenciamento das tarefas. Normalmente, não são permitidas interrupções no processamento das tarefas (preemption) e pode ainda ser necessário considerar tempos de preparação dependentes da sequência (sequence dependent setup times) ou atribuir pesos (prioridades) diferentes em função da importância da tarefa ou do cliente. Pretende-se o estudo dos modelos matemáticos existentes para várias variantes dos problemas de sequenciamento de tarefas do tipo job shop e a comparação dos resultados das diversas medidas de desempenho da produção. Este trabalho contribui para demonstrar a importância que um bom sequenciamento da produção pode ter na sua eficiência e consequente impacto financeiro.
Resumo:
Introduction: C-reactive protein (CRP) and Bedside Index for Severity in Acute Pancreatitis (BISAP) have been used in early risk assessment of patients with AP. Objectives: We evaluated prognostic accuracy of CRP at 24 hours after hospital admission (CRP24) for in-hospital mortality (IM) in AP individually and with BISAP. Materials and Methods: This retrospective cohort study included 134 patients with AP from a Portuguese hospital in 2009---2010. Prognostic accuracy assessment used area under receiver---operating characteristic curve (AUC), continuous net reclassification improvement (NRI), and integrated discrimination improvement (IDI). Results: Thirteen percent of patients had severe AP, 26% developed pancreatic necrosis, and 7% died during index hospital stay. AUCs for CRP24 and BISAP individually were 0.80 (95% confidence interval (CI) 0.65---0.95) and 0.77 (95% CI 0.59---0.95), respectively. No patients with CRP24 <60 mg/l died (P = 0.027; negative predictive value 100% (95% CI 92.3---100%)). AUC for BISAP plus CRP24 was 0.81 (95% CI 0.65---0.97). Change in NRI nonevents (42.4%; 95% CI, 24.9---59.9%) resulted in positive overall NRI (31.3%; 95% CI, − 36.4% to 98.9%), but IDI nonevents was negligible (0.004; 95% CI, − 0.007 to 0.014). Conclusions: CRP24 revealed good prognostic accuracy for IM in AP; its main role may be the selection of lowest risk patients.
Resumo:
A personalização é um aspeto chave de uma interação homem-computador efetiva. Numa era em que existe uma abundância de informação e tantas pessoas a interagir com ela, de muitas maneiras, a capacidade de se ajustar aos seus utilizadores é crucial para qualquer sistema moderno. A criação de sistemas adaptáveis é um domínio bastante complexo que necessita de métodos muito específicos para ter sucesso. No entanto, nos dias de hoje ainda não existe um modelo ou arquitetura padrão para usar nos sistemas adaptativos modernos. A principal motivação desta tese é a proposta de uma arquitetura para modelação do utilizador que seja capaz de incorporar diferentes módulos necessários para criar um sistema com inteligência escalável com técnicas de modelação. Os módulos cooperam de forma a analisar os utilizadores e caracterizar o seu comportamento, usando essa informação para fornecer uma experiência de sistema customizada que irá aumentar não só a usabilidade do sistema mas também a produtividade e conhecimento do utilizador. A arquitetura proposta é constituída por três componentes: uma unidade de informação do utilizador, uma estrutura matemática capaz de classificar os utilizadores e a técnica a usar quando se adapta o conteúdo. A unidade de informação do utilizador é responsável por conhecer os vários tipos de indivíduos que podem usar o sistema, por capturar cada detalhe de interações relevantes entre si e os seus utilizadores e também contém a base de dados que guarda essa informação. A estrutura matemática é o classificador de utilizadores, e tem como tarefa a sua análise e classificação num de três perfis: iniciado, intermédio ou avançado. Tanto as redes de Bayes como as neuronais são utilizadas, e uma explicação de como as preparar e treinar para lidar com a informação do utilizador é apresentada. Com o perfil do utilizador definido torna-se necessária uma técnica para adaptar o conteúdo do sistema. Nesta proposta, uma abordagem de iniciativa mista é apresentada tendo como base a liberdade de tanto o utilizador como o sistema controlarem a comunicação entre si. A arquitetura proposta foi desenvolvida como parte integrante do projeto ADSyS - um sistema de escalonamento dinâmico - utilizado para resolver problemas de escalonamento sujeitos a eventos dinâmicos. Possui uma complexidade elevada mesmo para utilizadores frequentes, daí a necessidade de adaptar o seu conteúdo de forma a aumentar a sua usabilidade. Com o objetivo de avaliar as contribuições deste trabalho, um estudo computacional acerca do reconhecimento dos utilizadores foi desenvolvido, tendo por base duas sessões de avaliação de usabilidade com grupos de utilizadores distintos. Foi possível concluir acerca dos benefícios na utilização de técnicas de modelação do utilizador com a arquitetura proposta.
Resumo:
Face à estagnação da tecnologia uniprocessador registada na passada década, aos principais fabricantes de microprocessadores encontraram na tecnologia multi-core a resposta `as crescentes necessidades de processamento do mercado. Durante anos, os desenvolvedores de software viram as suas aplicações acompanhar os ganhos de performance conferidos por cada nova geração de processadores sequenciais, mas `a medida que a capacidade de processamento escala em função do número de processadores, a computação sequencial tem de ser decomposta em várias partes concorrentes que possam executar em paralelo, para que possam utilizar as unidades de processamento adicionais e completar mais rapidamente. A programação paralela implica um paradigma completamente distinto da programação sequencial. Ao contrário dos computadores sequenciais tipificados no modelo de Von Neumann, a heterogeneidade de arquiteturas paralelas requer modelos de programação paralela que abstraiam os programadores dos detalhes da arquitectura e simplifiquem o desenvolvimento de aplicações concorrentes. Os modelos de programação paralela mais populares incitam os programadores a identificar instruções concorrentes na sua lógica de programação, e a especificá-las sob a forma de tarefas que possam ser atribuídas a processadores distintos para executarem em simultâneo. Estas tarefas são tipicamente lançadas durante a execução, e atribuídas aos processadores pelo motor de execução subjacente. Como os requisitos de processamento costumam ser variáveis, e não são conhecidos a priori, o mapeamento de tarefas para processadores tem de ser determinado dinamicamente, em resposta a alterações imprevisíveis dos requisitos de execução. `A medida que o volume da computação cresce, torna-se cada vez menos viável garantir as suas restrições temporais em plataformas uniprocessador. Enquanto os sistemas de tempo real se começam a adaptar ao paradigma de computação paralela, há uma crescente aposta em integrar execuções de tempo real com aplicações interativas no mesmo hardware, num mundo em que a tecnologia se torna cada vez mais pequena, leve, ubíqua, e portável. Esta integração requer soluções de escalonamento que simultaneamente garantam os requisitos temporais das tarefas de tempo real e mantenham um nível aceitável de QoS para as restantes execuções. Para tal, torna-se imperativo que as aplicações de tempo real paralelizem, de forma a minimizar os seus tempos de resposta e maximizar a utilização dos recursos de processamento. Isto introduz uma nova dimensão ao problema do escalonamento, que tem de responder de forma correcta a novos requisitos de execução imprevisíveis e rapidamente conjeturar o mapeamento de tarefas que melhor beneficie os critérios de performance do sistema. A técnica de escalonamento baseado em servidores permite reservar uma fração da capacidade de processamento para a execução de tarefas de tempo real, e assegurar que os efeitos de latência na sua execução não afectam as reservas estipuladas para outras execuções. No caso de tarefas escalonadas pelo tempo de execução máximo, ou tarefas com tempos de execução variáveis, torna-se provável que a largura de banda estipulada não seja consumida por completo. Para melhorar a utilização do sistema, os algoritmos de partilha de largura de banda (capacity-sharing) doam a capacidade não utilizada para a execução de outras tarefas, mantendo as garantias de isolamento entre servidores. Com eficiência comprovada em termos de espaço, tempo, e comunicação, o mecanismo de work-stealing tem vindo a ganhar popularidade como metodologia para o escalonamento de tarefas com paralelismo dinâmico e irregular. O algoritmo p-CSWS combina escalonamento baseado em servidores com capacity-sharing e work-stealing para cobrir as necessidades de escalonamento dos sistemas abertos de tempo real. Enquanto o escalonamento em servidores permite partilhar os recursos de processamento sem interferências a nível dos atrasos, uma nova política de work-stealing que opera sobre o mecanismo de capacity-sharing aplica uma exploração de paralelismo que melhora os tempos de resposta das aplicações e melhora a utilização do sistema. Esta tese propõe uma implementação do algoritmo p-CSWS para o Linux. Em concordância com a estrutura modular do escalonador do Linux, ´e definida uma nova classe de escalonamento que visa avaliar a aplicabilidade da heurística p-CSWS em circunstâncias reais. Ultrapassados os obstáculos intrínsecos `a programação da kernel do Linux, os extensos testes experimentais provam que o p-CSWS ´e mais do que um conceito teórico atrativo, e que a exploração heurística de paralelismo proposta pelo algoritmo beneficia os tempos de resposta das aplicações de tempo real, bem como a performance e eficiência da plataforma multiprocessador.
Resumo:
SUMMARY Chagas disease is a public health problem worldwide. The availability of diagnostic tools to predict the development of chronic Chagas cardiomyopathy is crucial to reduce morbidity and mortality. Here we analyze the prognostic value of adenosine deaminase serum activity (ADA) and C-reactive protein serum levels (CRP) in chagasic individuals. One hundred and ten individuals, 28 healthy and 82 chagasic patients were divided according to disease severity in phase I (n = 35), II (n = 29), and III (n = 18). A complete medical history, 12-lead electrocardiogram, chest X-ray, and M-mode echocardiogram were performed on each individual. Diagnosis of Chagas disease was confirmed by ELISA and MABA using recombinant antigens; ADA was determined spectrophotometrically and CRP by ELISA. The results have shown that CRP and ADA increased linearly in relation to disease phase, CRP being significantly higher in phase III and ADA at all phases. Also, CRP and ADA were positively correlated with echocardiographic parameters of cardiac remodeling and with electrocardiographic abnormalities, and negatively with ejection fraction. CRP and ADA were higher in patients with cardiothoracic index ≥ 50%, while ADA was higher in patients with ventricular repolarization disturbances. Finally, CRP was positively correlated with ADA. In conclusion, ADA and CRP are prognostic markers of cardiac dysfunction and remodeling in Chagas disease.
Resumo:
SUMMARYResearch on Paracoccidioides brasiliensis has centered in the yeast cell probably because of the lack of distinctive features in the mycelium. In 1942 and for the first time, lateral conidia were noticed in the fungus' hyphae. Later on, Brazilian, Venezuelan and Argentinean researchers described "aleurias" when the fungus was grown in natural substrates. In 1970 authors became interested in the conidia and were able to obtain them in large numbers and treat them as individual units. Their shape and size were defined and the presence of all the elements of a competent eukaryotic cell were demonstrated. Conidia exhibited thermal dimorphism and, additionally, when given intranasally to BALB/c male mice, they converted into yeasts in the lungs and produce progressive pulmonary lesions with further dissemination to other organs. Studies on the phagocyte-conidia interaction were revealing and showed that these versatile structures allow a better understanding of the host- P. brasiliensisinteractions.
Resumo:
Dissertação para obtenção do Grau de Mestre em Engenharia Electrotécnica e de Computadores
Resumo:
A Work Project, presented as part of the requirements for the Award of a Masters Degree in Management from the NOVA – School of Business and Economics
Resumo:
Dissertação para a obtenção de grau de doutor em Bioquímica pelo Instituto de Tecnologia Química e Biológica. Universidade Nova de Lisboa.
Resumo:
Dissertação para obtenção do Grau de Mestre em Engenharia Eletrotécnica e Computadores
Resumo:
Dissertação para obtenção do Grau de Mestre em Engenharia Electrotécnica e de Computadores
Resumo:
The hemolytic power of rattlesnake venom (Crotalus durissus terrificus) was Studied. A high percentage of sample with negative hemolytic power was detected when sheep red blood cells were used. A large number of venoms with hemolytic power, though with a low hemolysis percentage, were detected when liquid, recently extracted venom was used. When crystallized venom was used under the same experimental conditions, a higher percentage ofpositivityfor hemolysis was obtained. When the results obtained on agar plates were compared to those obtained in test tubes, a large number of animals with a higher percentage of hemolysis were detected, though this value was not proportional to the number of animals showing positive plate hemolysis. When the hemolytic power of these venoms was tested on human red blood cells, a large percentage of animals with venoms having a low hemolytic power was also detected. Hemolytic power was much greater when human red blood cells were tested with crystallized venom. The preparation of red blood cells also had an important effect and the use of red blood cells from defibrinated blood is recommended. We conclude that rattlesnake venom has hemolytic power that increases when the venom is crystallized. Red blood cells should be properly preparedfor the lysis reactions. We suggest that the lytic power of the venom is related to venom concentration and to the purity of its fractions.
Resumo:
Dissertação apresentada para obtenção do Grau de Mestre em Engenharia Electrotécnica e de Computadores, pela Universidade Nova de Lisboa, Faculdade de Ciências e Tecnologia
Resumo:
ABSTRACT:C-reactive protein (CRP) has been widely used in the early risk assessment of patients with acute pancreatitis (AP), but unclear aspects about its prognostic accuracy in this setting persist. This project evaluated first CRP prognostic accuracy for severity, pancreatic necrosis (PNec), and in-hospital mortality (IM) in AP in terms of the best timing for CRP measurement and the optimal CRP cutoff points. Secondly it was evaluated the CRP measured at approximately 24 hours after hospital admission (CRP24) prognostic accuracy for IM in AP individually and in a combined model with a recent developed tool for the early risk assessment of patients with AP, the Bedside Index for Severity in AP (BISAP). Two single-centre retrospective cohort studies were held. The first study included 379 patients and the second study included 134 patients. Statistical methods such as the Hosmer-Lemeshow goodness-of-fit test, the area under the receiver-operating characteristic curve, the net reclassification improvement, and the integrated discrimination improvement were used. It was found that CRP measured at approximately 48 hours after hospital admission (CRP48) had a prognostic accuracy for severity, PNec, and IM in AP better than CRP measured at any other timing. It was observed that the optimal CRP48 cutoff points for severity, PNec, and IM in AP varied from 170mg/l to 190mg/l, values greater than the one most often recommended in the literature – 150mg/l. It was found that CRP24 had a good prognostic accuracy for IM in AP and that the cutoff point of 60mg/l had a negative predictive value of 100%. Finally it was observed that the prognostic accuracy of a combined model including BISAP and CRP24 for IM in AP could perform better than the BISAP alone model. These results might have a direct impact on the early risk assessment of patients with AP in the daily clinical practice.--------- RESUMO: A proteina c-reactiva (CRP) tem sido largamente usada na avaliação precoce do risco em doentes com pancreatite aguda (AP), mas aspectos duvidosos acerca do seu valor prognóstico neste contexto persistem. Este projecto avaliou primeiro o valor prognóstico da CRP para a gravidade, a necrose pancreática (PNec) e a mortalidade intra-hospitalar (IM) na AP em termos do melhor momento para efectuar a sua medição e dos seus pontos-de-corte óptimos. Em segundo lugar foi avaliado o valor prognóstico da proteína c-reactiva medida aproximadamente às 24 horas após a admissão hospitalar (CRP24) para a IM na AP isoladamente e num modelo combinado, que incluiu uma ferramenta de avaliação precoce do risco em doentes com AP recentemente desenvolvida, o Bedside Index for Severity in Acute Pancreatitis (BISAP). Dois estudos unicêntricos de coorte retrospectivo foram realizados. O primeiro estudo incluiu 379 doentes e o segundo estudo incluiu 134 doentes. Metodologias estatísticas como o teste de Hosmer-Lemeshow goodness-of-fit, a area under the receiver-operating characteristic curve, o net reclassification improvement e o integrated discrimination improvement foram usadas. Verificou-se que a CRP medida às 48 horas após a admissão hospitalar (CRP48) teve um valor prognóstico para a gravidade, a PNec e a IM na AP melhor do que a CRP medida em qualquer outro momento. Observou-se que os pontos de corte óptimos da CRP48 para a gravidade, a PNec e a IM na AP variaram entre 170mg/l e 190mg/l, valores acima do valor mais frequentemente recomendado na literatura – 150mg/l. Verificou-se que a CRP medida aproximadamente às 24 horas após a admissão hospitalar (CRP24) teve um bom valor prognóstico para a IM na AP e que o ponto de corte 60mg/l teve um valor preditivo negativo de 100%. Finalmente observou-se que o valor prognóstico de um modelo combinado incluindo o BISAP e a CRP24 para a IM na AP pode ter um desempenho melhor do que o do BISAP isoladamente. Estes resultados podem ter um impacto directo na avaliação precoce do risco em doentes com AP na prática clínica diária.