958 resultados para workflow engine
Resumo:
We use the first and second laws of thermodynamics to analyze the behavior of an ideal jet engine. Simple analytical expressions for the thermal efficiency, the overall efficiency, and the reduced thrust are derived. We show that the thermal efficiency depends only on the compression ratio r and on the velocity of the aircraft. The other two performance measures depend also on the ratio of the temperature at the turbine to the inlet temperature in the engine, T-3/T-i. An analysis of these expressions shows that it is not possible to choose an optimal set of values of r and T-3/T-i that maximize both the overall efficiency and thrust. We study how irreversibilities in the compressor and the turbine decrease the overall efficiency of jet engines and show that this effect is more pronounced for smaller T-3/T-i.
Resumo:
O desenvolvimento actual de aplicações paralelas com processamento intensivo (HPC - High Performance Computing) para alojamento em computadores organizados em Cluster baseia-se muito no modelo de passagem de mensagens, do qual é de realçar os esforços de definição de standards, por exemplo, MPI - Message - Passing Interface. Por outro lado, com a generalização do paradigma de programação orientado aos objectos para ambientes distribuídos (Java RMI, .NET Remoting), existe a possibilidade de considerar que a execução de uma aplicação, de processamento paralelo e intensivo, pode ser decomposta em vários fluxos de execução paralela, em que cada fluxo é constituído por uma ou mais tarefas executadas no contexto de objectos distribuídos. Normalmente, em ambientes baseados em objectos distribuídos, a especificação, controlo e sincronização dos vários fluxos de execução paralela, é realizada de forma explicita e codificada num programa principal (hard-coded), dificultando possíveis e necessárias modificações posteriores. No entanto, existem, neste contexto, trabalhos que propõem uma abordagem de decomposição, seguindo o paradigma de workflow com interacções entre as tarefas por, entre outras, data-flow, control-flow, finite - state - machine. Este trabalho consistiu em propor e explorar um modelo de execução, sincronização e controlo de múltiplas tarefas, que permita de forma flexível desenhar aplicações de processamento intensivo, tirando partido da execução paralela de tarefas em diferentes máquinas. O modelo proposto e consequente implementação, num protótipo experimental, permite: especificar aplicações usando fluxos de execução; submeter fluxos para execução e controlar e monitorizar a execução desses fluxos. As tarefas envolvidas nos fluxos de execução podem executar-se num conjunto de recursos distribuídos. As principais características a realçar no modelo proposto, são a expansibilidade e o desacoplamento entre as diferentes componentes envolvidas na execução dos fluxos de execução. São ainda descritos casos de teste que permitiram validar o modelo e o protótipo implementado. Tendo consciência da necessidade de continuar no futuro esta linha de investigação, este trabalho é um contributo para demonstrar que o paradigma de workflow é adequado para expressar e executar, de forma paralela e distribuída, aplicações complexas de processamento intensivo.
Resumo:
O presente projecto tem como objectivo a disponibilização de uma plataforma de serviços para gestão e contabilização de tempo remunerável, através da marcação de horas de trabalho, férias e faltas (com ou sem justificação). Pretende-se a disponibilização de relatórios com base nesta informação e a possibilidade de análise automática dos dados, como por exemplo excesso de faltas e férias sobrepostas de trabalhadores. A ênfase do projecto está na disponibilização de uma arquitectura que facilite a inclusão destas funcionalidades. O projecto está implementado sobre a plataforma Google App Engine (i.e. GAE), de forma a disponibilizar uma solução sob o paradigma de Software as a Service, com garantia de disponibilidade e replicação de dados. A plataforma foi escolhida a partir da análise das principais plataformas cloud existentes: Google App Engine, Windows Azure e Amazon Web Services. Foram analisadas as características de cada plataforma, nomeadamente os modelos de programação, os modelos de dados disponibilizados, os serviços existentes e respectivos custos. A escolha da plataforma foi realizada com base nas suas características à data de iniciação do presente projecto. A solução está estruturada em camadas, com as seguintes componentes: interface da plataforma, lógica de negócio e lógica de acesso a dados. A interface disponibilizada está concebida com observação dos princípios arquitecturais REST, suportando dados nos formatos JSON e XML. A esta arquitectura base foi acrescentada uma componente de autorização, suportada em Spring-Security, sendo a autenticação delegada para os serviços Google Acounts. De forma a permitir o desacoplamento entre as várias camadas foi utilizado o padrão Dependency Injection. A utilização deste padrão reduz a dependência das tecnologias utilizadas nas diversas camadas. Foi implementado um protótipo, para a demonstração do trabalho realizado, que permite interagir com as funcionalidades do serviço implementadas, via pedidos AJAX. Neste protótipo tirou-se partido de várias bibliotecas javascript e padrões que simplificaram a sua realização, tal como o model-view-viewmodel através de data binding. Para dar suporte ao desenvolvimento do projecto foi adoptada uma abordagem de desenvolvimento ágil, baseada em Scrum, de forma a implementar os requisitos do sistema, expressos em user stories. De forma a garantir a qualidade da implementação do serviço foram realizados testes unitários, sendo também feita previamente a análise da funcionalidade e posteriormente produzida a documentação recorrendo a diagramas UML.
Resumo:
Este trabalho tem como objectivo apresentar as ferramentas do Lean Thinking e realizar um estudo de caso numa organização em que este sistema é utilizado. Numa primeira fase do trabalho será feito uma análise bibliográfica sobre o ―Lean Thinking”, que consiste num sistema de negócios, uma forma de especificar valor e delinear a melhor sequência de acções que criam valor. Em seguida, será realizado um estudo de caso numa Empresa – Divisão de Motores – no ramo da aeronáutica com uma longa e conceituada tradição com o objectivo de reduzir o TAT (turnaround time – tempo de resposta), ou seja, o tempo desde a entrada de um motor na divisão até à entrega ao cliente. Primeiramente, analisando as falhas existentes em todo o processo do motor, isto é, a análise de tempos de reparação de peças à desmontagem do motor que têm que estar disponíveis à montagem do mesmo, peças que são requisitadas a outros departamentos da Empresa e as mesmas não estão disponíveis quando são precisas passando pelo layout da divisão. Por fim, fazer uma análise dos resultados até então alcançados na divisão de Motores e aplicar as ferramentas do ―Lean Thinking‖ com o objectivo da implementação. É importante referir que a implementação bem-sucedida requer, em primeiro lugar e acima de tudo, um firme compromisso da administração com uma completa adesão à cultura da procura e eliminação de desperdício. Para concluir o trabalho, destaca-se a importância deste sistema e quais são as melhorias que se podem conseguir com a sua implantação.
Resumo:
Para a diminuição da dependência energética de Portugal face às importações de energia, a Estratégia Nacional para a Energia 2020 (ENE 2020) define uma aposta na produção de energia a partir de fontes renováveis, na promoção da eficiência energética tanto nos edifícios como nos transportes com vista a reduzir as emissões de gases com efeito de estufa. No campo da eficiência energética, o ENE 2020 pretende obter uma poupança energética de 9,8% face a valores de 2008, traduzindo-se em perto de 1800 milhões de tep já em 2015. Uma das medidas passa pela aposta na mobilidade eléctrica, onde se prevê que os veículos eléctricos possam contribuir significativamente para a redução do consumo de combustível e por conseguinte, para a redução das emissões de CO2 para a atmosfera. No entanto, esta redução está condicionada pelas fontes de energia utilizadas para o abastecimento das baterias. Neste estudo foram determinados os consumos de combustível e as emissões de CO2 de um veículo de combustão interna adimensional representativo do parque automóvel. É também estimada a previsão de crescimento do parque automóvel num cenário "Business-as-Usual", através dos métodos de previsão tecnológica para o horizonte 2010-2030, bem como cenários de penetração de veículos eléctricos para o mesmo período com base no método de Fisher- Pry. É ainda analisado o impacto que a introdução dos veículos eléctricos tem ao nível dos consumos de combustível, das emissões de dióxido de carbono e qual o impacto que tal medida terá na rede eléctrica, nomeadamente no diagrama de carga e no nível de emissões de CO2 do Sistema Electroprodutor Nacional. Por fim, é avaliado o impacto dos veículos eléctricos no diagrama de carga diário português, com base em vários perfis de carga das baterias. A introdução de veículos eléctricos em Portugal terá pouca expressão dado que, no melhor dos cenários haverão somente cerca de 85 mil unidades em circulação, no ano de 2030. Ao nível do consumo de combustíveis rodoviários, os veículos eléctricos poderão vir a reduzir o consumo de gasolina até 0,52% e até 0,27% no consumo de diesel, entre 2010 e 2030, contribuindo ligeiramente uma menor dependência energética externa. Ao nível do consumo eléctrico, o abastecimento das baterias dos veículos eléctricos representará até 0,5% do consumo eléctrico total, sendo que parte desse abastecimento será garantido através de centrais de ciclo combinado a gás natural. Apesar da maior utilização deste tipo de centrais térmicas para produção de energia, tanto para abastecimento das viaturas eléctricas, como para o consumo em geral, verifica-se que em 2030, o nível de emissões do sistema electroprodutor será cerca de 46% inferior aos níveis registados em 2010, prevendo-se que atinja as 0,163gCO2/kWh produzido pelo Sistema Electroprodutor Nacional devido à maior quota de produção das fontes de energia renovável, como o vento, a hídrica ou a solar.
Resumo:
We present a novel data analysis strategy which combined with subcellular fractionation and liquid chromatography-mass spectrometry (LC-MS) based proteomics provides a simple and effective workflow for global drug profiling. Five subcellular fractions were obtained by differential centrifugation followed by high resolution LC-MS and complete functional regulation analysis. The methodology combines functional regulation and enrichment analysis into a single visual summary. The workflow enables improved insight into perturbations caused by drugs. We provide a statistical argument to demonstrate that even crude subcellular fractions leads to improved functional characterization. We demonstrate this data analysis strategy on data obtained in a MS-based global drug profiling study. However, this strategy can also be performed on other types of large scale biological data.
Resumo:
This paper presents a simulator for electric vehicles in the context of smart grids and distribution networks. It aims to support network operator´s planning and operations but can be used by other entities for related studies. The paper describes the parameters supported by the current version of the Electric Vehicle Scenario Simulator (EVeSSi) tool and its current algorithm. EVeSSi enables the definition of electric vehicles scenarios on distribution networks using a built-in movement engine. The scenarios created with EVeSSi can be used by external tools (e.g., power flow) for specific analysis, for instance grid impacts. Two scenarios are briefly presented for illustration of the simulator capabilities.
Resumo:
Faz-se nesta dissertação a análise do movimento humano utilizando sinais de ultrassons refletidos pelos diversos membros do corpo humano, designados por assinaturas de ultrassons. Estas assinaturas são confrontadas com os sinais gerados pelo contato dos membros inferiores do ser humano com o chão, recolhidos de forma passiva. O método seguido teve por base o estudo das assinaturas de Doppler e micro-Doppler. Estas assinaturas são obtidas através do processamento dos ecos de ultrassons recolhidos, com recurso à Short-Time Fourier Transform e apresentadas sobre a forma de espectrograma, onde se podem identificar os desvios de frequência causados pelo movimento das diferentes partes do corpo humano. É proposto um algoritmo inovador que, embora possua algumas limitações, é capaz de isolar e extrair de forma automática algumas das curvas e parâmetros característicos dos membros envolvidos no movimento humano. O algoritmo desenvolvido consegue analisar as assinaturas de micro-Doppler do movimento humano, estimando diversos parâmetros tais como o número de passadas realizadas, a cadência da passada, o comprimento da passada, a velocidade a que o ser humano se desloca e a distância percorrida. Por forma a desenvolver, no futuro, um classificador capaz de distinguir entre humanos e outros animais, são também recolhidas e analisadas assinaturas de ultrassons refletidas por dois animais quadrúpedes, um canino e um equídeo. São ainda estudadas as principais características que permitem classificar o tipo de animal que originou a assinatura de ultrassons. Com este estudo mostra-se ser possível a análise de movimento humano por ultrassons, havendo características nas assinaturas recolhidas que permitem a classificação do movimento como humano ou não humano. Do trabalho desenvolvido resultou ainda uma base de dados de assinaturas de ultrassons de humanos e animais que permitirá suportar trabalho de investigação e desenvolvimento futuro.
Resumo:
Mestrado em Fisioterapia.
Resumo:
This paper presents work in progress, to develop an efficient and economic way to directly produce Technetium 99metastable (99mTc) using low-energy cyclotrons. Its importance is well established and relates with the increased global trouble in delivering 99mTc to Nuclear Medicine Departments relying on this radioisotope. Since the present delivery strategy has clearly demonstrated its intrinsic limits, our group decided to follow a distinct approach that uses the broad distribution of the low energy cyclotrons and the accessibility of Molybdenum 100 (100Mo) as the Target material. This is indeed an important issue to consider, since the system here presented, named CYCLOTECH, it is not based on the use of Highly Enriched (or even Low Enriched) Uranium 235 (235U), so entirely complying with the actual international trends and directives concerning the use of this potential highly critical material. The production technique is based on the nuclear reaction 100Mo (p,2n) 99mTc whose production yields have already been documented. Until this moment two Patent requests have already been submitted (the first at the INPI, in Portugal, and the second at the USPTO, in the USA); others are being prepared for submission on a near future. The object of the CYCLOTECH system is to present 99mTc to Nuclear Medicine radiopharmacists in a routine, reliable and efficient manner that, remaining always flexible, entirely blends with established protocols. To facilitate workflow and Radiation Protection measures, it has been developed a Target Station that can be installed on most of the existing PET cyclotrons and that will tolerate up to 400 μA of beam by allowing the beam to strike the Target material at an adequately oblique angle. The Target Station permits the remote and automatic loading and discharge of the Targets from a carriage of 10 Target bodies. On other hand, several methods of Target material deposition and Target substrates are presented. The object was to create a cost effective means of depositing and intermediate the target material thickness (25 - 100μm) with a minimum of loss on a substrate that is able to easily transport the heat associated with high beam currents. Finally, the separation techniques presented are a combination of both physical and column chemistry. The object was to extract and deliver 99mTc in the identical form now in use in radiopharmacies worldwide. In addition, the Target material is recovered and can be recycled.
Resumo:
Introduction: A major focus of data mining process - especially machine learning researches - is to automatically learn to recognize complex patterns and help to take the adequate decisions strictly based on the acquired data. Since imaging techniques like MPI – Myocardial Perfusion Imaging on Nuclear Cardiology, can implicate a huge part of the daily workflow and generate gigabytes of data, there could be advantages on Computerized Analysis of data over Human Analysis: shorter time, homogeneity and consistency, automatic recording of analysis results, relatively inexpensive, etc.Objectives: The aim of this study relates with the evaluation of the efficacy of this methodology on the evaluation of MPI Stress studies and the process of decision taking concerning the continuation – or not – of the evaluation of each patient. It has been pursued has an objective to automatically classify a patient test in one of three groups: “Positive”, “Negative” and “Indeterminate”. “Positive” would directly follow to the Rest test part of the exam, the “Negative” would be directly exempted from continuation and only the “Indeterminate” group would deserve the clinician analysis, so allowing economy of clinician’s effort, increasing workflow fluidity at the technologist’s level and probably sparing time to patients. Methods: WEKA v3.6.2 open source software was used to make a comparative analysis of three WEKA algorithms (“OneR”, “J48” and “Naïve Bayes”) - on a retrospective study using the comparison with correspondent clinical results as reference, signed by nuclear cardiologist experts - on “SPECT Heart Dataset”, available on University of California – Irvine, at the Machine Learning Repository. For evaluation purposes, criteria as “Precision”, “Incorrectly Classified Instances” and “Receiver Operating Characteristics (ROC) Areas” were considered. Results: The interpretation of the data suggests that the Naïve Bayes algorithm has the best performance among the three previously selected algorithms. Conclusions: It is believed - and apparently supported by the findings - that machine learning algorithms could significantly assist, at an intermediary level, on the analysis of scintigraphic data obtained on MPI, namely after Stress acquisition, so eventually increasing efficiency of the entire system and potentially easing both roles of Technologists and Nuclear Cardiologists. In the actual continuation of this study, it is planned to use more patient information and significantly increase the population under study, in order to allow improving system accuracy.
Resumo:
Ao longo deste trabalho será apresentada uma solução para sistemas de informação empresarial no domínio da Qualidade. Desenvolvida num ambiente real com recurso a plataforma .NET, a sua eficácia foi posta à prova em várias implementações. Várias organizações necessitam de implementar processos baseados num documento único, que deve conter o registo de toda a informação, mas que exige a intervenção de diferentes colaboradores. Esta necessidade varia muito entre organizações. Para dar resposta a este problema foi desenvolvido um sistema, denominado de Documentos Inteligentes, que, através de várias ferramentas, permite configurar processos, sem recorrer a codificação, baseados no registo de informação, workflow, controlo de acessos e alertas. É justamente a descrição dos vários componentes tecnológicos utilizados para dar resposta aos problemas, que se irá efectuar neste trabalho. Em termos de desenvolvimento de software foram abordados conceitos práticos de engenharia de domínio, RAD, arquitecturas por camadas, abstracção e workflow que possibilitaram uma maior flexibilidade do sistema desenvolvido e que conduz, simultaneamente, a uma rápida implementação de soluções de software baseadas nesta área.
Resumo:
Trabalho Final de Mestrado para obtenção do grau de Mestre em Engenharia Mecânica
Resumo:
Neste trabalho é desenvolvida uma bancada didáctica que permite simular o funcionamento de um sistema de microgeração. A bancada inclui uma máquina síncrona responsável pela geração de energia eléctrica acoplada a uma máquina de indução que simula a máquina primária. A máquina de indução é controlada por um sistema electrónico de controlo de potência (variador de velocidade) que permite manter constante a velocidade de rotação e consequentemente a frequência da tensão gerada pela máquina síncrona. Por sua vez, a excitação da máquina síncrona é controla por uma fonte de tensão externa. A parametrização e controlo do variador de velocidade, assim como o controlo da fonte de tensão externa, são feitos a partir dum software que corre num PC, que também monitoriza a tensão gerada pela máquina síncrona. Este software é ainda responsável pela interface com o utilizador. O software desenvolvido permite manter as características da tensão gerada pela máquina síncrona independentemente da carga imposta.
Resumo:
Web tornou-se uma ferramenta indispensável para a sociedade moderna. A capacidade de aceder a enormes quantidades de informação, disponível em praticamente todo o mundo, é uma grande vantagem para as nossas vidas. No entanto, a quantidade avassaladora de informação disponível torna-se um problema, que é o de encontrar a informação que precisamos no meio de muita informação irrelevante. Para nos ajudar nesta tarefa, foram criados poderosos motores de pesquisa online, que esquadrinham a Web à procura dos melhores resultados, segundo os seus critérios, para os dados que precisamos. Actualmente, os motores de pesquisa em voga, usam um formato de apresentação de resultados simples, que consiste apenas numa caixa de texto para o utilizador inserir as palavras-chave sobre o tema que quer pesquisar e os resultados são dispostos sobre uma lista de hiperligações ordenada pela relevância que o motor atribui a cada resultado. Porém, existem outras formas de apresentar resultados. Uma das alternativas é apresentar os resultados sobre interfaces em 3 dimensões. É nestes tipos de sistemas que este trabalho vai incidir, os motores de pesquisa com interfaces em 3 dimensões. O problema é que as páginas Web não estão preparadas para serem consumidas por este tipo de motores de pesquisa. Para resolver este problema foi construído um modelo generalista para páginas Web, que consegue alimentar os requisitos das diversas variantes destes motores de pesquisa. Foi também desenvolvido um protótipo de instanciação automático, que recolhe as informações necessárias das páginas Web e preenche o modelo.