984 resultados para Flexi-Bar
Resumo:
Empowered by virtualisation technology, cloud infrastructures enable the construction of flexi- ble and elastic computing environments, providing an opportunity for energy and resource cost optimisation while enhancing system availability and achieving high performance. A crucial re- quirement for effective consolidation is the ability to efficiently utilise system resources for high- availability computing and energy-efficiency optimisation to reduce operational costs and carbon footprints in the environment. Additionally, failures in highly networked computing systems can negatively impact system performance substantially, prohibiting the system from achieving its initial objectives. In this paper, we propose algorithms to dynamically construct and readjust vir- tual clusters to enable the execution of users’ jobs. Allied with an energy optimising mechanism to detect and mitigate energy inefficiencies, our decision-making algorithms leverage virtuali- sation tools to provide proactive fault-tolerance and energy-efficiency to virtual clusters. We conducted simulations by injecting random synthetic jobs and jobs using the latest version of the Google cloud tracelogs. The results indicate that our strategy improves the work per Joule ratio by approximately 12.9% and the working efficiency by almost 15.9% compared with other state-of-the-art algorithms.
Resumo:
Dissertação apresentada para obtenção do Grau de Doutor em Engenharia Química, especialidade de Operações Unitárias e Fenómenos de Transferência, pela Universidade Nova de Lisboa, Faculdade de Ciências e Tecnologia
Resumo:
Dissertação apresentada para obtenção do Grau de Mestre em Tecnologia Alimentar/Qualidade pela Faculdade de Ciências e Tecnologia da Universidade Nova de Lisboa
Resumo:
Mathematical models and statistical analysis are key instruments in soil science scientific research as they can describe and/or predict the current state of a soil system. These tools allow us to explore the behavior of soil related processes and properties as well as to generate new hypotheses for future experimentation. A good model and analysis of soil properties variations, that permit us to extract suitable conclusions and estimating spatially correlated variables at unsampled locations, is clearly dependent on the amount and quality of data and of the robustness techniques and estimators. On the other hand, the quality of data is obviously dependent from a competent data collection procedure and from a capable laboratory analytical work. Following the standard soil sampling protocols available, soil samples should be collected according to key points such as a convenient spatial scale, landscape homogeneity (or non-homogeneity), land color, soil texture, land slope, land solar exposition. Obtaining good quality data from forest soils is predictably expensive as it is labor intensive and demands many manpower and equipment both in field work and in laboratory analysis. Also, the sampling collection scheme that should be used on a data collection procedure in forest field is not simple to design as the sampling strategies chosen are strongly dependent on soil taxonomy. In fact, a sampling grid will not be able to be followed if rocks at the predicted collecting depth are found, or no soil at all is found, or large trees bar the soil collection. Considering this, a proficient design of a soil data sampling campaign in forest field is not always a simple process and sometimes represents a truly huge challenge. In this work, we present some difficulties that have occurred during two experiments on forest soil that were conducted in order to study the spatial variation of some soil physical-chemical properties. Two different sampling protocols were considered for monitoring two types of forest soils located in NW Portugal: umbric regosol and lithosol. Two different equipments for sampling collection were also used: a manual auger and a shovel. Both scenarios were analyzed and the results achieved have allowed us to consider that monitoring forest soil in order to do some mathematical and statistical investigations needs a sampling procedure to data collection compatible to established protocols but a pre-defined grid assumption often fail when the variability of the soil property is not uniform in space. In this case, sampling grid should be conveniently adapted from one part of the landscape to another and this fact should be taken into consideration of a mathematical procedure.
Resumo:
We start by presenting the current status of a complex flavour conserving two-Higgs doublet model. We will focus on some very interesting scenarios where unexpectedly the light Higgs couplings to leptons and to b-quarks can have a large pseudoscalar component with a vanishing scalar component. Predictions for the allowed parameter space at end of the next run with a total collected luminosity of 300 fb(-1) and 3000 fb(-1) are also discussed. These scenarios are not excluded by present data and most probably will survive the next LHC run. However, a measurement of the mixing angle phi(tau), between the scalar and pseudoscalar component of the 125 GeV Higgs, in the decay h -> tau(+)tau(-) will be able to probe many of these scenarios, even with low luminosity. Similarly, a measurement of phi(t) in the vertex (t) over bar th could help to constrain the low tan beta region in the Type I model.
Employment of the side product of biodiesel production in the formation of surfactant like molecules
Resumo:
Dissertação apresentada na Faculdade de Ciências e Tecnologia da Universidade Nova de Lisboa para obtenção do grau de Mestre em Engenharia Química e Bioquímica
Resumo:
Master Thesis to obtain the Master degree in Chemical Engineering - Branch Chemical Processes
Resumo:
Mestrado em Engenharia Química – Ramo Optimização Energética na Indústria Química
Resumo:
As caldeiras são equipamentos de extrema importância na maioria das indústrias portuguesas. É prática frequente os projectos de caldeiras possuírem apenas cálculos de materiais ou estruturais, nunca abordando as questões térmicas das mesmas. Neste contexto surge o presente trabalho que teve como principal objectivo estudar e modelar o comportamento térmico de uma caldeira alimentada a biomassa florestal. A caldeira em estudo é uma caldeira tubos de fumo com ante-fornalha, alimentada a biomassa e com pressão de funcionamento de 10 bar. A primeira parte do trabalho consistiu no levantamento de toda a informação relativa aos aspectos construtivos da caldeira e as condições de operação da mesma, através da consulta do seu projecto. O estudo do comportamento térmico da caldeira foi dividido em 2 partes: a modelação do comportamento térmico na ante-fornalha seguido da modelação do comportamento térmico do feixe tubular. Na ante fornalha admitiu-se que o calor seria transferido do gás para as paredes da mesma por convecção e por radiação, tendo-se utilizado o Método de Hottel para modelar a transferência de calor por radiação. No feixe tubular a transferência de calor por radiação foi desprezada, tendo-se considerado apenas transferência de calor por condução e convecção entre os gases quentes e a água. Os resultados obtidos mostram que, na ante-fornalha, o peso da potência transferida por radiação (96%) é muito superior à potência transferida por convecção (4%), tendo-se obtido os valores de 384,8 kW e de 16,0 kW para a potência térmica transferida por radiação e por convecção, respectivamente. O valor obtido para a temperatura dos gases na ante-fornalha foi de 1085 K. No feixe tubular a potência térmica transferida por convecção foi de 2559 kW tendo-se obtido o valor de 240ºC para a temperatura de exaustão dos gases pela chaminé. As perdas para o exterior foram estimadas em 1,5 %. O balanço global de energia à caldeira indicou um peso para a potência transferida por convecção de 86,3% e para a potência transferida por radiação de 13,6%. O rendimento da caldeira foi calculado pelo método das perdas tendo-se obtido o valor de 39%.
Resumo:
Para o projeto de qualquer estrutura existente (edifícios, pontes, veículos, máquinas, etc.) é necessário conhecer as condições de carga, geometria e comportamento de todas as suas partes, assim como respeitar as normativas em vigor nos países nos quais a estrutura será aplicada. A primeira parte de qualquer projeto nesta área passa pela fase da análise estrutural, onde são calculadas todas as interações e efeitos de cargas sobre as estruturas físicas e os seus componentes de maneira a verificar a aptidão da estrutura para o seu uso. Inicialmente parte-se de uma estrutura de geometria simplificada, pondo de parte os elementos físicos irrelevantes (elementos de fixação, revestimentos, etc.) de maneira a simplificar o cálculo de estruturas complexas e, em função dos resultados obtidos da análise estrutural, melhorar a estrutura se necessário. A análise por elementos finitos é a ferramenta principal durante esta primeira fase do projeto. E atualmente, devido às exigências do mercado, é imprescindível o suporte computorizado de maneira a agilizar esta fase do projeto. Existe para esta finalidade uma vasta gama de programas que permitem realizar tarefas que passam pelo desenho de estruturas, análise estática de cargas, análise dinâmica e vibrações, visualização do comportamento físico (deformações) em tempo real, que permitem a otimização da estrutura em análise. Porém, estes programas demostram uma certa complexidade durante a introdução dos parâmetros, levando muitas vezes a resultados errados. Assim sendo, é essencial para o projetista ter uma ferramenta fiável e simples de usar que possa ser usada para fins de projeto de estruturas e otimização. Sobre esta base nasce este projeto tese onde se elaborou um programa com interface gráfica no ambiente Matlab® para a análise de estruturas por elementos finitos, com elementos do tipo Barra e Viga, quer em 2D ou 3D. Este programa permite definir a estrutura por meio de coordenadas, introdução de forma rápida e clara, propriedades mecânicas dos elementos, condições fronteira e cargas a aplicar. Como resultados devolve ao utilizador as reações, deformações e distribuição de tensões nos elementos quer em forma tabular quer em representação gráfica sobre a estrutura em análise. Existe ainda a possibilidade de importação de dados e exportação dos resultados em ficheiros XLS e XLSX, de maneira a facilitar a gestão de informação. Foram realizados diferentes testes e análises de estruturas de forma a validar os resultados do programa e a sua integridade. Os resultados foram todos satisfatórios e convergem para os resultados de outros programas, publicados em livros, e para cálculo a mão feitos pelo autor.
Resumo:
A água é um recurso natural único, escasso e essencial a todos os seres vivos, o que a torna um bem de extrema importância. Nos dias de hoje, o desperdício deste bem, aliado ao aumento da sua procura, tornou-se um problema devido à decrescente disponibilidade de água doce no nosso planeta. Todas as águas que rejeitamos depois da sua utilização para diversos fins, designadas de águas residuais, necessitam de tratamento antes de serem devolvidas ao meio ambiente. O seu tratamento é realizado numa Estação de Tratamento de Águas Residuais (ETAR) e o processo de tratamento depende das suas características. A ETAR das Termas de S. Vicente, em Penafiel, trabalha no seu limite de capacidade, apresenta uma sobrecarga hidráulica gerada por uma afluência de águas pluviais e o processamento das lamas geradas não permite uma secagem tão completa como seria desejável. Assim, este trabalho teve como objetivo o estudo do funcionamento desta ETAR com a finalidade de propor soluções que o possam otimizar. As soluções propostas para otimizar o funcionamento da ETAR em estudo são: i) a substituição de grades de limpeza manual por grades de limpeza automática de forma a reduzir a necessidade da intervenção do operador ao nível da remoção e condicionamento dos gradados; ii) a construção de um desarenador arejado que além de remover areias de diâmetro superior a 0,2 mm promove também a remoção de gorduras, protegendo desta forma os equipamentos a jusante da abrasão/desgaste prematuros e reduzindo a formação de depósitos nas tubagens; iii) a construção de um tanque de equalização de forma a garantir uma distribuição mais uniforme dos caudais e da carga poluente; iv) a substituição do enchimento do leito percolador por um meio de suporte plástico que permite atingir melhores eficiências de remoção neste tratamento biológico; v) a alteração do agente de desinfeção para radiação ultravioleta, evitando a adição de produtos químicos na água residual e possível formação de subprodutos prejudiciais ao ambiente, como ocorreria no caso da cloragem; e vi) a substituição da desidratação de lamas em leitos de secagem por filtros de banda, que é um processo mais rápido, que ocupa menos espaço e permite atingir elevadas eficiências de remoção de humidade. Para cada uma das sugestões são apresentadas as correspondentes especificações técnicas e dimensionamento. As sugestões de melhoria apresentadas neste trabalho constituem uma alternativa mais económica do que a ampliação da ETAR, que genericamente corresponde à duplicação da linha de tratamento atual. Devido à menor complexidade em termos de construção, estas sugestões podem vir a ser implementadas num futuro próximo, prolongando assim um pouco mais a vida útil da ETAR atual.
Resumo:
SUMMARYThe use of a “direct PCR” DNA polymerase enables PCR amplification without any prior DNA purification from blood samples due to the enzyme's resistance to inhibitors present in blood components. Such DNA polymerases are now commercially available. We compared the PCR performance of six direct PCR-type DNA polymerases (KOD FX, Mighty Amp, Hemo KlenTaq, Phusion Blood II, KAPA Blood, and BIOTAQ) in dried blood eluted from a filter paper with TE buffer. GoTaq Flexi was used as a standard DNA polymerase. PCR performance was evaluated by a nested PCR technique for detecting Plasmodium falciparum genomic DNA in the presence of the blood components. Although all six DNA polymerases showed resistance to blood components compared to the standard Taq polymerase, the KOD FX and BIOTAQ DNA polymerases were resistant to inhibitory blood components at concentrations of 40%, and their PCR performance was superior to that of other DNA polymerases. When the reaction mixture contained a mild detergent, only KOD FX DNA polymerase retained the original amount of amplified product. These results indicate that KOD FX DNA polymerase is the most resistant to inhibitory blood components and/or detergents. Thus, KOD FX DNA polymerase could be useful in serological studies to simultaneously detect antibodies and DNA in eluents for antibodies. KOD FX DNA polymerase is thus not limited to use in detecting malaria parasites, but could also be employed to detect other blood-borne pathogens.
Resumo:
A concretização deste estágio na INCBIO teve como principal objetivo o projeto e dimensionamento de uma unidade de produção de biodiesel por transesterificação nãocatalítica num reator ultrassónico com condições supercríticas de pressão e temperatura. Com vista à concretização do trabalho, iniciou-se a realização do estudo do estado da arte relativo à produção de biodiesel, com particular enfoque na produção de biodiesel por via catalítica e por via supercrítica e na produção de biodiesel com uso de tecnologia ultrassónica. Conclui-se que nenhum estudo contempla a combinação simultânea da produção de biodiesel por via supercrítica através da tecnologia ultrassónica. Este estudo do estado da arte permitiu ainda definir as condições de temperatura, pressão e rácio mássico (250 °C, 95 bar e 1:1 respetivamente) a considerar no projeto da unidade de produção de biodiesel deste trabalho. Com base no estudo do estado da arte efetuado e com base nas características da matéria procedeu-se à definição do processo de produção de biodiesel. Para a definição do processo começou-se por elaborar o diagrama de blocos do processo (BFD) e o diagrama de fluxo do processo (PFD). Com base nos diagramas e na composição da matéria-prima, procedeu-se à quantificação dos reagentes (metanol) com base na estequiometria das reações envolvidas e ao cálculo do balanço de massa. O balanço de massa foi calculado com base na estequiometria das reações envolvidas e foi também calculado através do software de simulação ASPEN PLUS. Após o cálculo do balanço de massa elaborou-se o diagrama de tubulação e instrumentação (P&ID), que contém todos os equipamentos, válvulas, instrumentação e tubagens existentes na unidade. Após a definição do processo e cálculo do balanço de massa procedeu-se ao dimensionamento mecânico e cálculo hidráulico dos tanques, tubagem, bombas, permutador de calor, reator ultrassónico, válvulas de controlo e instrumentação de acordo com as normas ASME. Nesta fase do trabalho foram consultados diversos fornecedores possíveis para a compra de todo o material necessário. O dimensionamento mecânico e cálculo hidráulico efetuados permitiram, entre outras informações relevantes, obter as dimensões necessárias à construção do layout e à elaboração do desenho 3D. Com os resultados obtidos e desenhos elaborados, é possível avançar com a construção da unidade, pelo que pode-se inferir que o objetivo de projetar uma unidade de produção de biodiesel num reator ultrassónico com condições supercríticas foi alcançado. Por fim, efetuou-se uma análise económica detalhada que possibilita a comparação de uma unidade de produção de biodiesel por via catalítica (unidade de produção da INCBIO) com a unidade de produção de biodiesel num reator ultrassónico com condições supercríticas (unidade projetada neste trabalho). Por questões de confidencialidade, não foram revelados maior parte dos resultados da análise económica efetuada. No entanto, conclui-se que os custos de construção da unidade de produção de biodiesel num reator ultrassónico com condições supercríticas são mais baixos cerca de 35 a 40%, quando comparados com os custos de construção da unidade de produção de biodiesel por via catalítica, evidenciando assim que a combinação em simultâneo das condições supercríticas com a tecnologia ultrassónica possibilita a diminuição dos custos de produção.
Resumo:
A legendagem, sendo um modo de tradução audiovisual muito peculiar, implica verter um discurso oral, real ou ficcionado, para texto escrito. A primeira questão que nos colocamos é, como será isto exequível, sem se perder uma parte significativa do discurso oral: os elementos paralinguísticos? Depois, o que acontece nesta passagem da oralidade para a escrita? Haverá forma de contornar as perdas evidentes? Como ponto de partida para este projecto de legendagem, escolhemos dois filmes ainda não legendados em português, cujos argumentos, coincidentemente, também ainda não se encontravam traduzidos em português. Os filmes escolhidos foram Pull My Daisy e The Last Clean Shirt, documentos visuais da cultura da Beat Generation, movimento sediado nos Estados Unidos da América. A partir da tradução, adaptação e legendagem destas obras, procurámos, então, analisar as dificuldades levantadas pela tradução e introdução das marcas de oralidade existentes nos textos de partida, bem como as suas possibilidades de adaptação, tendo em conta as características do público-alvo e os constrangimentos impostos pela própria natureza deste modo de tradução. Procurou tomar-se em consideração também os problemas relacionados com a transferência da cultura da língua de partida para a língua de chegada. A legendagem destas duas curtas-metragens foi realizada através do programa de software SPOT. Depois de concluído, foi analisado todo o processo de tradução, adaptação e legendagem, considerando a necessidade de contextualizar os filmes a nível literário, artístico e cultural, bem como as decisões relativamente a alguns aspectos do resultado final da legendagem, nomeadamente no que respeita às dificuldades impostas pela transposição da oralidade para a escrita. O argumento de Pull My Daisy, nas palavras do autor Jack Kerouac, baseia-se no Acto III da peça “The Beat Generation”. Esta peça foi escrita em 1957, mas foi recentemente redescoberta em 2005, em forma manuscrita, num armazém de New Jersey. Na sua essência, este argumento consiste num improviso de Kerouac elaborado em voz off durante o filme realizado por Robert Frank e Alfred Leslie, em 1959. Desde então, ambos os realizadores desenvolveram as suas criações artísticas, tendo, por exemplo, Alfred Leslie estreado o seu trabalho mais recente, o vídeo The Cedar Bar no London Film Festival em 2002 e Robert Frank realizado vídeos para canções dos New Order, Run de 1989, e de Patti Smith, em 1996, para Summer Cannibals. A curta-metragem começa com um canção cuja letra é um excerto do poema Pull My Daisy de Allen Ginsberg e Jack Kerouac. Depois, Jack Kerouac representa e encarna com a sua própria voz cada uma das personagens do filme, enquadrando, descrevendo e comentando a acção. O argumento do filme é, assim, um exercício livre de improviso sobre as imagens montadas pelos realizadores. The Last Clean Shirt é um filme experimental de Alfred Leslie, realizado em 1964, cujas legendas originais incluídas no filme são textos do poeta americano Frank O’Hara. Este filme tem sempre o mesmo enquadramento de câmara, ao passo que a “acção” nos é sugerida pelo conteúdo das legendas que integram a obra. Isto é, se por um lado o cenário e os protagonistas do filme são os mesmos do início ao fim do filme, é o texto de O’Hara, associado ao momento da inserção dos segmentos no filme, que atrai ou distrai a atenção do espectador para uma viagem que pode ter vários destinos. Estas duas curtas-metragens constituem textos-limite que põem em evidência os desafios do processo de legendagem, graças às suas características muito especiais, enquanto obras de arte cinematográfica. Para além das dificuldades emergentes que todos os trabalhos de tradução envolvem, neste trabalho considerou-se essencial tentar tratar da melhor forma a estrutura poética livre e conferir significado suficiente e coeso no texto de chegada ao fluxo de pensamento exteriorizado no texto de partida, procurando, especialmente, não prejudicar a característica poética dos textos.
Resumo:
Dissertação para obtenção do Grau de Mestre em Engenharia Mecânica