941 resultados para Biofertilizer and optimization
Resumo:
Nos dias de hoje as diferentes indústrias e sectores de atividade económica assentam os seus pilares de desenvolvimento na procura constante de fontes de melhoria, para que assim seja possível melhorar a relação qualidade / preço. Embora no setor industrial as melhorias e inovações tecnológicas surjam a cada dia, estas por si não chegam. Grande parte da otimização incorrida, quer na indústria de manufatura, quer na indústria de serviços, surge da “simples” eliminação de desperdícios, e da procura constante por fontes de melhoria. Com o objetivo traçado, a Grohe Portugal Componentes Sanitários, Lda. propôs a eliminação de desperdícios no âmbito do abastecimento de componentes às linhas de montagem existentes na sua fábrica em Albergaria-a-Velha. Este processo passa não só por uma otimização do tempo de abastecimento e das quantidades de abastecimento, mas também consiste na reestruturação das diferentes rotinas de abastecimento. Todo este processo de otimização estará assente no conceito de Mizusumashi. O Mizusumashi, ou comboio logístico como muitas vezes é referenciado, surge com o objetivo de separar a tarefa de abastecimento da função de montagem. A sua origem surge da adaptação do conceito de Milk Run (volta do leiteiro) à logística interna. Torna-se de relevo referir que, para que este “simples” conceito funcione com uma eficiência que proporcione a sua aplicação, são vastos os fatores que necessitam de ajustamentos ou mesmo, em alguns casos, de uma reestruturação completa. O trabalho desenvolvido nestas instalações fabris, e que culminou neste documento, teve como princípio a análise, avaliação e implementação de melhorias no sistema de abastecimento às linhas de montagem. Todo o processo de abastecimento foi analisado e desconstruído nas suas componentes, para que assim fosse possível desenhar o plano de reestruturação indicado. Foram implementadas melhorias de layout, tempos e tarefas. Os resultados foram positivos tendo em conta o objetivo inicial. Todo este plano foi pensado e documentado com o objetivo de tornar este sistema adaptável a possíveis mudanças. Foi possível então criar um sistema voltado para um plano de melhoria contínua. Com um abastecimento normalizado e rotinado a gestão de stocks é mais precisa diminuindo assim os desperdícios inerentes a estas funções.
Resumo:
O objetivo no presente estudo foi investigar a operação de secagem da microalga Spirulina platensis em camada delgada através da modelagem matemática e otimização da operação, avaliando as características do produto final através de análises físico-químicas. Foram analisados os dados da umidade de equilíbrio para a isoterma de adsorção a 10, 20 e 30°C e de dessorção a 40, 50 e 60°C, através dos modelos de GAB e BET. O calor isostérico foi determinado pela aplicação da equação de Clausius-Clapeyron. O modelo de GAB apresentou melhor ajuste aos dados experimentais. Os valores da área superficial calculados pelos modelos de GAB e BET foram próximos. O calor isostérico e a entropia diferencial da isoterma de dessorção apresentaram comportamento similar. A teoria da compensação entalpia-entropia foi aplicada nas isotermas, indicando que são controladas pela entalpia. A cinética de secagem foi analisada na faixa de temperatura de 50-70°C, através dos modelos de Lewis, Henderson e Pabis, Henderson, Page e Overhults. O modelo de Henderson e Pabis foi escolhido por apresentar maior significado físico para estimar o valor de difusividade efetiva (Def), sendo os valores encontrados na faixa de 5,54 - 6,60×10-11 m 2 /s, para as temperaturas de 50 e 60°C, respectivamente, e de 1,58×10-10 m2 /s para a temperatura de 70°C. A energia de ativação apresentou um valor de 47,9 kJ/mol. A secagem alterou a cor quando comparada ao material in natura. A secagem foi otimizada na faixa de espessuras e temperaturas do ar de secagem de 3-7 mm e de 50-70ºC, respectivamente, através da metodologia de superfície de resposta para ácido tiobarbitúrico (TBA) e perda de ficocianina no produto final. A melhor condição de secagem foi a 55°C e a 3,7 mm, apresentando uma perda de ficocianina de aproximadamente 37% e valor de TBA de 1,5 mgMDA/kgamostra. Nesta condição de secagem, a composição de ácidos graxos da microalga Spirulina não apresentou diferença significativa (P > 0,05) em relação a microalga in natura.
Resumo:
Spent hydroprocessing catalysts (HPCs) are solid wastes generated in refinery industries and typically contain various hazardous metals, such as Co, Ni, and Mo. These wastes cannot be discharged into the environment due to strict regulations and require proper treatment to remove the hazardous substances. Various options have been proposed and developed for spent catalysts treatment; however, hydrometallurgical processes are considered efficient, cost-effective and environmentally-friendly methods of metal extraction, and have been widely employed for different metal uptake from aqueous leachates of secondary materials. Although there are a large number of studies on hazardous metal extraction from aqueous solutions of various spent catalysts, little information is available on Co, Ni, and Mo removal from spent NiMo hydroprocessing catalysts. In the current study, a solvent extraction process was applied to the spent HPC to specifically remove Co, Ni, and Mo. The spent HPC is dissolved in an acid solution and then the metals are extracted using three different extractants, two of which were aminebased and one which was a quaternary ammonium salt. The main aim of this study was to develop a hydrometallurgical method to remove, and ultimately be able to recover, Co, Ni, and Mo from the spent HPCs produced at the petrochemical plant in Come By Chance, Newfoundland and Labrador. The specific objectives of the study were: (1) characterization of the spent catalyst and the acidic leachate, (2) identifying the most efficient leaching agent to dissolve the metals from the spent catalyst; (3) development of a solvent extraction procedure using the amine-based extractants Alamine308, Alamine336 and the quaternary ammonium salt, Aliquat336 in toluene to remove Co, Ni, and Mo from the spent catalyst; (4) selection of the best reagent for Co, Ni, and Mo extraction based on the required contact time, required extractant concentration, as well as organic:aqueous ratio; and (5) evaluation of the extraction conditions and optimization of the metal extraction process using the Design Expert® software. For the present study, a Central Composite Design (CCD) method was applied as the main method to design the experiments, evaluate the effect of each parameter, provide a statistical model, and optimize the extraction process. Three parameters were considered as the most significant factors affecting the process efficiency: (i) extractant concentration, (ii) the organic:aqueous ratio, and (iii) contact time. Metal extraction efficiencies were calculated based on ICP analysis of the pre- and post–leachates, and the process optimization was conducted with the aid of the Design Expert® software. The obtained results showed that Alamine308 can be considered to be the most effective and suitable extractant for spent HPC examined in the study. Alamine308 is capable of removing all three metals to the maximum amounts. Aliquat336 was found to be not as effective, especially for Ni extraction; however, it is able to separate all of these metals within the first 10 min, unlike Alamine336, which required more than 35 min to do so. Based on the results of this study, a cost-effective and environmentally-friendly solventextraction process was achieved to remove Co, Ni, and Mo from the spent HPCs in a short amount of time and with the low extractant concentration required. This method can be tested and implemented for other hazardous metals from other secondary materials as well. Further investigation may be required; however, the results of this study can be a guide for future research on similar metal extraction processes.
Resumo:
C-ficocianina (C-FC) é uma ficobiliproteína, de cor natural azul, com diversas aplicações na indústria alimentícia, farmacêutica e biomédica, dependendo do seu grau específico de pureza, que pode variar de 0,7 a 4,0, com respectivo aumento de seu valor comercial. Essa pureza é alcançada através de diversas técnicas de purificação, que podem ser aplicadas em diferentes sequências. Um destes processos de purificação de proteínas baseia-se na cromatografia de troca iônica, que utiliza trocadores que adsorvem as proteínas como resultado de interações iônicas entre a superfície da proteína e o trocador. Resinas e colunas de leito expandido podem ser utilizadas para aumentar a produtividade dessa técnica. É fundamental conhecer o perfil do processo de adsorção, para melhor aplicá-lo como ferramenta para o design e otimização de parâmetros operacionais. Outra tecnologia para o tratamento de biomoléculas é a ultrafiltração. Esta técnica é aplicável em larga escala, apresenta baixa complexidade de aplicação e pode ser realizada em condições brandas, minimizando o dano para o produto. Para aumentar a estabilidade da C-FC, e facilitar a sua aplicação, podem ser avaliadas técnicas recentes, não exploradas para este fim, como as nanofibras obtidas através do processo de electrospinning. Estas fibras possuem uma área superficial específica extremamente elevada devido a seu pequeno diâmetro. O objetivo deste trabalho foi avaliar parâmetros de adsorção e diferentes técnicas para purificação de C-ficocianina de Spirulina platensis e obter nanofibras poliméricas incorporadas de C-ficocianina. O trabalho foi dividido em quatro artigos. No primeiro artigo, foram avaliados os parâmetros e as isotermas de adsorção de C-ficocianina em resina de troca iônica para leito expandido Streamline® DEAE. Verificou-se que o maior coeficiente de partição foi obtido em pH 7,5, nas temperaturas de 15 e 25 °C. As isotermas de adsorção da Cficocianina foram bem representadas pelos modelos de Langmuir, de Freundlich e de Langmuir-Freundlich, sendo os valores estimados para Qm e Kd obtidos pela isoterma de Langmuir foram, respectivamente, 33,92 mg.mL-1 e 0,123 mg.mL-1, respectivamente. No segundo artigo foi avaliada a purificação de C-FC até grau alimentar, utilizando ultrafiltração (UF). Com a membrana de 50 kDa, identificou-se que somente a temperatura e a aplicação de diferentes ciclos de diafiltração (DF) causaram influência significativa sobre a purificação e recuperação da C-ficocianina. Foram então aplicados o aumento gradativo da quantidade de ciclos, e a diafiltração previamente à ultrafiltração (DF/UF), onde obteve-se um extrato de Cficocianina com pureza de 0,95. No terceiro artigo foram propostos processos de purificação, envolvendo a utilização das diferentes técnicas para obtenção de C-FC com diferentes purezas. Determinou-se que a partir de cromatografia de troca iônica em leito fixo seguido de DF/UF, obtém-se C-FC para uso em cosméticos e a partir de precipitação com sulfato de amônio, e DF/UF obtém-se C-FC para uso em biomarcadores. Com uma sequência de precipitação com sulfato de amônio, DF/UF e cromatografia de troca iônica em leito fixo chega-se a C-FC de grau analítico. No último artigo, C-FC foi incorporada a nanofibras de óxido de polietileno (PEO) através de processo de electrospinning. Foram determinadas a condutividade da solução de C-FC/PEO, a estrutura e comportamento termogravimétrico das nanofibras formadas. Soluções de polímeros com concentração de 6 e 8% proporcionaram a formação de nanofibras com diâmetro médio inferior a 800 nm, homogêneas, sem a presença de gotas. A análise termogravimétrica identificou aumento na resistência térmica da C-FC incorporada nas fibras.
Quantificação de açúcares com uma língua eletrónica: calibração multivariada com seleção de sensores
Resumo:
Este trabalho incide na análise dos açúcares majoritários nos alimentos (glucose, frutose e sacarose) com uma língua eletrónica potenciométrica através de calibração multivariada com seleção de sensores. A análise destes compostos permite contribuir para a avaliação do impacto dos açúcares na saúde e seu efeito fisiológico, além de permitir relacionar atributos sensoriais e atuar no controlo de qualidade e autenticidade dos alimentos. Embora existam diversas metodologias analíticas usadas rotineiramente na identificação e quantificação dos açúcares nos alimentos, em geral, estes métodos apresentam diversas desvantagens, tais como lentidão das análises, consumo elevado de reagentes químicos e necessidade de pré-tratamentos destrutivos das amostras. Por isso se decidiu aplicar uma língua eletrónica potenciométrica, construída com sensores poliméricos selecionados considerando as sensibilidades aos açucares obtidas em trabalhos anteriores, na análise dos açúcares nos alimentos, visando estabelecer uma metodologia analítica e procedimentos matemáticos para quantificação destes compostos. Para este propósito foram realizadas análises em soluções padrão de misturas ternárias dos açúcares em diferentes níveis de concentração e em soluções de dissoluções de amostras de mel, que foram previamente analisadas em HPLC para se determinar as concentrações de referência dos açúcares. Foi então feita uma análise exploratória dos dados visando-se remover sensores ou observações discordantes através da realização de uma análise de componentes principais. Em seguida, foram construídos modelos de regressão linear múltipla com seleção de variáveis usando o algoritmo stepwise e foi verificado que embora fosse possível estabelecer uma boa relação entre as respostas dos sensores e as concentrações dos açúcares, os modelos não apresentavam desempenho de previsão satisfatório em dados de grupo de teste. Dessa forma, visando contornar este problema, novas abordagens foram testadas através da construção e otimização dos parâmetros de um algoritmo genético para seleção de variáveis que pudesse ser aplicado às diversas ferramentas de regressão, entre elas a regressão pelo método dos mínimos quadrados parciais. Foram obtidos bons resultados de previsão para os modelos obtidos com o método dos mínimos quadrados parciais aliado ao algoritmo genético, tanto para as soluções padrão quanto para as soluções de mel, com R²ajustado acima de 0,99 e RMSE inferior a 0,5 obtidos da relação linear entre os valores previstos e experimentais usando dados dos grupos de teste. O sistema de multi-sensores construído se mostrou uma ferramenta adequada para a análise dos iii açúcares, quando presentes em concentrações maioritárias, e alternativa a métodos instrumentais de referência, como o HPLC, por reduzir o tempo da análise e o valor monetário da análise, bem como, ter um preparo mínimo das amostras e eliminar produtos finais poluentes.
Resumo:
Este estudo envolve o controlo e a optimização das condições de culturas dos microrganismos: Saccharomyces cerevisiae CCMI 396, S. cerevisiae v. lab., Aspergillus oryzae CCMI 125, Aspergillus japonicus CCMI 443, Fusarium oxysporum CCMI 866, Aspergillus niger CCMI 296 com vista à produção de oligossacáridos. Determinaram-se os parâmetros característicos das culturas de duas diferentes estirpes de Saccharomyces com diferentes fontes de carbono e em diferentes condições ambientais. O perfil de crescimento da S. cerevisiae CCMI 396 foi semelhante nos diferentes meios de cultura estudados, sendo a velocidade específica de crescimento mais elevada no meio com glucose a pH 5 e a 30°C (0,36h-1). A S. cerevisiae v. lab. Teve velocidade específica de crescimento idêntica nas mesmas condições da outra estirpe, no entanto, o perfil de crescimento foi diferente nos outros meios de cultura. Estudou-se o efeito da adição de sumo de laranja ou de tomate ao meio de cultura com sacarose e avaliou-se a evolução glucídica no meio de cultura durante o ensaio por HPLC com detector RI. Determinou-se a frutosiltransferase no sobrenadante e na fracção intracelular e determinou-se a evolução dos oligossacáridos. Numa segunda parte deste trabalho efectuaram-se culturas dos quatro fungos filamentosos com vista a avaliar a capacidade de produção, nomeadamente, de frutooligassacáridos. Os resultados mostraram que a espécie Aspergillus japonicus CCMI 443 originou, nas mesmas condições de cultura, valores superiores, sendo a percentagem de produção FOStotais/GluCtotais de 61% para as enzimas intracelulares e 40% para as enzimas no sobrenadante. ABSTRACT; This study involves control and optimization of the cultures of microorganisms: Saccharomyces cerevisiae CCMI 396, S. cerevisiae v. lab., Aspergillus oryzae CCMI 125, Aspergillus japonicus CCMI 443, Fusarium oxysporum CCMI 866, Aspergillus níger CCMI 296 for oligosaccharides production. Were determined the parameters characteristic of the cultures of two different strains of Saccharomyces with different sources of carbon and in different environmental conditions. The growth profile of S. cerevisiae CCMI 396 was similar in different cultures media, but the highest specific growth was obtained in a medium with glucose, pH 5, at 30°C (0.36h-1). S. cerevisiae v. lab. had similar growth profile in a medium with glucose but with others culture media was different. We studied the effect of adding orange juice or tomato to the culture medium with sucrose and evaluated the evolution glucidic in the culture medium during the test by HPLC with RI detector. Fructosyltransferase was determined in the extracellular and the intracellular fractions and determined the evolution of oligosaccharides. ln the second part of this work were carried out cultures of four filamentous fungi in order to assess production capacity, in particular, fructoligosaccharides. The results showed that the specie Aspergillus japonicus CCMI 443 originated in the same culture conditions, higher values and the percentage of production FOStotal/Guctotal of 61% for intracellular enzymes and 40% for extracellular enzymes.
Resumo:
The performance, energy efficiency and cost improvements due to traditional technology scaling have begun to slow down and present diminishing returns. Underlying reasons for this trend include fundamental physical limits of transistor scaling, the growing significance of quantum effects as transistors shrink, and a growing mismatch between transistors and interconnects regarding size, speed and power. Continued Moore's Law scaling will not come from technology scaling alone, and must involve improvements to design tools and development of new disruptive technologies such as 3D integration. 3D integration presents potential improvements to interconnect power and delay by translating the routing problem into a third dimension, and facilitates transistor density scaling independent of technology node. Furthermore, 3D IC technology opens up a new architectural design space of heterogeneously-integrated high-bandwidth CPUs. Vertical integration promises to provide the CPU architectures of the future by integrating high performance processors with on-chip high-bandwidth memory systems and highly connected network-on-chip structures. Such techniques can overcome the well-known CPU performance bottlenecks referred to as memory and communication wall. However the promising improvements to performance and energy efficiency offered by 3D CPUs does not come without cost, both in the financial investments to develop the technology, and the increased complexity of design. Two main limitations to 3D IC technology have been heat removal and TSV reliability. Transistor stacking creates increases in power density, current density and thermal resistance in air cooled packages. Furthermore the technology introduces vertical through silicon vias (TSVs) that create new points of failure in the chip and require development of new BEOL technologies. Although these issues can be controlled to some extent using thermal-reliability aware physical and architectural 3D design techniques, high performance embedded cooling schemes, such as micro-fluidic (MF) cooling, are fundamentally necessary to unlock the true potential of 3D ICs. A new paradigm is being put forth which integrates the computational, electrical, physical, thermal and reliability views of a system. The unification of these diverse aspects of integrated circuits is called Co-Design. Independent design and optimization of each aspect leads to sub-optimal designs due to a lack of understanding of cross-domain interactions and their impacts on the feasibility region of the architectural design space. Co-Design enables optimization across layers with a multi-domain view and thus unlocks new high-performance and energy efficient configurations. Although the co-design paradigm is becoming increasingly necessary in all fields of IC design, it is even more critical in 3D ICs where, as we show, the inter-layer coupling and higher degree of connectivity between components exacerbates the interdependence between architectural parameters, physical design parameters and the multitude of metrics of interest to the designer (i.e. power, performance, temperature and reliability). In this dissertation we present a framework for multi-domain co-simulation and co-optimization of 3D CPU architectures with both air and MF cooling solutions. Finally we propose an approach for design space exploration and modeling within the new Co-Design paradigm, and discuss the possible avenues for improvement of this work in the future.
Resumo:
The knowledge of the liquid-liquid equilibria (LLE) between ionic liquids (ILs) and water is of utmost importance for environmental monitoring, process design and optimization. Therefore, in this work, the mutual solubilities with water, for the ILs combining the 1-methylimidazolium, [C(1)im](+); 1-ethylimidazolium, [C(2)im](+); 1-ethyl-3-propylimidazolium, [C(2)C(3)im](+); and 1-butyl-2,3-dimethylimidazolium, [C(4)C(1)C(1)im](+) cations with the bis(trifluoromethylsulfonyl)imide anion, were determined and compared with the isomers of the symmetric 1,3-dialkylimidazolium bis(trifluoromethylsulfonyl)imide ([C(n)C(n)im][NTf2], with n=1-3) and of the asymmetric 1-alkyl-3-methylimidazolium bis(trifluoromethylsulfonyl)imide ([C(n)C(1)im][NTf2], with n = 2-5) series of ILs. The results obtained provide a broad picture of the impact of the IL cation structural isomerism, including the number of alkyl side chains at the cation, on the water-IL mutual solubilities. Despite the hydrophobic behaviour associated to the [NTf2](-) anion, the results show a significant solubility of water in the IL-rich phase, while the solubility of ILs in the water-rich phase is much lower. The thermodynamic properties of solution indicate that the solubility of ILs in water is entropically driven and highly influenced by the cation size. Using the results obtained here in addition to literature data, a correlation between the solubility of [NTf2]-based ILs in water and their molar volume, for a large range of cations, is proposed. The COnductor like Screening MOdel for Real Solvents (COSMO-RS) was also used to estimate the LLE of the investigated systems and proved to be a useful predictive tool for the a priori screening of ILs aiming at finding suitable candidates before extensive experimental measurements.
Resumo:
[EU]"Arku fazial birtualaren balidazioa eta optimizazioa". Odontologian eta, oro har, medikuntzan, prozesu birtualek geroz eta indar handiagoa hartzen dabiltza, bai espezialista baita pazienteei erraztasuna emateko asmoz. Ildo horretatik jarraituz, protesien eta hortz-errestaurazioen kasuan, ikerketa sakonak burutu dira, prozesuaren ahalik eta zatirik handiena digitalizatzeko. Digitalizazio prozesu honetan CAD/CAM sistemaren aurrerapenek ere zeresan handia izan dute; izan ere, protesi eta errestaurazioen prozesu tradizionala ordezkatzea ahalbidetu du. Prozesu digitalek hainbat onura suposatu arren, zein fidagarriak diren konprobatzea ezinbestekoa da, prozesuarentzat metodologiarik egokiena aukeratu ahal izateko. Horretan zentratzen da hain zuzen proiektu hau. Protesien diseinu birtuala egin ahal izateko, beharrezkoa da horzduren kokapen birtuala lortzea, artikulagailu birtualean kokatu ahal izateko. Horretarako arku fazial birtuala erabiliko da, baina oraindik ez da metodologiarik egokiena zein den konprobatu. Beraz, proiektu honen helburua arku fazial birtual egokiena zein den zehaztea da, horretarako metodologia ezberdinak konparatuko direlarik bai modelo ez-erreala erabiliz (in vitro) baita paziente errealekin (in vivo). Horrela, prozesu ezberdinen zehaztasuna zein den konprobatu ahal izango da, bakoitzaren egiazkotasuna eta doitasuna aztertuz. Emaitzetan oinarrituz, arku fazial birtual gisa metodologiarik egokiena zein den ondorioztatu ahal izango da.
Resumo:
O aumento da carga física do jogo de futebol provocou uma maior exigência e desenvolvimento na condição física dos jogadores e por inerência, nos árbitros. Assim o presente estudo procurou identificar e desenvolver um teste para a avaliação dos árbitros de futebol. Foi realizada uma análise sistemática para identificação e descrição da produção científica na área da arbitragem no sentido de sustentar o argumento de insuficiência dos testes vigentes e propor o novo teste que denominámos ETSOR. Após esta, foi realizada uma aplicação piloto com recurso ao método de estudo de caso para testagem do ETSOR. Os resultados revelaram que existe uma dispersão nas formas e conteúdos abordados face à caracterização do árbitro de futebol de 11. A partir do método de meta-análise, é apresentada uma proposta de categorização dos conteúdos. Os resultados revelaram também que o teste FIFA não identifica as intensidades irregulares que decorrem das situações do jogo, nem representa a uma distribuição das intensidades dos esforços dos árbitros nas situações de jogo. O Teste ETSOR, como teste ecológico, capta em termos de densidade, de distribuição, de variação da potência e de resistência, os esforços dos árbitros nas situações de jogo, como testa a características das intensidades máximas da atividade do árbitro. Por último, os resultados reforçaram que este processo que se deve estender de forma periodizada ao longo de cada época tornando-se útil, na medida em que permite a otimização e monitorização da prestação do árbitro.
Resumo:
A gestão de projetos tem vindo a ser considerada uma arma competitiva para as organizações, a qual possibilita níveis de eficiência, qualidade e respetivo valor acrescentado sobre o produto ou serviço disponibilizado. A aplicação de conhecimentos e práticas nesta área permite um rigoroso controlo das principais componentes de um projeto, mesmo que essas componentes sejam consideradas variáveis incertas, devido a serem caracterizadas pela sua imprevisibilidade de ocorrência e pela sua influência sobre os objetivos do projeto. Deste modo, a gestão do risco viabiliza um tratamento destas variáveis que condicionam o sucesso do projeto, classificadas como riscos, daí a importância desta gestão ser efetuada de uma forma adequada e o mais completa possível. A Marinha Portuguesa adaptou a doutrina de gestão de projetos às suas atividades, edificando a Capacidade de Gestão de Projetos. Esta capacidade permitiu compilar a informação e as técnicas reconhecidas pela doutrina que, se julgaram indispensáveis para o cumprimento das atividades. Todavia, a doutrina tem vindo a ser atualizada permitindo, cada vez mais, condições de sucesso garantido através da aplicação de conhecimentos e procedimentos válidos em todas as áreas de conhecimento da gestão de projetos. Neste sentido, a presente investigação tem como objetivo principal, o estudo de uma das áreas mais delicadas da gestão de projetos, a gestão do risco, possibilitando a atualização e otimização desta área do conhecimento, adaptada à Marinha Portuguesa, através da conceção de um modelo do Plano de Gestão do Risco. Este documento trata e revela o modo como será executada a gestão do risco por meio de estratégias e técnicas devidamente selecionadas, garantindo o sucesso dos projetos e respetivo valor acrescentado para a organização.
Resumo:
The multiphase flow occurrence in the oil and gas industry is common throughout fluid path, production, transportation and refining. The multiphase flow is defined as flow simultaneously composed of two or more phases with different properties and immiscible. An important computational tool for the design, planning and optimization production systems is multiphase flow simulation in pipelines and porous media, usually made by multiphase flow commercial simulators. The main purpose of the multiphase flow simulators is predicting pressure and temperature at any point at the production system. This work proposes the development of a multiphase flow simulator able to predict the dynamic pressure and temperature gradient in vertical, directional and horizontal wells. The prediction of pressure and temperature profiles was made by numerical integration using marching algorithm with empirical correlations and mechanistic model to predict pressure gradient. The development of this tool involved set of routines implemented through software programming Embarcadero C++ Builder® 2010 version, which allowed the creation of executable file compatible with Microsoft Windows® operating systems. The simulator validation was conduct by computational experiments and comparison the results with the PIPESIM®. In general, the developed simulator achieved excellent results compared with those obtained by PIPESIM and can be used as a tool to assist production systems development
Resumo:
La distance de Kendall-τ compte le nombre de paires en désaccord entre deux permuta- tions. La distance d’une permutation à un ensemble est simplement la somme des dis- tances entre cette permutation et les permutations de l’ensemble. À partir d’un ensemble donné de permutations, notre but est de trouver la permutation, appelée médiane, qui minimise cette distance à l’ensemble. Le problème de la médiane de permutations sous la distance de Kendall-τ, trouve son application en bio-informatique, en science politique, en télécommunication et en optimisation. Ce problème d’apparence simple est prouvé difficile à résoudre. Dans ce mémoire, nous présentons plusieurs approches pour résoudre le problème, pour trouver une bonne solution approximative, pour le séparer en classes caractéristiques, pour mieux com- prendre sa compléxité, pour réduire l’espace de recheche et pour accélérer les calculs. Nous présentons aussi, vers la fin du mémoire, une généralisation de ce problème et nous l’étudions avec ces mêmes approches. La majorité du travail de ce mémoire se situe dans les trois articles qui le composent et est complémenté par deux chapitres servant à les lier.
Resumo:
Early water resources modeling efforts were aimed mostly at representing hydrologic processes, but the need for interdisciplinary studies has led to increasing complexity and integration of environmental, social, and economic functions. The gradual shift from merely employing engineering-based simulation models to applying more holistic frameworks is an indicator of promising changes in the traditional paradigm for the application of water resources models, supporting more sustainable management decisions. This dissertation contributes to application of a quantitative-qualitative framework for sustainable water resources management using system dynamics simulation, as well as environmental systems analysis techniques to provide insights for water quality management in the Great Lakes basin. The traditional linear thinking paradigm lacks the mental and organizational framework for sustainable development trajectories, and may lead to quick-fix solutions that fail to address key drivers of water resources problems. To facilitate holistic analysis of water resources systems, systems thinking seeks to understand interactions among the subsystems. System dynamics provides a suitable framework for operationalizing systems thinking and its application to water resources problems by offering useful qualitative tools such as causal loop diagrams (CLD), stock-and-flow diagrams (SFD), and system archetypes. The approach provides a high-level quantitative-qualitative modeling framework for "big-picture" understanding of water resources systems, stakeholder participation, policy analysis, and strategic decision making. While quantitative modeling using extensive computer simulations and optimization is still very important and needed for policy screening, qualitative system dynamics models can improve understanding of general trends and the root causes of problems, and thus promote sustainable water resources decision making. Within the system dynamics framework, a growth and underinvestment (G&U) system archetype governing Lake Allegan's eutrophication problem was hypothesized to explain the system's problematic behavior and identify policy leverage points for mitigation. A system dynamics simulation model was developed to characterize the lake's recovery from its hypereutrophic state and assess a number of proposed total maximum daily load (TMDL) reduction policies, including phosphorus load reductions from point sources (PS) and non-point sources (NPS). It was shown that, for a TMDL plan to be effective, it should be considered a component of a continuous sustainability process, which considers the functionality of dynamic feedback relationships between socio-economic growth, land use change, and environmental conditions. Furthermore, a high-level simulation-optimization framework was developed to guide watershed scale BMP implementation in the Kalamazoo watershed. Agricultural BMPs should be given priority in the watershed in order to facilitate cost-efficient attainment of the Lake Allegan's TP concentration target. However, without adequate support policies, agricultural BMP implementation may adversely affect the agricultural producers. Results from a case study of the Maumee River basin show that coordinated BMP implementation across upstream and downstream watersheds can significantly improve cost efficiency of TP load abatement.
Resumo:
La distance de Kendall-τ compte le nombre de paires en désaccord entre deux permuta- tions. La distance d’une permutation à un ensemble est simplement la somme des dis- tances entre cette permutation et les permutations de l’ensemble. À partir d’un ensemble donné de permutations, notre but est de trouver la permutation, appelée médiane, qui minimise cette distance à l’ensemble. Le problème de la médiane de permutations sous la distance de Kendall-τ, trouve son application en bio-informatique, en science politique, en télécommunication et en optimisation. Ce problème d’apparence simple est prouvé difficile à résoudre. Dans ce mémoire, nous présentons plusieurs approches pour résoudre le problème, pour trouver une bonne solution approximative, pour le séparer en classes caractéristiques, pour mieux com- prendre sa compléxité, pour réduire l’espace de recheche et pour accélérer les calculs. Nous présentons aussi, vers la fin du mémoire, une généralisation de ce problème et nous l’étudions avec ces mêmes approches. La majorité du travail de ce mémoire se situe dans les trois articles qui le composent et est complémenté par deux chapitres servant à les lier.