1000 resultados para Escoamento em meios porosos - Métodos de simulação
Resumo:
A seleção de fornecedores é considerada atualmente estratégica para as empresas que estão inseridas em ambientes cada vez mais dinâmicos e exigentes. Nesta dissertação são determinados os critérios e métodos mais usados no problema de seleção de fornecedores. Para estes serem alcançados, analisaram-se artigos da área e de ilustres autores para assim se perceber quais os critérios das áreas mais influentes, na hora de tomada de decisão sobre os melhores fornecedores para as empresas. A partir deste estudo foi construído um inquérito de resposta curta, enviado a empresas a laborar em Portugal, para se obter as importâncias dadas aos critérios por parte das empresas. Com estas respostas conclui-se que critérios relacionados com a qualidade e o custo são os mais relevantes. Relativamente aos métodos, foram estudados teórica e praticamente, o AHP e o SMART. O primeiro por ser o mais referenciado nos artigos estudados e o segundo por ser o mais simples de implementar e usar. No SMART foram criadas as funções valor para regerem o funcionamento do método. Estas funções foram desenvolvidas de raiz, com base num estudo bibliográfico prévio para cada um dos subcritérios, para se entender qual o melhor tipo de função a aplicar definindo matematicamente melhor o comportamento de cada um deles. A tomada de decisão é bastante importante nas organizações, pois pode conduzir ao sucesso ou insucesso. Assim é explicado a envolvente da tomada de decisão, o problema da seleção dos fornecedores, como se desenvolve o processo de seleção e quais são os métodos existentes para auxiliar a escolha dos mesmos. Por fim é apresentado o modelo proposto baseado nos resultados obtidos através do inquérito, e a aplicação dos dois métodos (AHP e SMART) para um melhor entendimento dos mesmos.
Resumo:
Pretende-se com este trabalho fazer um estudo detalhado de um troço da Estrada Municipal 607, situado no concelho de Valongo, caracterizando o seu estado de degradação e definindo qual ou quais as soluções mais convenientes de reabilitação a adotar. O pavimento alvo deste trabalho é abrangido por três ruas pertencentes à EM 607, Rua de Vilar, Rua de Cabeda e Rua D. Pedro IV e apresenta uma extensão total de 4,8 km. Este trabalho pode ser dividido em duas partes distintas: uma primeira parte, mais do âmbito teórico, onde é feita uma abordagem histórica desde o desenvolvimento dos pavimentos rodoviários até aos métodos e pavimentos existentes na atualidade e uma segunda parte, que diz respeito ao desenvolvimento prático do trabalho, onde é feito um estudo do pavimento e são apresentadas soluções de reabilitação e respetivos dimensionamentos. Iniciou-se o estudo do pavimento com uma análise geral das patologias existentes, definindo o estado de degradação em que este se encontra. Concluiu-se que se estava na presença de um pavimento muito degradado, havendo troços com um nível de degradação muito elevado, o que proporciona desconforto na circulação dos condutores. Foi efetuado um estudo de tráfego de pesados, onde se percebeu que se tratava de um pavimento com intenso tráfego de pesados e que talvez este pavimento não esteja apto para o suportar. A retirada de carotes veio confirmar este pressuposto, pois as espessuras das camadas betuminosas mostraram ser insuficientes para o atual volume de tráfego. As soluções de reabilitação foram ao encontro de várias soluções para diferentes situações, dando aos responsáveis da Câmara Municipal de Valongo a possibilidade de optarem por aquela que melhor se ajuste às suas necessidades, bem como às suas condições financeiras. Assim, foram propostas três soluções para três capacidades de resistência e períodos de vida úteis distintos. A primeira solução engloba a remoção do pavimento existente e colocação de uma estrutura completamente nova, com três camadas betuminosas e dimensionada para o volume de tráfego atual, apresentando um período de vida útil de 20 anos, mas que é mais dispendiosa. A segunda solução apresenta apenas duas camadas betuminosas, onde seriam removidas apenas as camadas betuminosas, aproveitando a camada de sub-base. Esta solução tem um período de vida útil estimado de cerca de 8 anos. A terceira solução, com um período de vida útil de 5 anos, baseia-se na remoção parcial de uma largura da faixa de rodagem, aproveitando a restante. Na largura removida seria colocada uma estrutura de pavimento nova e dimensionada na segunda solução. Por último, foi dimensionado o sistema de drenagem transversal e longitudinal, sendo caracterizadas as linhas de águas e as respetivas bacias hidrográficas. As valetas e passagens hidráulicas existentes não estão dimensionadas para o atual escoamento de águas pluviais a que o pavimento está sujeito. As valetas são muito reduzidas, apresentando-se em alguns casos degradadas ou a necessitarem de limpeza urgente.
Resumo:
Dissertação para a obtenção do Grau de Mestre em Genética Molecular e Biomedicina
Resumo:
A biomassa é uma das fontes de energia renovável com maior potencial em Portugal, sendo a capacidade de produção de pellets de biomassa atualmente instalada superior a 1 milhão de toneladas/ano. Contudo, a maioria desta produção destina-se à exportação ou à utilização em centrais térmicas a biomassa, cujo crescimento tem sido significativo nos últimos anos, prevendo-se que a capacidade instalada em 2020 seja de aproximadamente 250 MW. O mercado português de caldeiras a pellets é bastante diversificado. O estudo que realizamos permitiu concluir que cerca de 90% das caldeiras existentes no mercado português têm potências inferiores a 60 kW, possuindo na sua maioria grelha fixa (81%), com sistema de ignição eléctrica (92%) e alimentação superior do biocombustível sólido (94%). O objetivo do presente trabalho foi o desenvolvimento de um modelo para simulação de uma caldeira a pellets de biomassa, que para além de permitir otimizar o projeto e operação deste tipo de equipamento, permitisse avaliar as inovações tecnológicas nesta área. Para tal recorreu-se o BiomassGasificationFoam, um código recentemente publicado, e escrito para utilização com o OpenFOAM, uma ferramenta computacional de acesso livre, que permite a simulação dos processos de pirólise, gasificação e combustão de biomassa. Este código, que foi inicialmente desenvolvido para descrever o processo de gasificação na análise termogravimétrica de biomassa, foi por nós adaptado para considerar as reações de combustão em fase gasosa dos gases libertados durante a pirólise da biomassa (recorrendo para tal ao solver reactingFoam), e ter a possibilidade de realizar a ignição da biomassa, o que foi conseguido através de uma adaptação do código de ignição do XiFoam. O esquema de ignição da biomassa não se revelou adequado, pois verificou-se que a combustão parava sempre que a ignição era inativada, independentemente do tempo que ela estivesse ativa. Como alternativa, usaram-se outros dois esquemas para a combustão da biomassa: uma corrente de ar quente, e uma resistência de aquecimento. Ambos os esquemas funcionaram, mas nunca foi possível fazer com que a combustão fosse autossustentável. A análise dos resultados obtidos permitiu concluir que a extensão das reações de pirólise e de gasificação, que são ambas endotérmicas, é muito pequena, pelo que a quantidade de gases libertados é igualmente muito pequena, não sendo suficiente para libertar a energia necessária à combustão completa da biomassa de uma maneira sustentável. Para tentar ultrapassar esta dificuldade foram testadas várias alternativas, , que incluíram o uso de diferentes composições de biomassa, diferentes cinéticas, calores de reação, parâmetros de transferência de calor, velocidades do ar de alimentação, esquemas de resolução numérica do sistema de equações diferenciais, e diferentes parâmetros dos esquemas de resolução utilizados. Todas estas tentativas se revelaram infrutíferas. Este estudo permitiu concluir que o solver BiomassGasificationFoam, que foi desenvolvido para descrever o processo de gasificação de biomassa em meio inerte, e em que a biomassa é aquecida através de calor fornecido pelas paredes do reator, aparentemente não é adequado à descrição do processo de combustão da biomassa, em que a combustão deve ser autossustentável, e em que as reações de combustão em fase gasosa são importantes. Assim, é necessário um estudo mais aprofundado que permita adaptar este código à simulação do processo de combustão de sólidos porosos em leito fixo.
Resumo:
O constante desenvolvimento observado nas ligações adesivas, em conjunto com as melhorias verificadas nas características dos adesivos, estão a ser traduzidos, de uma certa forma, num aumento das aplicações das ligações adesivas, assim como na variedade de aplicações. No âmbito da previsão de resistência de juntas adesivas, dois métodos de grande relevância são a Mecânica da Fratura e os Modelos de Dano Coesivo. Os Modelos de Dano Coesivo permitem a simulação da iniciação e propagação do dano, recorrendo ao Método Dos Elementos Finitos. No que concerne à Mecânica da Fratura, a previsão de resistência é geralmente feita através de uma análise energética. Independentemente da forma como é obtida, a taxa crítica de libertação de energia de deformação à tração (GIc) dos adesivos é um dos parâmetros mais importantes para a previsão da resistência das juntas. Dois dos ensaios mais utilizados são o Double Cantilever Beam (DCB) e o Tapered Double Cantilever Beam (TDCB). Este trabalho pretende determinar e comparar o valor de GIc em juntas adesivas pelos ensaios DCB e TDCB. São utilizados três tipos de adesivos com diferentes graus de ductilidade. No ensaio DCB os métodos utilizados para a determinação de GIc são: Compliance-Based Beam Method (CBBM), Corrected Beam Theory (CBT) e Compliance Calibration Method (CCM). Os métodos utilizados no ensaio TDCB são: Simple Beam Theory (SBT), Corrected Beam Theory (CBT) e Compliance Calibration Method (CCM). Os resultados obtidos apresentam concordância entre os vários métodos de cada ensaio. A discrepância de resultados é superior quando comparados os dois tipos de ensaios.
Resumo:
Dissertação para obtenção do Grau de Mestre em Engenharia do Ambiente – Perfil de Engenharia Sanitária
Resumo:
Com o decorrer dos tempos e com a evolução da indústria, acresce a necessidade de aparecimento de novas construções e consequentemente de novos desafios geotécnicos. Para responder a estes novos reptos que a construção nos lança é necessário aprofundar o conhecimento acerca dos materiais que constituem o subsolo e estudar o seu comportamento quando sujeito a novas solicitações, como por exemplo sobrecargas, pois parte do cálculo de dimensionamento de fundações das novas construções dependerá destas características. Existem duas possíveis formas de identificar os materiais existentes no subsolo e caracterizá‐los: através de ensaios de laboratório e de ensaios in situ, sendo nestes últimos que nos iremos focar. Os ensaios in situ, para além de outros dados, permitem‐nos estimar com algum grau de incerteza a profundidade a que se encontra o horizonte com capacidade de suporte pretendida, quer se trate ou não do bedrock, e identificar o processo mais indicado para a retirada do material: através de um meio mecânico de escavação ou por recurso a explosivos. Com a realização de ensaios de sísmica de refração e igualmente recorrendo a ensaios executados com o penetrómetro dinâmico médio (DPM), tentamos dar resposta a estas incógnitas através do cruzamento dos dados obtidos. No entanto, este cruzamento de dados pode não ser completamente esclarecedor, levando ao aparecimento de novas incógnitas às quais não seja possível dar resposta recorrendo‐se unicamente à informação recolhida por meio destes dois métodos, pois poderão revelar‐se insuficientes. Contudo, existem muitos outros ensaios in situ que podem ser realizados e capazes de nos ajudar a complementar os dados inicialmente obtidos no sentido de diminuir ou até mesmo eliminar as incógnitas existentes, e desta forma poder identificar e caraterizar o material existente com o maior grau de segurança possível.
Resumo:
Atualmente a vantagem competitiva de uma empresa passa pela sua rápida adaptação às variações de procura do mercado, sendo necessário garantir elevados níveis de produtividade e, simultaneamente, grande flexibilidade, indispensável ao fabrico de pequenos lotes. A necessidade de ajuste do processo e a diminuição da média de vida do produto levam a paragens cada vez mais frequentes da célula de fabrico para programação e afinação, com consequentes perdas de produtividade. De forma a dar resposta a estes problemas, neste trabalho é testada a viabilidade da utilização da programação e simulação offline de tarefas de lixamento na Grohe Portugal, complementando a solução com o desenvolvimento de um novo método de afinação do programa, permitindo uma adaptação às flutuações do processo produtivo. Para isso foi necessário analisar o estado da arte dos robôs industriais na área de acabamento superficial e respetivos métodos de programação. Em seguida, após um trabalho prévio rigoroso de preparação e modelação da célula de trabalho, é possível fazer a programação offline das várias rotinas e trajetórias complexas que compõem um ciclo de lixamento de um produto, contribuindo para o aumento da qualidade do produto final sem comprometer os níveis de produtividade. Nesta dissertação são descritos e detalhados alguns dos procedimentos fulcrais no sucesso da aplicação deste método de programação. Por último é feita uma nova abordagem ao método de ajuste ponto-a-ponto convencional, desenvolvendo-se para isso um sistema de ajuste automático do programa, dotando o robô da capacidade de se adaptar às variações do processo, assegurando a consistência do mesmo. Foram realizados testes em pequena escala, extrapolando-se os resultados para a aplicação deste novo método no processo produtivo da Grohe Portugal, como forma de complemento ao método convencional de ajuste ponto-a-ponto do programa, reduzindo o tempo de paragem da célula de trabalho.
Resumo:
A animação de superfícies deformáveis, nomeadamente a modelação de tecidos, atravessa hoje uma época de grande relevância na indústria do cinema e no mundo dos jogos. A grande dedicação a este tema, em termos de investigação e a evolução das capacidades das arquitecturas de computadores no que toca a poder de processamento, tornou hoje possível efectuar este tipo de simulações usando um vasto leque de técnicas com diferentes objectivos. Entre estas técnicas encontra-se a simulação através de modelos discretos. Geralmente, neste tipo de modelação, as características do tecido são discretizadas num sistema de partículas organizadas entre si segundo um esquema de forças ou energias internas. Assim, a simulação pode ser efectuada integrando o sistema de forma a calcular as novas posições das partículas ao longo do tempo. Este tipo de computação é normalmente caracterizado como sendo bastante intensivo. A aceleração da animação de superfícies deformáveis recorrendo ao poder de processamento para além do CPU convencional foi realizada em vários trabalhos. No entanto, apenas uma pequena parte desses artigos está relacionada com a arquitectura Cell/B.E. O Cell/B.E. foi desenvolvido por uma equipa de investigadores vindos da Toshiba, Sony e IBM. Esta equipa tinha como objectivo a criação de uma arquitectura que suportasse um elevado leque de aplicações, incluindo o suporte de uma consola de jogos, de forma eficaz e com baixo consumo de energia. Assim, o processador Cell/B.E. convencional pode ser descrito por um chip multicore heterogéneo composto por um processador PowerPC e oito processadores vectoriais (SIMD) de 128 bits, permitindo assim ao programador uma maior flexibilidade na forma de paralelização de um determinado processamento. O principal objectivo deste trabalho passou pelo estudo desta arquitectura e da forma de a explorar e avaliar as suas capacidades, aplicando-as na aceleração de um simulador de superfícies deformáveis com
Resumo:
A capacidade de distinguir os problemas relacionados com a afectação de custos dos relacionados com os preços de transferência é um factor fundamental para se entender a complexidade da valorização dos fluxos de trabalho entre divisões numa unidade de produção. O tema dos preços de transferência pode ser encarado como uma parte do problema da afectação de custos. Em certas circunstâncias, as semelhanças associadas à interdependência do tratamento contabilístico são claramente identificáveis. No entanto, o grau de descentralização das divisões permite distinguir as duas situações. Os preços de transferência existem porque existe um mercado interno para transaccionar bens e serviços entre segmentos de uma mesma organização, isto é, quando as empresas e os grupos de empresas realizam movimentos internos entre departamentos e/ou entre filiais é muito importante a existência de um sistema de preços para que as transferências sejam valorizadas. No entanto, os preços de transferência têm sido tradicionalmente mais abordados como um problema de custos/proveitos ou como um problema da contabilidade de gestão sem existir (na abordagem tradicional) um tratamento autónomo desta importante ferramenta da gestão. Os preços de transferência desempenham um papel fundamental nos sistemas de controlo, uma vez que a sua utilização permite motivar os gestores dos centros de responsabilidade e avaliar o desempenho quer do centro prestador (fornecedor), quer do centro utilizador (cliente), quer ainda dos seus responsáveis. Para se entender as determinantes dos preços de transferência é necessário analisar as diversas abordagens teóricas: a matemática, a economia, as teorias do comportamento, as teorias da organização e da estratégia e outras. Cada uma destas teorias acrescenta conhecimento sobre o papel, a natureza e a evolução dos sistemas de preços de transferência e, uma vez que os pressupostos subjacentes são numerosos, contribuem para tornar claro qual o método de escolha. A abordagem do tema dos preços de transferência estaria incompleta se não fossem destacados os seus objectivos e os métodos utilizados para a sua fixação. Estes métodos podem basear-se em custos (reais ou padrão) ou no preço de mercado, havendo vantagens e inconvenientes quando se adoptam uns ou outros. Porém, quando se fixam preços de transferência podem surgir conflitos. No entanto, existem meios de evitar esses conflitos através da negociação entre as partes para que se estabeleça um acordo relativamente ao preço a praticar nas transferências. Se não se conseguirem evitar tais conflitos existem métodos, nomeadamente a arbitragem, que poderão ser utilizados para os resolver.
Resumo:
Com a necessidade de encontrar uma forma de ligar componentes de forma mais vantajosa, surgiram as ligações adesivas. Nos últimos anos, a utilização de juntas adesivas em aplicações industriais tem vindo a aumentar, substituindo alguns métodos de ligação tradicionais, por apresentarem vantagens tais como, redução de concentração de tensões, reduzido peso e facilidade de processamento/fabrico. O seu estudo permite prever a sua resistência e durabilidade. Este trabalho refere-se ao estudo de juntas de sobreposição simples (JSS), nas quais são aplicados os adesivos comerciais que variam desde frágeis e rígidos, como o caso do Araldite® AV138, até adesivos mais dúcteis, como o Araldite® 2015 e o Sikaforce® 7888. Estes são aplicados em substratos de alumínio (AL6082-T651) em juntas com diferentes geometrias e diferentes comprimentos de sobreposição (L), sendo sujeitos a esforços de tracção. Foi feita uma análise dos valores experimentais fornecidos e uma posterior comparação destes com diferentes métodos numéricos baseados em Elementos Finitos (EF). A comparação foi feita por uma análise de Modelos de Dano Coesivo (MDC) e segundo os critérios baseados em tensões e deformações do Método de Elementos Finitos Extendido (MEFE). A utilização destes métodos numéricos capazes de simular o comportamento das juntas poderá levar a uma poupança de recursos e de tempo. A análise por MDC revelou que este método é bastante preciso, excepto para os adesivos que sejam bastante dúcteis. A aplicação de uma outra lei coesiva pode solucionar esse problema. Por sua vez a análise por MEFE demonstrou que esta técnica não é particularmente adequada para o crescimento de dano em modo misto e, comparativamente com o MDC, a sua precisão é bastante inferior.
Resumo:
Esta dissertação descreve o desenvolvimento e avaliação de um procedimento de \Numerical Site Calibration" (NSC) para um Parque Eólico, situado a sul de Portugal, usando Dinâmica de Fluídos Computacional (CFD). O NSC encontra-se baseado no \Site Calibration" (SC), sendo este um método de medição padronizado pela Comissão Electrónica Internacional através da norma IEC 61400. Este método tem a finalidade de quantificar e reduzir os efeitos provocados pelo terreno e por possíveis obstáculos, na medição do desempenho energético das turbinas eólicas. Assim, no SC são realizadas medições em dois pontos, no mastro referência e no local da turbina (mastro temporário). No entanto, em Parques Eólicos já construídos, este método não é aplicável visto ser necessária a instalação de um mastro de medição no local da turbina e, por conseguinte, o procedimento adequado para estas circunstâncias é o NSC. O desenvolvimento deste método é feito por um código CFD, desenvolvido por uma equipa de investigação do Instituto Superior de Engenharia do Porto, designado de WINDIETM, usado extensivamente pela empresa Megajoule Inovação, Lda em aplicações de energia eólica em todo mundo. Este código é uma ferramenta para simulação de escoamentos tridimensionais em terrenos complexos. As simulações do escoamento são realizadas no regime transiente utilizando as equações de Navier-Stokes médias de Reynolds com aproximação de Bussinesq e o modelo de turbulência TKE 1.5. As condições fronteira são provenientes dos resultados de uma simulação realizada com Weather Research and Forecasting, WRF. Estas simulações dividem-se em dois grupos, um dos conjuntos de simulações utiliza o esquema convectivo Upwind e o outro utiliza o esquema convectivo de 4aordem. A análise deste método é realizada a partir da comparação dos dados obtidos nas simulações realizadas no código WINDIETM e a coleta de dados medidos durante o processo SC. Em suma, conclui-se que o WINDIETM e as suas configurações reproduzem bons resultados de calibração, ja que produzem erros globais na ordem de dois pontos percentuais em relação ao SC realizado para o mesmo local em estudo.
Resumo:
O leite é um alimento complexo, pela sua composição rico em água, proteínas, lípidos, vitaminas e minerais. Devido ao seu alto valor nutricional é fundamental para a amamentação de crianças e animais em crescimento, pois fornece componentes fundamentais para o desenvolvimento e manutenção da saúde. Os antimicrobianos são amplamente utilizados como uma medida terapêutica no tratamento de infeções bacterianas, profilaxia e como promotores de crescimento (aditivos). A presença de resíduos de antimicrobianos no leite pode representar riscos para a saúde humana, como reações alérgicas em indivíduos hipersensíveis e resistências. Os objetivos deste estudo são o desenvolvimento de novos métodos de limpeza e de pré- concentração para amostras de leite, por meio de extração em fase sólida (SPE), com a finalidade de realizar uma melhor identificação e quantificação de antimicrobiana por Cromatografia Líquida de Alta Performance (HPLC). Todos os métodos desenvolvidos são de fácil execução, com taxas de recuperação dos agentes antimicrobianos viáveis, com uma percentagem de recuperação a partir de 85%. O método cromatográfico utilizado para a deteção e quantificação (HPLC-DAD) têm os limites de deteção (LD) entre 2.43ng / mL e 1.62ng / mL e os limites de quantificação (LQ) entre 7,36 ng / mL e 4.92 ng / mL, o que significa este método vai de encontro às diretrizes estipuladas pela União Europeia para os agentes antimicrobianos estudados. A combinação dos métodos propostos de limpeza e pré-concentração por SPE e multirresíduo por HPLC-DAD permite, por conseguinte, a deteção e quantificação de resíduos de antibióticos no leite, tornando esta uma alternativa importante e útil no processo de controlo de qualidade para a indústria de alimentos e outras área.