72 resultados para coeficiente de difusão
Resumo:
Buildings account for 40% of total energy consumption in the European Union. The reduction of energy consumption in the buildings sector constitute an important measure needed to reduce the Union's energy dependency and greenhouse gas emissions. The Portuguese legislation incorporate this principles in order to regulate the energy performance of buildings. This energy performance should be accompanied by good conditions for the occupants of the buildings. According to EN 15251 (2007) the four factors that affect the occupant comfort in the buildings are: Indoor Air Quality (IAQ), thermal comfort, acoustics and lighting. Ventilation directly affects all except the lighting, so it is crucial to understand the performance of it. The ventilation efficiency concept therefore earn significance, because it is an attempt to quantify a parameter that can easily distinguish the different options for air diffusion in the spaces. The two indicators most internationally accepted are the Air Change Efficiency (ACE) and the Contaminant Removal Effectiveness (CRE). Nowadays with the developed of the Computational Fluid Dynamics (CFD) the behaviour of ventilation can be more easily predicted. Thirteen strategies of air diffusion were measured in a test chamber through the application of the tracer gas method, with the objective to validate the calculation by the MicroFlo module of the IES-VE software for this two indicators. The main conclusions from this work were: that the values of the numerical simulations are in agreement with experimental measurements; the value of the CRE is more dependent of the position of the contamination source, that the strategy used for the air diffusion; the ACE indicator is more appropriate for quantifying the quality of the air diffusion; the solutions to be adopted, to maximize the ventilation efficiency should be, the schemes that operate with low speeds of supply air and small differences between supply air temperature and the room temperature.
Resumo:
Modelação e simulação baseadas em agentes estão a ganhar cada vez mais importância e adeptos devido à sua flexibilidade e potencialidade em reproduzir comportamentos e estudar um sistema na perspetiva global ou das interações individuais. Neste trabalho, criou-se um sistema baseado em agentes e desenvolvido em Repast Simphony com o objectivo de analisar a difusão de um novo produto ou serviço através de uma rede de potenciais clientes, tentando compreender, assim, como ocorre e quanto tempo demora esta passagem de informação (inovação) com diversas topologias de rede, no contato direto entre pessoas. A simulação baseia-se no conceito da existencia de iniciadores, que são os primeiros consumidores a adotar um produto quando este chega ao mercado e os seguidores, que são os potenciais consumidores que, apesar de terem alguma predisposição para adotar um novo produto, normalmente só o fazem depois de terem sido sujeitos a algum tipo de influência. Com a aplicação criada, simularam-se diversas situações com a finalidade de obter e observar os resultados gerados a partir de definições iniciais diferentes. Com os resultados gerados pelas simulações foram criados gráficos representativos dos diversos cenários. A finalidade prática desta aplicação, poderá ser o seu uso em sala de aula para simulação de casos de estudo e utilização, em casos reais, como ferramenta de apoio à tomada de decisão, das empresas.
Resumo:
Os compostos orgânicos voláteis constituem uma fonte vulgar de contaminação da água subterrânea, a qual pode ser eliminada pela tecnologia do arrastamento por ar (air stripping) em colunas com enchimento desordenado e utilizando fluxos das fases em contra-corrente. Propõe-se neste trabalho uma nova metodologia de dimensionamento destas colunas, para qualquer tipo de enchimento e de contaminante, onde não há necessidade de se arbitrar nenhum diâmetro, onde se evita o recurso a ábacos experimentais e onde o regime hidráulico conveniente é seleccionado à partida. O procedimento proposto foi algoritmizado e convertido num programa em linguagem C++. Para verificar e testar não só o dimensionamento mas também o comportamento teórico estacionário e dinâmico construiu-se de raiz uma coluna experimental. Seleccionou-se como contaminante uma solução de clorofórmio em água destilada. A experimentação permite, ainda, corrigir o coeficiente de transferência de massa global teórico estimado pelas correlações de Onda e que depende de inúmeros parâmetros nem sempre controláveis experimentalmente. Apresenta-se, em seguida, um modelo original de simulação dinâmica do comportamento da coluna e que é constituído por um sistema de equações diferenciais não lineares (parâmetros distribuidos). No entanto, se os débitos forem arbitrados como constantes, o sistema passa a ser linear apesar de não possuir solução analítica evidente (p.e. por transformações integrais). A discretização por diferenças finitas permitiu superar estas dificuldades. Existe uma notável concordância entre os valores experimentais e os previstos no modelo.
Perda de carga numa operação de arrastamento por ar: resultados de simulação laboratorial e numérica
Resumo:
Os compostos orgânicos voláteis são uma fonte comum de contaminação de água subterrânea, que pode ser facilmente removida através de um processo de arrastamento por ar em colunas com enchimento desordenado com fluxos líquido e gasoso em contracorrente. Neste trabalho propõe-se uma nova metodologia para o dimensionamento destas colunas válida para uma grande variedade de enchimento e de contaminantes. O regime hidráulico é um critério de projecto previamente definido. Os procedimentos a utilizar no dimensionamento foram descritos num simples algoritmo e devidamente implementados em Matlab. Paralelamente, foi construída uma coluna e sobre ela se efectuaram testes de dimensionamento, de comportamento em regime estacionário e em regime dinâmico. Os testes experimentais foram conduzidos sobre uma solução de clorofórmio em água destilada. Os resultados obtidos permitem estabelecer uma correcção do valor do coeficiente global de transferência de massa previamente estimado a partir das correlações de Onda, que por sua vez dependem de vários parâmetros nem sempre fáceis de controlar experimentalmente. Os resultados obtidos experimentalmente não apresentam comportamentos estranhos nem imprevistos.
Resumo:
As organizações são entidades de natureza sistémica, composta, na sua maioria por várias pessoas que interagindo entre si, se propõem atingir objetivos comuns. Têm, frequentemente, de responder a alterações da envolvente externa através de processos de mudança organizacional, sendo fundamentalmente adaptativas, pois, para sobreviver, precisam de se reajustar continuamente às condições mutáveis do meio. O sucesso das organizações depende da sua capacidade de interação com o meio envolvente, ou seja, da sua capacidade de inovar e operar local ou globalmente, criando novas oportunidades de negócio que importa aproveitar. As tecnologias e os sistemas de informação e a forma como são utilizadas são fatores determinantes nesses processos de evolução e mudança. É necessário que a estratégia de TI esteja alinhada com os objetivos de negócio e que a sua utilização contribua para aumentos de produtividade e de eficiência no seu desempenho. Este trabalho descreve a análise, conceção, seleção e implementação de um Sistema de Informação na Portgás, S.A. baseado de um ERP - Enterprise Resource Planning, capaz de suportar a mudança organizacional e melhorar o desempenho global da organização. Promovendo numa primeira fase um crescimento exponencial do negócio e, de seguida, a adaptação da organização ao mercado concorrencial. O caso descreve o trabalho realizado pelo candidato e por equipas internas e externas, de levantamentos de requisitos gerais, técnicos e funcionais, desenvolvimento de um caderno de encargos, seleção, implementação e exploração de um ERP SAP. A apresentação e discussão do caso são enquadradas numa revisão de literatura sobre o papel das TI nos processos de mudança organizativa, alinhamento estratégico e vantagem competitiva das TI, contributo das TI para o aumento da produtividade, processos adoção e difusão das TI, fatores críticos de sucesso e BPM –Business Process Management
Resumo:
Em pouco mais de três décadas (1980-2013) registaram-se, em Portugal continental, cerca de 745 mil ignições e uma área ardida que ronda 3,7 milhões de hectares. Todavia, quando se analisa a distribuição espacial dos incêndios verifica-se que há distritos especialmente suscetíveis à sua deflagração e outros mais favoráveis à propagação das chamas. A dicotomia Norte/Centro vs Sul de Portugal, tanto no número de ignições como na área ardida, é igualmente bem conhecida. Com o presente trabalho pretende-se analisar a distribuição espacial e detetar tendências de evolução temporal, no período de 1980-2013, tanto na densidade de ignições, como na percentagem de áreas ardidas a nível regional, e, ainda, definir o grau de similaridade existente entre os distritos que compõem Portugal continental, no que se refere à incidência de incêndios florestais. Os resultados referentes à densidade de ignições são perentórios quanto ao seu acréscimo pois, em todas as unidades territoriais, a correlação – baseada quer no coeficiente de Pearson quer no coeficiente de Spearman, de acordo com a análise - revela-se estatisticamente significativa. No que se refere às percentagens de superfície média incinerada, os resultados são mais díspares. Com tendências positivas (p-value <0,05) sobressaem todos os distritos da região Norte, enquanto os de Beja e Évora manifestam a mesma tendência, apenas se aplicado o coeficiente de Spearman. Com tendência inversa, isto é, de decréscimo, apenas se destaca Coimbra. Nos restantes distritos as tendências observadas não revelam significado estatístico.
Resumo:
Dissertação de Mestrado apresentada ao Instituto de Contabilidade e Administração do Porto para a obtenção do grau de Mestre em Contabilidade e Finanças sob orientação de Professor Doutor Adalmiro Alvaro Malheiro de Castro Andrade Pereira
Resumo:
Trabalho de Projeto
Resumo:
Nesta dissertação pretendeu-se estudar a viabilidade do uso de eletrodiálise com membranas bipolares (BM) na recuperação de ácido clorídrico e de hidróxido de sódio a partir de um efluente industrial que contém 1.4 mol/L de cloreto de sódio. Estas membranas mostraram ser uma ferramenta eficiente para a produção de ácidos e bases a partir do respetivo sal. Foi feita uma seleção de diferentes membranas bipolares (Neosepta, Fumatech e PCA) e aniónicas (PC-SA e PC-ACID 60) na tentativa de encontrar a combinação mais adequada para o tratamento do efluente. Dependendo do critério, o melhor arranjo de membranas é o uso de PC-ACID 60 (membrana aniónica), PC-SK (membrana catiónica) e membranas bipolares do tipo Neosepta para maior pureza dos produtos; membranas bipolares Fumatech para maior eficiência de dessalinização e membranas bipolares PCA para um maior grau de dessalinização. Tecnologicamente foi possível obter uma dessalinização de 99.8% em quatro horas de funcionamento em modo batch com recirculação de todas as correntes. Independentemente da combinação usada é recomendável que o processo seja parado quando a densidade de corrente deixa de ser máxima, 781 A/m2. Assim é possível evitar o aumento de impurezas nos produtos, contra difusão, descida instantânea do pH e uma dessalinização pouco eficiente. A nível piloto o principal fornecedor de membranas e unidade de tratamento “stack” é a marca alemã PCA. Sendo assim realizaram-se ensaios de repetibilidade, contra difusão, avaliação económica e upscaling utilizando as membranas bipolares PCA. A nível económico estudou-se o uso de dois tipos de unidades de tratamento; EDQ 380 e EDQ 1600, para diferentes níveis de dessalinização (50, 75 e 80%). Tendo em conta a otimização económica, é recomendável uma dessalinização máxima de 80%, uma vez que a eficiência de processo a este ponto é de 40%. A aplicação do método com a unidade EDQ 1600 para uma dessalinização de 50% é a mais vantajosa economicamente, com custos de 16 €/m3 de efluente tratado ou 0,78 €/kg Cl- removido. O número de unidades necessárias é 4 posicionados em série.
Resumo:
Introdução: A velocidade da marcha quando analisada, conjuntamente com outras variáveis, permite-nos uma melhor compreensão acerca da natureza dos défices e como direcionar o tratamento. Objectivo(s): avaliar a associação da velocidade média da marcha com as variáveis espaciotemporais, angulares e de distribuição das pressões plantares em indivíduos com lesão meniscal há 4 anos, utilizando o membro não lesado como controlo. Métodos: estudo realizado em dez participantes com lesão meniscal (idade 35,3 ± 10,63 anos, altura 170,0 ± 0,09 cm, massa 67,5 ± 7,22 kg) avaliados em 3 ciclos de marcha a uma velocidade auto-selecionada. A quantificação das variáveis foi calculada através do programa Ariel Performance Analysis System e pelo Pedar System. As imagens foram editadas, digitalizadas, transformadas e suavizadas com um filtro digital com uma frequência de corte de 6HZ. Para estimar a associação das variáveis foram efetuados modelos de regressão linear e apresentados os coeficiente de regressão (β) e os respetivos intervalos de confiança (IC95%). Resultados: Foi possível verificar que a velocidade está significativa e positivamente associada aos parâmetros temporais das fases oscilantes (βML=0,044; IC95%:0,015;0,073; βMNL=0,061; IC95%:0,037;0,086), oscilação inicial (βML=0,055; IC95%:0,006;0,105; βMNL=0,091; IC95%:0,011;0,170) e cadência (βML=0,016; IC95%:0,009;0,023; βMNL=0,011; IC95%:0,006;0,017), em ambos os membros, e aos parâmetros temporais das fases de apoio unilateral (βML=0,046; IC95%:0,019;0,07), oscilação terminal (βML=0,081; IC95%:0,003;0,159) e apoio médio (βML=0,046; IC95%:0,008;0,085), apenas no membro lesado. Foi também observada, em ambos os membros, a existência de associações negativas significativas com os parâmetros temporais das fases de duplo apoio (βML=-0,024; IC95%:-0,037;-0,011; βMNL=-0,032; IC95%:-0,048;-0,015), apoio (βML=-0,044; IC95%:-0,073;-0,015; βMNL=-0,061; IC95%:-0,086;-0,037), resposta de carga (βML=-0,029; IC95%:-0,055;-0,004; βMNL=-0,047; IC95%:-0,081;-0,013), pré-oscilação (βML=-0,047; IC95%:-0,082;-0,013; βMNL=-0,060; IC95%:-0,098;-0,023) e tempo do ciclo de marcha (βML=-1,435; IC95%:-2,090;-0,781; βMNL=-0,941; IC95%:-1,431;-0,451). Foi ainda identificada, no membro lesado, uma associação positiva com a pressão plantar máxima normalizada durante o contacto do calcanhar terminal (βML=0,612; IC95%:0,077;1,147) e com o passo normalizado (βML=2,413; IC95%:0,264;4,561) e uma associação negativa limítrofe com a amplitude de flexão do joelho durante a elevação da ponta dos dedos (βML=-0,031; IC95%:-0,061;0,000). Conclusão: A velocidade média da marcha parece influenciar bastante os parâmetros temporais, sem provocar grandes alterações nos parâmetros espaciais, angulares e de pressão plantar, sendo esta associação semelhante em ambos os membros e independente do local da lesão.
Resumo:
O processo de liberalização do setor elétrico em Portugal Continental seguiu uma metodologia idêntica à da maior parte dos países europeus, tendo a abertura de mercado sido efetuada de forma progressiva. Assim, no âmbito do acompanhamento do setor elétrico nacional, reveste-se de particular interesse caracterizar a evolução mais recente do mercado liberalizado, nomeadamente em relação ao preço da energia elétrica. A previsão do preço da energia elétrica é uma questão muito importante para todos os participantes do mercado de energia elétrica. Como se trata de um assunto de grande importância, a previsão do preço da energia elétrica tem sido alvo de diversos estudos e diversas metodologias têm sido propostas. Esta questão é abordada na presente dissertação recorrendo a técnicas de previsão, nomeadamente a métodos baseados no histórico da variável em estudo. As previsões são, segundo alguns especialistas, um dos inputs essenciais que os gestores desenvolvem para ajudar no processo de decisão. Virtualmente cada decisão relevante ao nível das operações depende de uma previsão. Para a realização do modelo de previsão de preço da energia elétrica foram utilizados os modelos Autorregressivos Integrados de Médias Móveis, Autoregressive / Integrated / Moving Average (ARIMA), que geram previsões através da informação contida na própria série temporal. Como se pretende avaliar a estrutura do preço da energia elétrica do mercado de energia, é importante identificar, deste conjunto de variáveis, quais as que estão mais relacionados com o preço. Neste sentido, é realizada em paralelo uma análise exploratória, através da correlação entre o preço da energia elétrica e outras variáveis de estudo, utilizando para esse efeito o coeficiente de correlação de Pearson. O coeficiente de correlação de Pearson é uma medida do grau e da direção de relação linear entre duas variáveis quantitativas. O modelo desenvolvido foi aplicado tendo por base o histórico de preço da eletricidade desde o inicio do mercado liberalizado e de modo a obter as previsões diária, mensal e anual do preço da eletricidade. A metodologia desenvolvida demonstrou ser eficiente na obtenção das soluções e ser suficientemente rápida para prever o valor do preço da energia elétrica em poucos segundos, servindo de apoio à decisão em ambiente de mercado.
Resumo:
Este trabalho pretende preencher uma lacuna no controlo difuso em todos os autómatos/controladores que usam a plataforma Codesys para a sua programação. Começando por um levantamento histórico e a respetiva compreensão do que é a lógica difusa até à análise do que existe no mercado nos dias de hoje. Será realizada uma abordagem do que é a plataforma Codesys e a utilização da norma IEC61131-3. Sendo efetuada também uma análise da norma IEC61131-7 que explica como deve ser realizado o controlo difuso em PLC. Para colmatar a lacuna existente foi desenvolvido um software tendo por base a plataforma Codesys e validado e testado com o software SoMachine da Schneider Electric. Esse software será devidamente descrito para ser entendido de uma forma fácil.
Resumo:
Apresenta-se nesta tese uma revisão da literatura sobre a modelação de semicondutores de potência baseada na física e posterior análise de desempenho de dois métodos estocásticos, Particle Swarm Optimizaton (PSO) e Simulated Annealing (SA), quando utilizado para identificação eficiente de parâmetros de modelos de dispositivos semicondutores de potência, baseado na física. O conhecimento dos valores destes parâmetros, para cada dispositivo, é fundamental para uma simulação precisa do comportamento dinâmico do semicondutor. Os parâmetros são extraídos passo-a-passo durante simulação transiente e desempenham um papel relevante. Uma outra abordagem interessante nesta tese relaciona-se com o facto de que nos últimos anos, os métodos de modelação para dispositivos de potência têm emergido, com alta precisão e baixo tempo de execução baseado na Equação de Difusão Ambipolar (EDA) para díodos de potência e implementação no MATLAB numa estratégia de optimização formal. A equação da EDA é resolvida numericamente sob várias condições de injeções e o modelo é desenvolvido e implementado como um subcircuito no simulador IsSpice. Larguras de camada de depleção, área total do dispositivo, nível de dopagem, entre outras, são alguns dos parâmetros extraídos do modelo. Extração de parâmetros é uma parte importante de desenvolvimento de modelo. O objectivo de extração de parâmetros e otimização é determinar tais valores de parâmetros de modelo de dispositivo que minimiza as diferenças entre um conjunto de características medidas e resultados obtidos pela simulação de modelo de dispositivo. Este processo de minimização é frequentemente chamado de ajuste de características de modelos para dados de medição. O algoritmo implementado, PSO é uma técnica de heurística de otimização promissora, eficiente e recentemente proposta por Kennedy e Eberhart, baseado no comportamento social. As técnicas propostas são encontradas para serem robustas e capazes de alcançar uma solução que é caracterizada para ser precisa e global. Comparada com algoritmo SA já realizada, o desempenho da técnica proposta tem sido testado utilizando dados experimentais para extrair parâmetros de dispositivos reais das características I-V medidas. Para validar o modelo, comparação entre resultados de modelo desenvolvido com um outro modelo já desenvolvido são apresentados.
Resumo:
Nos últimos anos a indústria de semicondutores, nomeadamente a produção de memórias, tem sofrido uma grande evolução. A necessidade de baixar custos de produção, assim como de produzir sistemas mais complexos e com maior capacidade, levou à criação da tecnologia WLP (Wafer Level Packaging). Esta tecnologia permite a produção de sistemas mais pequenos, simplificar o fluxo do processo e providenciar uma redução significativa do custo final do produto. A WLP é uma tecnologia de encapsulamento de circuitos integrados quando ainda fazem parte de wafers (bolachas de silício), em contraste com o método tradicional em que os sistemas são individualizados previamente antes de serem encapsulados. Com o desenvolvimento desta tecnologia, surgiu a necessidade de melhor compreender o comportamento mecânico do mold compound (MC - polímero encapsulante) mais especificamente do warpage (empeno) de wafers moldadas. O warpage é uma característica deste produto e deve-se à diferença do coeficiente de expansão térmica entre o silício e o mold compound. Este problema é observável no produto através do arqueamento das wafers moldadas. O warpage de wafers moldadas tem grande impacto na manufatura. Dependendo da quantidade e orientação do warpage, o transporte, manipulação, bem como, a processamento das wafers podem tornar-se complicados ou mesmo impossíveis, o que se traduz numa redução de volume de produção e diminuição da qualidade do produto. Esta dissertação foi desenvolvida na Nanium S.A., empresa portuguesa líder mundial na tecnologia de WLP em wafers de 300mm e aborda a utilização da metodologia Taguchi, no estudo da variabilidade do processo de debond para o produto X. A escolha do processo e produto baseou-se numa análise estatística da variação e do impacto do warpage ao longo doprocesso produtivo. A metodologia Taguchi é uma metodologia de controlo de qualidade e permite uma aproximação sistemática num dado processo, combinando gráficos de controlo, controlo do processo/produto, e desenho do processo para alcançar um processo robusto. Os resultados deste método e a sua correta implementação permitem obter poupanças significativas nos processos com um impacto financeiro significativo. A realização deste projeto permitiu estudar e quantificar o warpage ao longo da linha de produção e minorar o impacto desta característica no processo de debond. Este projecto permitiu ainda a discussão e o alinhamento entre as diferentes áreas de produção no que toca ao controlo e a melhoria de processos. Conseguiu–se demonstrar que o método Taguchi é um método eficiente no que toca ao estudo da variabilidade de um processo e otimização de parâmetros. A sua aplicação ao processo de debond permitiu melhorar ou a fiabilidade do processo em termos de garantia da qualidade do produto, como ao nível do aumento de produção.
Resumo:
Com o advento da invenção do modelo relacional em 1970 por E.F.Codd, a forma como a informação era gerida numa base de dados foi totalmente revolucionada. Migrou‐se de sistemas hierárquicos baseados em ficheiros para uma base de dados relacional com tabelas relações e registos que simplificou em muito a gestão da informação e levou muitas empresas a adotarem este modelo. O que E.F.Codd não previu foi o facto de que cada vez mais a informação que uma base de dados teria de armazenar fosse de proporções gigantescas, nem que as solicitações às bases de dados fossem da mesma ordem. Tudo isto veio a acontecer com a difusão da internet que veio ligar todas as pessoas de qualquer parte do mundo que tivessem um computador. Com o número de adesões à internet a crescer, o número de sites que nela eram criados também cresceu (e ainda cresce exponencialmente). Os motores de busca que antigamente indexavam alguns sites por dia, atualmente indexam uns milhões de sites por segundo e, mais recentemente as redes sociais também estão a lidar com quantidades gigantescas de informação. Tanto os motores de busca como as redes sociais chegaram à conclusão que uma base de dados relacional não chega para gerir a enorme quantidade de informação que ambos produzem e como tal, foi necessário encontrar uma solução. Essa solução é NoSQL e é o assunto que esta tese vai tratar. O presente documento visa definir e apresentar o problema que as bases de dados relacionais têm quando lidam com grandes volumes de dados, introduzir os limites do modelo relacional que só até há bem pouco tempo começaram a ser evidenciados com o surgimento de movimentos, como o BigData, com o crescente número de sites que surgem por dia e com o elevado número de utilizadores das redes sociais. Será também ilustrada a solução adotada até ao momento pelos grandes consumidores de dados de elevado volume, como o Google e o Facebook, enunciando as suas características vantagens, desvantagens e os demais conceitos ligados ao modelo NoSQL. A presente tese tenciona ainda demonstrar que o modelo NoSQL é uma realidade usada em algumas empresas e quais as principias mudanças a nível programático e as boas práticas delas resultantes que o modelo NoSQL traz. Por fim esta tese termina com a explicação de que NoSQL é uma forma de implementar a persistência de uma aplicação que se inclui no novo modelo de persistência da informação.