49 resultados para Otimização de cálculo
Resumo:
Dissertação para obtenção do Grau de Mestre em Engenharia do Ambiente
Resumo:
A expressão da capacidade resistente de fundações superficiais, proposta por Terzaghi (1943) para o caso de uma fundação corrida, sob carregamento vertical, centrado, e onde não se tem em conta a resistência do solo acima da base de fundação, tem sido alvo de diversos estudos ao longo do tempo, visando a melhoria dos factores associados à mesma, assim como a proposta de novos factores. Uma das metodologias disponíveis para tal tarefa é a Análise Limite, onde, através dos teoremas estático e cinemático é possível obter um intervalo que aproxima a carga de colapso. Com o recurso à implementação numérica do teorema cinemático (região superior) da análise limite numa plataforma de processamento paralelo, são realizados cálculos tridimensionais focados para os factores de forma, sγ, sq e sc; e para o factor de profundidade tridimensional, dq*, através da construção de modelos de elementos finitos com refinamento elevado. Os resultados obtidos permitem o encurtamento do intervalo de região inferior e superior e a observação do comportamento dos referidos factores com a evolução da forma e profundidade da fundação.
Resumo:
O crescente poder computacional dos dispositivos móveis e a maior eficiência dos navegadores fomentam a construção de aplicações Web mais rápidas e fluídas, através da troca assíncrona de dados em vez de páginas HTML completas. A OutSystems Platform é um ambiente de desenvolvimento usado para a construção rápida e validada de aplicaçõesWeb, que integra numa só linguagem a construção de interfaces de utilizador, lógica da aplicação e modelo de dados. O modelo normal de interação cliente-servidor da plataforma é coerente com o ciclo completo de pedido-resposta, embora seja possível implementar, de forma explícita, aplicações assíncronas. Neste trabalho apresentamos um modelo de separação, baseado em análise estática sobre a definição de uma aplicação, entre os dados apresentados nas páginas geradas pela plataforma e o código correspondente à sua estrutura e apresentação. Esta abordagem permite a geração automática e transparente de interfaces de utilizador mais rápidas e fluídas, a partir do modelo de uma aplicação OutSystems. O modelo apresentado, em conjunto com a análise estática, permite identificar o subconjunto mínimo dos dados a serem transmitidos na rede para a execução de uma funcionalidade no servidor, e isolar a execução de código no cliente. Como resultado da utilização desta abordagem obtém-se uma diminuição muito significativa na transmissão de dados, e possivelmente uma redução na carga de processamento no servidor, dado que a geração das páginasWeb é delegada no cliente, e este se torna apto para executar código. Este modelo é definido sobre uma linguagem, inspirada na da plataforma OutSystems, a partir da qual é implementado um gerador de código. Neste contexto, uma linguagem de domínio específico cria uma camada de abstração entre a definição do modelo de uma aplicação e o respetivo código gerado, tornando transparente a criação de templates clientside e o código executado no cliente e no servidor.
Resumo:
As simulações que pretendam modelar fenómenos reais com grande precisão em tempo útil exigem enormes quantidades de recursos computacionais, sejam estes de processamento, de memória, ou comunicação. Se até há pouco tempo estas capacidades estavam confinadas a grandes supercomputadores, com o advento dos processadores multicore e GPUs manycore os recursos necessários para este tipo de problemas estão agora acessíveis a preços razoáveis não só a investigadores como aos utilizadores em geral. O presente trabalho está focado na otimização de uma aplicação que simula o comportamento dinâmico de materiais granulares secos, um problema do âmbito da Engenharia Civil, mais especificamente na área da Geotecnia, na qual estas simulações permitem por exemplo investigar a deslocação de grandes massas sólidas provocadas pelo colapso de taludes. Assim, tem havido interesse em abordar esta temática e produzir simulações representativas de situações reais, nomeadamente por parte do CGSE (Australian Research Council Centre of Excellence for Geotechnical Science and Engineering) da Universidade de Newcastle em colaboração com um membro da UNIC (Centro de Investigação em Estruturas de Construção da FCT/UNL) que tem vindo a desenvolver a sua própria linha de investigação, que se materializou na implementação, em CUDA, de um algoritmo para GPUs que possibilita simulações de sistemas com um elevado número de partículas. O trabalho apresentado consiste na otimização, assente na premissa da não alteração (ou alteração mínima) do código original, da supracitada implementação, de forma a obter melhorias significativas tanto no tempo global de execução da aplicação, como no aumento do número de partículas a simular. Ao mesmo tempo, valida-se a formulação proposta ao conseguir simulações que refletem, com grande precisão, os fenómenos físicos. Com as otimizações realizadas, conseguiu-se obter uma redução de cerca de 30% do tempo inicial cumprindo com os requisitos de correção e precisão necessários.
Resumo:
Neste trabalho, são apresentados e discutidos os procedimentos prescritos no Eurocódigo 3, Parte 1-8, para cálculo e dimensionamento de ligações pilar-viga com chapa de extremidade, em estruturas de aço. Em particular, é analisado o método das componentes, que permite determinar a resistência e rigidez rotacional de juntas metálicas, possibilitando a utilização de ligações semi-rígidas, que frequentemente resultam em ligações mais económicas. A metodologia descrita é aplicada em dois exemplos numéricos, tendo-se comparado os valores calculados com os resultados obtidos através de um programa de cálculo automático (Powerconnect) que também se baseia no método das componentes. As análises efetuadas permitem constatar que existem algumas vertentes do programa que podem ser melhoradas. Recorreu-se ainda a um programa de cálculo automático comercial (Sap2000) para comparar os esforços atuantes numa estrutura metálica com ligações rígidas e semi-rígidas, tendo-se concluído que existem diferenças significativas entre as distribuições de esforços obtidas para as duas situações.
Resumo:
A estimação das provisões para sinistros é de extrema importância na atividade de uma seguradora do ramo Não Vida, porque, por um lado, são necessários recursos suficientes para garantir o pagamento de qualquer sinistro que ocorra e, por outro, o excesso de provisões pode condicionar a rentabilidade da companhia. Assim, faz parte do papel do atuário garantir a adequação destas provisões técnicas. Com esse propósito, é habitualmente utilizado o método determinístico Chain Ladder para a estimação das provisões para sinistros. Contudo, de forma a contornar as limitações desta metodologia, recorre-se a modelos estocásticos, como o modelo proposto por Thomas Mack, uma aplicação dos Modelos Lineares Generalizados, a técnica Bootstrap, entre outros. Dos modelos estocásticos é de salientar um dos mais recentemente estudados, Double Chain Ladder, que está diretamente associado ao método Chain Ladder, trazendo algumas vantagens sobre esse último e possibilitando também a aplicação da técnica Bootstrap e uma simples associação ao método Bornhuetter-Ferguson. O objetivo desta dissertação consiste na aplicação e análise destes modelos na estimação de provisões para sinistros no ramo Não Vida.
Resumo:
Com a crescente competitividade dos mercados, em parte devido à conjuntura económica atual, as organizações viram-se obrigadas a adotar estratégias de gestão que lhes permitissem reduzir custos e aumentar a eficácia e eficiência dos seus processos. Como tal, são cada vez mais as empresas que apostam em práticas de melhoria contínua, para de um modo estruturado fazerem face ao desperdício gerado ao longo da cadeia de abastecimento, bem como à variabilidade dos seus processos. Uma das abordagens frequentemente utilizada dentro das empresas industriais é o Lean Seis Sigma. O ciclo DMAIC é um método sequencial que por meio das etapas Define, Measure, Analyse, Improve e Control, auxilia a implementação estruturada de iniciativas de melhoria contínua, tais como os projetos Lean Seis Sigma. O objetivo do caso de estudo da presente dissertação é, através da criação de stocks de segurança e da otimização do nível de stocks de produto acabado, alcançar uma redução do valor financeiro imobilizado no armazém de produto final de uma empresa da indústria vidreira. Nesse sentido, foram aplicadas diversas ferramentas Lean e Seis Sigma com o intuito de recolher dados válidos, analisar as causas da raiz do problema e ulteriormente propor as devidas melhorias. Constatou-se que a inexistência de stocks de segurança, bem como a ausência de uma classificação dos stocks de acordo a média diária de expedições, influi negativamente na organização dos níveis de stock de uma empresa, levando a que a rotatividade dos artigos seja reduzida. Consequentemente, a aplicação do ciclo DMAIC, com especial enfoque na Análise ABC como ferramenta de gestão e controlo de stocks, gera benefícios que podem ser traduzidos para outras organizações, ao nível do aumento da qualidade e da satisfação dos clientes.
Resumo:
A Fundação Robinson, em Portalegre, adquiriu em 2006 uma colecção de arte sacra com um historial muito peculiar, e desde então tem vindo a trabalhar neste espólio, com o objetivo de o preservar, promovendo a sua conservação, estudo e divulgação. Apenas uma pequena percentagem de peças será restaurada e exposta, permanecendo a maioria em reserva. Durante o ultimo ano procedeu-se à avaliação das condições da sala de reserva, cujos resultados se apresentam neste trabalho. Foi caracterizada a coleção, o edifício onde se encontra a sala de reserva e as condições desta mesma sala. Para avaliar os riscos a que a coleção está sujeita foram identificando os agentes de deterioração - forças físicas, fogo, água, ação criminosa, pragas, contaminantes, luz visível e radiação ultravioleta, temperatura incorreta e humidade relativa incorreta e dissociação por negligência, e a ação específica de cada um destes agentes na coleção. Com o objetivo de elaborar um plano de mitigação para cada um dos riscos específicos encontrados realizou-se o cálculo da sua magnitude, recorrendo à metodologia desenvolvida por Robert Waller, o que permitiu estabelecer uma escala de prioridades relativamente à urgência de intervenção. Os resultados desta avaliação de risco permitiram traçar um plano de atuação, baseado em decisões bem informadas de forma a rentabilizar os recursos existentes, apontando métodos de mitigação para reduzir as perdas, de forma a melhorar as condições de conservação deste espólio.
Resumo:
O presente trabalho teve por objetivo estudar o impacto da folha de cálculo na aprendizagem da matemática em alunos de cursos vocacionais. Procurou-se analisar a influência da folha de cálculo Excel, no ambiente de aula e no desempenho dos alunos e identificar potencialidades e dificuldades na sua utilização educativa, nomeadamente, no ensino e aprendizagem de temas estatísticos. Na revisão de literatura são abordados temas relacionados com a teoria da atividade, génese instrumental, folha de cálculo Excel, educação financeira e didática da estatística. O estudo tem por base uma metodologia qualitativa, assente num estudo de caso, com recolha e análise de dados, no decorrer da resolução das tarefas pelos alunos de um curso vocacional ocorrida no primeiro período do ano letivo de 2014/2015. Da análise de dados, observa-se em ação a génese instrumental, visto que os alunos revelaram algum domínio da folha de cálculo na sua aplicação à resolução das tarefas propostas. Os resultados do estudo revelaram as potencialidades do software no ensino e aprendizagem da estatística mas também evidenciaram dificuldades e obstáculos na sua implementação. Reconhecidos os benefícios para alunos e professores da utilização da folha de cálculo a sua implementação prática para ser eficaz requer tempos letivos para a aprendizagem da tecnologia a existência de uma adequada infraestrutura tecnológica das escolas e atitudes favoráveis à sua utilização por parte de alunos, professores e responsáveis educativos.
Resumo:
A presente dissertação tem como principais objetivos a otimização topológica de materiais compósitos de microestrutura periódica e a análise de efeitos de escala na caracterização das propriedades elásticas dos mesmos. No desenvolvimento deste trabalho, é abordada a teoria da homogeneização que é usualmente utilizada para estimar as propriedades elásticas de materiais compósitos periódicos de modo a tratar um meio heterogéneo como um meio homogéneo com propriedades mecânicas equivalentes. É realizada uma verificação e validação das hipóteses utilizadas por esta teoria, com o fim de determinar em que condições os resultados homogeneizados são credíveis e qual a margem de erro associada a esses mesmos resultados. O modelo de material aqui utilizado é obtido pela repetição de uma célula de base unitária (microestrutura representativa) em todas as direções espaciais. Trata-se de um modelo de material tridimensional de duas fases, sólido e vazio (material poroso). São estudadas diferentes topologias de microestruturas, obtidas através de um algoritmo de otimização topológica utilizando o método da homogeneização inversa. Para que fosse utilizada uma amostra suficientemente representativa de diferentes casos de anisotropia de material, foi utilizado um gerador de números aleatórios para reproduzir os estados de tensão ou deformação a serem utilizados no processo de otimização das microestruturas. Desta forma, é realizado um estudo quanto à anisotropia de material e a sua influência nas propriedades elásticas do material. O estudo de efeitos de escala toma uma grande importância neste trabalho, sendo estimados numericamente os tensores elásticos que caracterizam o material e estudada a sua convergência em relação aos tensores obtidos pelo método da homogeneização. Da mesma forma, é realizado um estudo numérico de convergência da densidade de energia de deformação e de tensão para diferentes condições de ensaios mecânicos. Os resultados indicam que um baixo fator de escala é suficiente para substituir um compósito heterogéneo por um material homogéneo com propriedades elásticas calculadas pela teoria da homogeneização.
Resumo:
O trabalho realizado foi desenvolvido no âmbito de um estágio curricular de seis meses realizado na Refinaria de Sines da Galp Energia. O principal objetivo foi a otimização da maior coluna de destilação de vácuo existente, uma vez que com o início do funcionamento de novas unidades, como é o caso do Hydrocraker, a produção de gasóleo de vácuo na Refinaria não é suficiente para assegurar a carga das unidades sendo necessário importar, diminuindo assim as margens das unidades. Foi implementada a simulação da coluna de destilação de vácuo II em ASPEN PLUS® para o caso de design, usando as condições de operação que o licenciador usou nas suas simulações para o re-vamping da unidade. Posteriormente foi efetuada a implementação para o caso de Test Run, em que são verificadas as produções projetadas para a coluna, e foram implementados na coluna 4 casos de operação real, onde foram recolhidos os dados de operação e comparadas as características dos produtos simulados com os resultados obtidos nos ensaios das amostras efetuados pelo Laboratório. No caso de design verifica-se que o modelo representa de forma aceitável as características dos pro-dutos extraídos. Tanto para o caso de Test Run como para os casos reais verifica-se que o modelo representa, na maioria dos casos, as características do destilado e do HVGO nas partes finais das destilações destes produtos, enquanto que o modelo representa as características do LVGO na fase inicial da destilação. Para otimização da coluna de vácuo verificou-se que os parâmetros com maior influência na produção de gasóleo de vácuo são a temperatura da zona de flash da coluna e o caudal de vapor de stripping introduzido no fundo da coluna.
Resumo:
Nos países desenvolvidos, as doenças reumáticas são o grupo de doenças mais fre-quentes da espécie humana, sendo por isso o primeiro motivo de consulta nos cuidados de saúde primários e a principal causa de incapacidade temporária para o trabalho e de reformas antecipadas por doença/invalidez (Canhão & Branco, 2013). O estudo destas doenças torna-se cada vez mais urgente visto que estas têm tendência crescente, tendo em conta os atuais esti-los de vida e o aumento da longevidade da população. Nesta dissertação foi estudada e otimi-zada a técnica de Micro Fluorescência de Raios-X (μ-XRF) de forma a permitir um estudo de elementos maioritários e elementos traço em ossos com doenças reumáticas, tendo em espe-cial atenção a razão Ca/P, já que, por estudos até agora efetuados, esta razão é considerada um biomarcador adequado para a avaliação da saúde dos ossos. Foram então verificados os erros aleatórios e sistemáticos existentes nesta técnica e concluiu-se quais os tipos de parâme-tros que devem ser tidos em conta para este estudo, tais como corrente, tensão do tubo, filtros, entre outros. As amostras foram ainda analisadas com a técnica de PIGE (Particle Induced Gamma-ray Emission) e comparados os resultados com os de μ-XRF de forma a avaliar a in-fluência da topologia da amostra. Pretende-se que este estudo seja o início do desenvolvimen-to de um método alternativo de diagnóstico precoce de doenças reumáticas, conduzindo a um tratamento mais eficaz e melhorando assim a qualidade de vida da população.
Resumo:
O planeamento das redes de distribuição de energia elétrica é considerado de extrema importância para o desenvolvimento de infraestruturas de elevada fiabilidade. A este nível, as empresas elétricas estão a ser confrontadas com objetivos contraditórios de clientes que requerem maior qualidade de serviço e dos que querem preços de energia mais baixos. Para competir neste contexto, é importante que as empresas elétricas estabeleçam um balanço entre os custos de investimento em equipamentos para aumentar a fiabilidade e o nível de fiabilidade alcançado com esse investimento. Este trabalho propõe resolver este problema de planeamento considerando a sua natureza multiobjectivo. Assim, foram desenvolvidos modelos matemáticos para a integração das diversas variáveis minimizadas associadas à fiabilidade, deste problema de otimização multiobjectivo. Nas últimas décadas, a crescente penetração da geração distribuída (GD) tem representado uma série de desafios técnicos para as redes de distribuição que foram concebidas de uma forma tradicional. Assim, propuseram-se modelos para a integração da GD no problema da fiabilidade deste tipo de redes. Neste contexto, também foi proposta uma abordagem para a análise da fiabilidade sob o ponto de vista da redução de gases de efeito de estufa. Neste momento, o problema da fiabilidade começa também a ser abordado quanto às interrupções momentâneas. Assim, considerou-se adicionalmente uma abordagem em que se consideram os sistemas de armazenamento de energia. Para a otimização das várias abordagens desenvolveram-se algoritmos de otimização do tipo evolutivo. Para testar as abordagens e modelos propostos, obtiveram-se resultados a partir de testes realizados sobre uma rede de distribuição real.
Resumo:
A exigência relativamente à exatidão e à precisão de medições na indústria, tem vindo a aumentar significativamente. Para tal, é necessário uma constante evolução dos aparelhos de medida e calibração. Por sua vez, para que haja uniformidade nas medições a nível internacional, é necessário que todos os instrumentos de calibração primários sejam calibrados recorrendo a métodos estatísticos complexos e precisos. O objetivo desta dissertação consiste em analisar métodos numéricos utilizados pelos diferentes Laboratórios Nacionais de Metrologia a nível europeu, na determinação dos valores da área efetiva à pressão nula A0, e o coeficiente de distorção com a pressão λ, que definem a área efetiva Ap do conjunto pistão/cilindro em função da pressão, na calibração de Balanças Manométricas. Balanças essas, que servem de padrão a vários instrumentos de medição. Existem várias abordagens estatísticas para determinar e estimar os valores e as respetivas incertezas destes parâmetros, com resultados que poderão divergir significativamente entre os vários métodos. Realizou-se uma comparação “EURAMET Project 1125” utilizando conjuntos de dados simulados, com o objetivo de verificar numericamente a execução dos diferentes métodos utilizados pelos vários institutos. Verificou-se que utilizando o método OLS se obtêm piores resultados, este método, aumenta no entanto a sua eficácia quando se exclui o primeiro ponto. O método WLS revelou-se suficientemente eficaz para os casos estudados. O método GLS é um método bastante mais exaustivo e conduz a valores muito exatos. Tem-se ainda, o método usado pelo PTB, que considera a existência de uma forca F e que se revela muito exato. As estimativas das áreas efetivas calculadas pelos participantes, foram coerentes com os valores teóricos. Contudo as suas incertezas diferem. Esta analise feita pelo IPQ, foi importante, de forma a melhorar e acompanhar a evolução a nível internacional na calibração das Balanças Manométricas.