48 resultados para Cálculo-Problemas
Resumo:
O Painel Intergovernamental de Mudanças Climáticas da ONU (IPCC) tem comprovado com nível de confiança cada vez maior, ao longo dos últimos anos, a forte relação entre o aumento da temperatura média global e o aumento dos gases de efeito estufa (GEEs) principalmente quanto ao gás que mais contribui para a composição desses gases: o gás carbônico ou CO2. O Brasil se insere no rol dos emissores desse gás, principalmente devido ao desmatamento das reservas florestais que possui. Assim, assumiu o compromisso na Convenção Quadro das Nações Unidas sobre Mudanças Climáticas (United Nations Framework Convention on Climate Change UNFCCC) de estabilizar suas emissões e inventariar periodicamente os seus GEEs. Dentro deste contexto, cabe também à indústria levantar sua parcela de responsabilidade significativa neste processo ameaçador para a vida no planeta terra. Desta forma, o principal objetivo do presente trabalho foi o de levantar e contabilizar o Inventário dos GEEs emitidos em 2006 por uma empresa que produz importantes insumos para a indústria de petróleo. A pesquisa bibliográfica sobre a metodologia mais adequada e sua aplicação para a empresa em estudo foram os principais objetivos específicos. A autora não encontrou fatores de emissão de CO2 (kg CO2/TJ do combustível, detalhado no decorrer deste trabalho) desenvolvidos no Brasil para levantar o inventário, com um nível razoável de confiança, que reflita a situação real e local. Toda a pesquisa bibliográfica feita mostrou que os trabalhos realizados mesmo por órgãos governamentais brasileiros usaram a metodologia do IPCC (versão anterior à usada neste trabalho) que foi elaborada por países desenvolvidos, que não é o nosso caso ou realidade. Foram feitas diversas visitas à empresa, levantadas todas as fontes potenciais de emissão, consumos e características de todos os combustíveis usados, bem como o levantamento do trabalho desenvolvido sobre geração de mudas de plantas no seu horto. Através de cálculos por essa metodologia reconhecida mundialmente (IPCC) a autora encontrou um valor em torno de 76.000 toneladas de CO2 emitidos pela empresa em 2006. A empresa neutralizou cerca de 80 toneladas de CO2, através da produção de mudas (para doação e plantio em torno de uma área que é um passivo ambiental) em seu horto e o que plantou na área desse passivo em 2006. Isso significou cerca de 0,1% do que emitiu
Resumo:
Esta tese apresenta um estudo sobre modelagem computacional onde são aplicadas meta-heurísticas de otimização na solução de problemas inversos de transferência radiativa em meios unidimensionais com albedo dependente da variável óptica, e meios unidimensionais de duas camadas onde o problema inverso é tratado como um problema de otimização. O trabalho aplica uma meta-heurística baseada em comportamentos da natureza conhecida como algoritmo dos vagalumes. Inicialmente, foram feitos estudos comparativos de desempenho com dois outros algoritmos estocásticos clássicos. Os resultados encontrados indicaram que a escolha do algoritmo dos vagalumes era apropriada. Em seguida, foram propostas outras estratégias que foram inseridas no algoritmo dos vagalumes canônico. Foi proposto um caso onde se testou e investigou todas as potenciais estratégias. As que apresentaram os melhores resultados foram, então, testadas em mais dois casos distintos. Todos os três casos testados foram em um ambiente de uma camada, com albedo de espalhamento dependente da posição espacial. As estratégias que apresentaram os resultados mais competitivos foram testadas em um meio de duas camadas. Para este novo cenário foram propostos cinco novos casos de testes. Os resultados obtidos, pelas novas variantes do algoritmo dos vagalumes, foram criticamente analisados.
Resumo:
Em engenharia, a modelagem computacional desempenha um papel importante na concepção de produtos e no desenvolvimento de técnicas de atenuação de ruído. Nesse contexto, esta tese investiga a intensidade acústica gerada pela radiação sonora de superfícies vibrantes. De modo específico, a pesquisa enfoca a identificação das regiões de uma fonte sonora que contribuem efetivamente para potência sonora radiada para o campo afastado, quando a frequência de excitação ocorre abaixo da frequência crítica de coincidência. São descritas as fundamentações teóricas de duas diferentes abordagens. A primeira delas, denominada intensidade supersônica (analítica) é calculada via transformadas de Fourier para fontes sonoras com geometrias separáveis. A segunda, denominada intensidade útil (numérica) é calculada através do método dos elementos de contorno clássico para fontes com geometrias arbitrárias. Em ambas, a identificação das regiões é feita pela filtragem das ondas não propagantes (evanescentes). O trabalho está centrado em duas propostas, a saber. A primeira delas, é a apresentação implementação e análise de uma nova técnica numérica para o cálculo da grandeza intensidade útil. Essa técnica constitui uma variante do método dos elementos de contorno (MEC), tendo como base o fato de as aproximações para as variáveis acústicas pressão e velocidade normal serem tomadas como constantes em cada elemento. E também no modo peculiar de obter a velocidade constante através da média de um certo número de velocidades interiores a cada elemento. Por esse motivo, a técnica recebe o nome de método de elemento de contorno com velocidade média (AVBEMAverage Velocity Boundary Element Method). A segunda, é a obtenção da solução forma fechada do campo de velocidade normal para placas retangulares com oito diferentes combinações de condições contorno clássicas. Então, a intensidade supersônica é estimada e comparada à intensidade acústica. Nos ensaios numéricos, a comparação da intensidade útil obtida via MEC clássico e via AVBEM é mostrada para ilustrar a eficiência computacional da técnica aqui proposta, que traz como benefício adicional o fato de poder ser utilizada uma malha menos refinada para as simulações e, consequentemente, economia significativa de recursos computacionais.
Resumo:
Esta pesquisa consiste na solução do problema inverso de transferência radiativa para um meio participante (emissor, absorvedor e/ou espalhador) homogêneo unidimensional em uma camada, usando-se a combinação de rede neural artificial (RNA) com técnicas de otimização. A saída da RNA, devidamente treinada, apresenta os valores das propriedades radiativas [ω, τ0, ρ1 e ρ2] que são otimizadas através das seguintes técnicas: Particle Collision Algorithm (PCA), Algoritmos Genéticos (AG), Greedy Randomized Adaptive Search Procedure (GRASP) e Busca Tabu (BT). Os dados usados no treinamento da RNA são sintéticos, gerados através do problema direto sem a introdução de ruído. Os resultados obtidos unicamente pela RNA, apresentam um erro médio percentual menor que 1,64%, seria satisfatório, todavia para o tratamento usando-se as quatro técnicas de otimização citadas anteriormente, os resultados tornaram-se ainda melhores com erros percentuais menores que 0,04%, especialmente quando a otimização é feita por AG.
Resumo:
A água é essencial à manutenção da vida. No entanto, com as situações de estresse hídrico - disponibilidade hídrica inferior a 1.700 m per capita ao ano (FALKENMARK, 1989) - vivenciadas em diversos pontos do planeta, somadas ao acelerado crescimento da população mundial, os problemas relacionados ao uso da água tendem a aumentar. Neste contexto, a pegada hídrica (PH), que é um indicador de sustentabilidade ambiental, se torna uma importante ferramenta de gestão de recursos hídricos pois indica o consumo de água doce com base em seus usos. O presente trabalho objetiva mensurar a pegada hídrica em função das componentes industrial, doméstica e alimentar da população do bairro Rocinha, um aglomerado subnormal localizado no município do Rio de Janeiro. A pesquisa se deteve a um Estudo de Caso de 20 sub-bairros da comunidade. Sua abordagem foi quantitativa, contando com uma amostra de 203 domicílios, erro amostral de 7% e grau de confiança de 93%. Para tal, foi utilizada como ferramenta de cálculo o modelo Water Footprint Network do ano de 2005. Os resultados indicaram que, em média, a PH dos indivíduos que compõem a amostra é de 1715 m/ano per capita assim divididos: PH de consumo doméstico de água de 175 m/ano per capita (479 l/hab.dia); PH de produtos agrícolas igual a 1470 m/ano per capita, e PH de produtos industrializados de 70 m/ano per capita. Os resultados obtidos sugerem que os indivíduos da amostra com uma maior despesa mensal tendem a ter pegadas hídricas industrial e total também maiores.
Resumo:
Este trabalho apresenta uma estimativa a priori para o limite superior da distribuição de temperatura considerando um problema em regime permanente em um corpo com uma condutividade térmica dependente da temperatura. A discussão é realizada supondo que as condições de contorno são lineares (lei de Newton do resfriamento) e que a condutividade térmica é constante por partes (quando considerada como uma função da temperatura). Estas estimativas consistem em uma ferramenta poderosa que pode prescindir da necessidade de uma simulação numérica cara de um problema de transferência de calor não linear, sempre que for suficiente conhecer o valor mais alto de temperatura. Nestes casos, a metodologia proposta neste trabalho é mais eficaz do que as aproximações usuais que assumem tanto a condutividade térmica quanto as fontes de calor como constantes.
Resumo:
Neste trabalho é apresentado um estudo para a determinação do tamanho ótimo da malha de elementos, utilizando redes neurais artificiais, para o cálculo da intensidade útil. A ideia principal é treinar as redes de modo a possibilitar a aprendizagem e o reconhecimento do melhor tamanho para diversas áreas superficiais em fontes sonoras com geometria plana. A vantagem de se utilizar redes neurais artificiais deve-se ao fato de apresentarem um único tamanho para a obtenção da intensidade útil, consequentemente, uma redução significativa de tempo computacional quando comparado com o tempo de cálculo de uma malha bem refinada. Ensaios numéricos com placas planas - geometria separável que permite uma solução analítica - são utilizados para se realizar comparações. É apresentado um estudo comparativo entre o tempo computacional gasto para a obtenção da intensidade útil e o mesmo com a malha otimizada via redes neurais artificiais. Também é apresentada uma comparação do nível de potência sonora mediante solução numérica, a fim de validar os resultados apresentados pelas redes neurais.
Resumo:
Com a entrada em vigor do Protocolo de Quioto, intensificam-se as expectativas pela regulamentação de um mercado de créditos de carbono. No caso de esses créditos terem sua origem em projetos de reflorestamento ou de florestamento, conforme previsto pelos chamados Mecanismos de Desenvolvimento Limpo (MDL), vem a ser fundamental o estabelecimento de uma metodologia para quantificação de estoques de carbono armazenados sob a forma de biomassa vegetal. Este trabalho propõe, como um método informatizado para cálculo de estoque de carbono em florestas, um conjunto de funcionalidades e um modelo de dados cadastrais totalmente integrados com um Sistema de Informações Geográficas de arquitetura aberta. A partir de mapas e imagens geo-referenciadas e com base em dados obtidos de pequenos transectos, o sistema calcula a quantidade total de carbono estocada em toda a floresta. Além de permitir apresentar esses resultados para diferentes agentes armazenadores de carbono, como, por exemplo, segmentos de floresta ou cada espécie vegetal, o sistema mantém registro histórico de dados dendrométricos, o que virá permitir a geração de gráficos de curvas de crescimento e, por conseguinte, estimativas futuras.
Resumo:
Este trabalho estuda a transferência de calor por condução considerando a condutividade térmica como uma função constante por partes da temperatura. Esta relação, embora fisicamente mais realista que supor a condutividade térmica constante, permite obter uma forma explícita bem simples para a inversa da Transformada de Kirchhoff (empregada para tratar a não linearidade do problema). Como exemplo, apresenta-se uma solução exata para um problema com simetria esférica. Em seguida, propôe-se uma formulação variacional (com unicidade demonstrada) que introduz um funcional cuja minimização é equivalente à solução do problema na forma forte. Finalmente compara-se uma solução exata obtida pela inversa da Transformada de Kirchhoff com a solução obtida via formulação variacional.
Resumo:
Métodos de otimização que utilizam condições de otimalidade de primeira e/ou segunda ordem são conhecidos por serem eficientes. Comumente, esses métodos iterativos são desenvolvidos e analisados à luz da análise matemática do espaço euclidiano n-dimensional, cuja natureza é de caráter local. Consequentemente, esses métodos levam a algoritmos iterativos que executam apenas as buscas locais. Assim, a aplicação de tais algoritmos para o cálculo de minimizadores globais de uma função não linear,especialmente não-convexas e multimodais, depende fortemente da localização dos pontos de partida. O método de Otimização Global Topográfico é um algoritmo de agrupamento, que utiliza uma abordagem baseada em conceitos elementares da teoria dos grafos, a fim de gerar bons pontos de partida para os métodos de busca local, a partir de pontos distribuídos de modo uniforme no interior da região viável. Este trabalho tem dois objetivos. O primeiro é realizar uma nova abordagem sobre método de Otimização Global Topográfica, onde, pela primeira vez, seus fundamentos são formalmente descritos e suas propriedades básicas são matematicamente comprovadas. Neste contexto, propõe-se uma fórmula semi-empírica para calcular o parâmetro chave deste algoritmo de agrupamento, e, usando um método robusto e eficiente de direções viáveis por pontos-interiores, estendemos o uso do método de Otimização Global Topográfica a problemas com restrições de desigualdade. O segundo objetivo é a aplicação deste método para a análise de estabilidade de fase em misturas termodinâmicas,o qual consiste em determinar se uma dada mistura se apresenta em uma ou mais fases. A solução deste problema de otimização global é necessária para o cálculo do equilíbrio de fases, que é um problema de grande importância em processos da engenharia, como, por exemplo, na separação por destilação, em processos de extração e simulação da recuperação terciária de petróleo, entre outros. Além disso, afim de ter uma avaliação inicial do potencial dessa técnica, primeiro vamos resolver 70 problemas testes, e então comparar o desempenho do método proposto aqui com o solver MIDACO, um poderoso software recentemente introduzido no campo da otimização global.
Resumo:
Diversas das possíveis aplicações da robótica de enxame demandam que cada robô seja capaz de estimar a sua posição. A informação de localização dos robôs é necessária, por exemplo, para que cada elemento do enxame possa se posicionar dentro de uma formatura de robôs pré-definida. Da mesma forma, quando os robôs atuam como sensores móveis, a informação de posição é necessária para que seja possível identificar o local dos eventos medidos. Em virtude do tamanho, custo e energia dos dispositivos, bem como limitações impostas pelo ambiente de operação, a solução mais evidente, i.e. utilizar um Sistema de Posicionamento Global (GPS), torna-se muitas vezes inviável. O método proposto neste trabalho permite que as posições absolutas de um conjunto de nós desconhecidos sejam estimadas, com base nas coordenadas de um conjunto de nós de referência e nas medidas de distância tomadas entre os nós da rede. A solução é obtida por meio de uma estratégia de processamento distribuído, onde cada nó desconhecido estima sua própria posição e ajuda os seus vizinhos a calcular as suas respectivas coordenadas. A solução conta com um novo método denominado Multi-hop Collaborative Min-Max Localization (MCMM), ora proposto com o objetivo de melhorar a qualidade da posição inicial dos nós desconhecidos em caso de falhas durante o reconhecimento dos nós de referência. O refinamento das posições é feito com base nos algoritmos de busca por retrocesso (BSA) e de otimização por enxame de partículas (PSO), cujos desempenhos são comparados. Para compor a função objetivo, é introduzido um novo método para o cálculo do fator de confiança dos nós da rede, o Fator de Confiança pela Área Min-Max (MMA-CF), o qual é comparado com o Fator de Confiança por Saltos às Referências (HTA-CF), previamente existente. Com base no método de localização proposto, foram desenvolvidos quatro algoritmos, os quais são avaliados por meio de simulações realizadas no MATLABr e experimentos conduzidos em enxames de robôs do tipo Kilobot. O desempenho dos algoritmos é avaliado em problemas com diferentes topologias, quantidades de nós e proporção de nós de referência. O desempenho dos algoritmos é também comparado com o de outros algoritmos de localização, tendo apresentado resultados 40% a 51% melhores. Os resultados das simulações e dos experimentos demonstram a eficácia do método proposto.
Resumo:
Como forma de impulsionar o crescimento econômico, governos de diversos países incentivam o empreendedorismo, a inovação e o desenvolvimento tecnológico. Para isto, se utilizam de programas governamentais por meio de políticas de incentivo ou subvenção econômica a empreendimentos com este perfil. No Brasil, o capital de risco público vem sendo oferecido à empresas inovadoras através dos fundos da série Criatec, com recursos do BNDES. Estas empresas possuem, principalmente, ativos intangíveis, que devem ser considerados pelos investidores em suas avaliações que antecedem o aporte de recursos. Neste contexto, esta pesquisa foi desenvolvida com o objetivo de analisar como a metodologia de avaliação de intangíveis utilizada pelo Fundo Criatec I do BNDES, como ferramenta de apoio de decisão de investimento de capital de risco público, considera os indicadores de inovação frente aos modelos teóricos propostos na literatura contábil. Para isto foi realizado estudo de campo através de entrevistas realizadas com os gestores do Fundo e com diversas empresas investidas por este. Por meio da pesquisa foi observado que é realizada profunda análise das empresas candidatas ao aporte de recursos através da avaliação de três fatores de risco. Foi possível verificar indicadores de inovação presentes nas metodologias de avaliação de intangíveis propostas na literatura contábil na análise de um destes fatores. Contudo foi possível identificar que os indicadores de inovação não são avaliados de forma pré definida e parametrizada no modelo utilizado pelo Fundo.
Resumo:
Este trabalho pretende verificar o alinhamento entre os indicadores de inovação utilizados pelos métodos Scorecard de mensuração dos ativos intangíveis e pelas agências governamentais nacionais e internacionais com aqueles utilizados pelos fundos de capital de risco na cidade do Rio de Janeiro, para investimento em empresas spin-offs acadêmicas incubadas. A metodologia constou de uma revisão bibliográfica sobre os métodos de mensuração e valoração dos ativos intangíveis, indicadores de inovação propostos por agências governamentais nacionais e internacionais e fundos de capital de risco que atuam na cidade do Rio de Janeiro. Além de serem aplicados questionários nas empresas de fundos de capital de risco desta cidade. Foram levantados diversos métodos Scorecards na literatura com seus indicadores, além dos indicadores de inovação de agências governamentais nacionais e internacionais. Adicionando-se a isso, identificou-se o foco de investimento, o processo de seleção, o método utilizado de avaliação de oportunidades de investimento e indicadores relevantes para as empresas de capital de risco da cidade do Rio de Janeiro. Observou-se que os ativos intangíveis, entre eles os de inovação, não são avaliados individualmente. A informação obtida com as empresas que receberão investimentos dessas empresas de capital de risco é utilizada para se entender a origem dos fluxos de caixa projetados e os principais fatores de risco. E esses dados aplicados ao método do fluxo de caixa descontado permitem que se estime o valor da empresa. Pela vasta experiência dos gestores dos fundos de capital de risco com micro e pequenas empresas inovadoras, espera-se que o estudo das práticas deste segmento traga importantes reflexões para as discussões relativas aos ativos intangíveis e a inovação.
Resumo:
A presente dissertação tem o objetivo de mostrar a arte Origami sob um contexto matemático, apresentando um pequeno resumo dos aspectos história e o desenvolvimento do Origami ao longo do tempo e dando maior destaque às suas aplicações na matemática, com o emprego dos axiomas de Huzita e a proposta de ampliação deste conjunto de axiomas com a inclusão da circunferência no papel Origami. Com o uso das técnicas de dobraduras, este trabalho mostra várias aplicações do Origami na matemática, tais como: a solução de alguns problemas clássicos, a construção de polígonos, a demonstração da soma dos ângulos internos de um triângulo, cálculo de algumas áreas, a solução de alguns problemas de máximos e mínimos, seguidos dos conceitos matemático envolvidos em cada um deles. E a inclusão da circunferência no plano Origami permitiu ainda, o estudo das construções das cônicas por dobraduras
Resumo:
A presente dissertação tem o objetivo de mostrar a arte Origami sob um contexto matemático, apresentando um pequeno resumo dos aspectos história e o desenvolvimento do Origami ao longo do tempo e dando maior destaque às suas aplicações na matemática, com o emprego dos axiomas de Huzita e a proposta de ampliação deste conjunto de axiomas com a inclusão da circunferência no papel Origami. Com o uso das técnicas de dobraduras, este trabalho mostra várias aplicações do Origami na matemática, tais como: a solução de alguns problemas clássicos, a construção de polígonos, a demonstração da soma dos ângulos internos de um triângulo, cálculo de algumas áreas, a solução de alguns problemas de máximos e mínimos, seguidos dos conceitos matemático envolvidos em cada um deles. E a inclusão da circunferência no plano Origami permitiu ainda, o estudo das construções das cônicas por dobraduras.