833 resultados para Cálculo de incertezas
Resumo:
Extensos estudos realizados nas últimas décadas sobre a propagação de ondas ultrassônicas em sólidos levaram ao desenvolvimento de técnicas não destrutivas para a avaliação da segurança e integridade de estruturas e componentes industriais. O interesse na aplicação de técnicas ultrassônicas para medição de tensões aplicadas e residuais decorre da mudança mensurável da velocidade das ondas ultrassônicas na presença de um campo de tensões, fenômeno conhecido como efeito acustoelástico. Uma teoria de acustoelasticidade fornece um meio atrativo e não destrutivo de medir a tensão média ao longo do caminho percorrido pela onda. O estudo da propagação das ondas ultrassônicas em meios homogêneos anisotrópicos sob tensão conduz a um problema não linear de autovalores dado pela equação de Christoffel generalizada. A característica não linear deste problema decorre da interdependência entre as constantes elásticas efetivas do material e as tensões atuantes. A medição experimental de tensões por técnicas ultrassônicas é um problema inverso da acustoelasticidade. Esta dissertação apresenta a implementação de um algoritmo numérico, baseado no método proposto por Degtyar e Rokhlin, para solução do problema inverso da acustoelasticidade em sólidos ortotrópicos sujeitos a um estado plano de tensões. A solução da equação de Christoffel generalizada apresenta dificuldades de natureza numérica e prática. A estabilidade e a precisão do algoritmo desenvolvido, bem como a influência das incertezas na medição experimental das velocidades das ondas ultrassônicas, foram então investigadas. Dados sintéticos para as velocidades das ondas ultrassônicas de incidência oblíqua em uma placa sujeita a um estado plano de tensões foram gerados pela solução direta da equação de Christoffel generalizada para ilustrar a aplicação do algoritmo desenvolvido. O objetivo maior desta dissertação é a disponibilização de uma nova ferramenta de cálculo para suporte às atividades experimentais de medição de tensões por ultrassom no país.
Resumo:
[EN]These feedback devices are used to improve the quality of chest compressions while performing CPR technique, as they provide real time information to guide the rescuer during resuscitation attempts. Most feedback systems on the market are based on accelerometers and additional sensors or reference signals, used for calculating the displacement of the chest from the acceleration signal. This makes them expensive and complex devices. With the aim of optimizing these feedback systems and overcoming their limitations, in this document we propose three alternative methods for calculating the depth of chest compressions. These methods differ from the ones existing so far in that they use exclusively the chest acceleration signal to compute the displacement. With their implementation, it would be possible to develop systems to provide accurate feedback more easily and economically. In this context, this document details the design and implementation of the three methods and the development of a software environment to analyze the accuracy of each of them and compare the results by means of a detailed calculation of errors. Furthermore, in order to evaluate the methods a database is required, and it can be compiled using a sensorized manikin to record the acceleration signal and the gold standard chest compression depth. The database generated will be used for other studies related to the estimation of the compression depth, because the signals obtained in the manikin platform are very similar to those recorded during a real resuscitation episode.
Resumo:
[Es]Las guías de resucitación recomiendan el uso de dispositivos de feedback para mejorar la calidad de las compresiones torácicas. Estos sistemas calculan la profundidad y frecuencia de las compresiones torácicas e informan al rescatador para que, si es necesario, éste corrija su maniobra para ajustarse a los valores recomendados por las guías. La mayoría de estos dispositivos integran la aceleración dos veces para estimar la profundidad de compresión. Sin embargo, cuando la reanimación cardiopulmonar se realiza en vehículos en movimiento, como por ejemplo un tren de larga distancia, los sistemas que utilizan la señal de aceleración pueden verse afectados por las aceleraciones generadas por el propio tren. En este trabajo se estudia la precisión en el cálculo de la profundidad del pecho, a partir de la señal de aceleración, cuando la reanimación cardiopulmonar es realizada en un tren en movimiento. Este análisis permitirá determinar si los sistemas de feedback basados en la aceleración son aptos para ser utilizados en un tren de larga distancia.
Resumo:
[ES]En este trabajo se estudia la precisión de un nuevo método de cálculo de la profundidad de las compresiones torácicas, a partir de las señales obtenidas de dos acelerómetros, cuando la reanimación cardiopulmonar es realizada sobre un colchón blando.
Resumo:
[ES]Este trabajo se basa en la aplicación de distintas metodologías (norma europea, método fácil y norma americana) para la obtención de las corrientes de cortocircuito en un sistema eléctrico de baja tensión, de forma que se sepa de antemano el valor de dichas corrientes en cualquier punto del circuito para el correcto dimensionamiento de los dispositivos de protección a emplear.
Resumo:
Esta dissertação tem como objetivo apresentar uma estimativa preliminar do volume de recurso contingente não-convencionais de folhelhos oleígenos (oil shale) na Formação Tremembé através de métodos probabilísticos aplicados à informações compiladas de bibliografias existentes sobre a bacia. Como base para esta estimativa utilizou-se informações obtidas através de sísmica 2D, poços existentes na área e perfis geoquímicos. Através da interpretação dos mesmos foram gerados os valores de inputs para os parâmetros utilizados no cálculo, como: espessura econômica, densidade do minério e valor de Ensaio Fisher (Litros de óleo por tonelada de rocha). Para a análise foi construída uma planilha Excel no qual já descrito cada parâmetro do cálculo. Foi utilizado o software @Risk, da Palisade Inc., que é capaz de atribuir distribuições estatísticas a parâmetros utilizados no cálculo obtendo, a partir do método Monte Carlo, distribuições dos possíveis resultados. A metodologia apresentada se demonstra mais adequada ao caso em estudo que o método determinístico, devido a restrição e ausência da precisão dos dados o que aumentaria as incertezas e as chances de erro no cálculo do volume, podendo impossibilitar uma avaliação, no caso do segundo. A metodologia probabilística ao mesmo tempo em que permite uma avaliação preliminar na ausência de dados precisos, ela gera cenários probabilísticos de resultados, possibilitando a antecipação da tomada de decisões em um projeto, permitindo sua continuação ou abandono.
Resumo:
Uma dedução dos critérios de multicriticalidade para o cálculo de pontos críticos de qualquer ordem representa a formalização de ideias utilizadas para calcular pontos críticos e tricríticos e ainda amplia tais ideias. De posse desta dedução pode-se compreender os critérios de tricriticalidade e, com isso, através de uma abordagem via problema de otimização global pode-se fazer o cálculo de pontos tricríticos utilizando um método numérico adequado de otimização global. Para evitar um excesso de custo computacional com rotinas numéricas utilizou-se aproximações na forma de diferenças finitas dos termos que compõem a função objetivo. Para simular a relação P v - T optou-se pela equação de estado cúbica de Peng-Robinson e pela regra clássica de fluidos de van der Vaals, para modelagem do problema também se calculou os tensores de ordem 2, 3, 4 e 5 da função do teste de estabilidade. Os resultados obtidos foram comparados com dados experimentais e por resultados obtidos com outros autores que utilizaram métodos numéricos, equação de estado ou abordagem diferente das utilizadas neste trabalho.
Resumo:
[es] En este trabajo se ha estudiado el modelo cosmológico LambdaCDM considerando el universo plano, compuesto por materia que no ejerce presión y por constante cosmol ogica. El proyecto comienza con una breve introducción a la cosmología, seguido de una explicación concisa del conocimiento actual de la expansi on acelerada del universo. El objetivo principal del trabajo reside en comparar este modelo con otro en el que la energía oscura no es la constante cosmológica e imponer restricciones en los parámetros que describen los modelos, para lo cual se han utilizado datos provenientes de brotes de rayos gamma.
Resumo:
No período entre 1954 e 1964, Willys de Castro dedicou-se, entre outras tarefas, ao Estúdio de Projetos Gráficos. A presente dissertação analisa quatro marcas desenvolvidas nessa época, e realizadas de forma concomitante a produção de suas pinturas, objetos e esculturas. As marcas de Willys, parecem tornar-se uma síntese de seu trabalho, de sua arte como um todo. Para realizar esta analise a dissertação traça sua trajetória no campo do design no Brasil. Devido as pouquíssimas publicações sobre o artista, principalmente com relação a sua produção gráfica, este trabalho tenta ser o mais completo possível para o estudo da arte e do design no Brasil até o momento
Resumo:
O Painel Intergovernamental de Mudanças Climáticas da ONU (IPCC) tem comprovado com nível de confiança cada vez maior, ao longo dos últimos anos, a forte relação entre o aumento da temperatura média global e o aumento dos gases de efeito estufa (GEEs) principalmente quanto ao gás que mais contribui para a composição desses gases: o gás carbônico ou CO2. O Brasil se insere no rol dos emissores desse gás, principalmente devido ao desmatamento das reservas florestais que possui. Assim, assumiu o compromisso na Convenção Quadro das Nações Unidas sobre Mudanças Climáticas (United Nations Framework Convention on Climate Change UNFCCC) de estabilizar suas emissões e inventariar periodicamente os seus GEEs. Dentro deste contexto, cabe também à indústria levantar sua parcela de responsabilidade significativa neste processo ameaçador para a vida no planeta terra. Desta forma, o principal objetivo do presente trabalho foi o de levantar e contabilizar o Inventário dos GEEs emitidos em 2006 por uma empresa que produz importantes insumos para a indústria de petróleo. A pesquisa bibliográfica sobre a metodologia mais adequada e sua aplicação para a empresa em estudo foram os principais objetivos específicos. A autora não encontrou fatores de emissão de CO2 (kg CO2/TJ do combustível, detalhado no decorrer deste trabalho) desenvolvidos no Brasil para levantar o inventário, com um nível razoável de confiança, que reflita a situação real e local. Toda a pesquisa bibliográfica feita mostrou que os trabalhos realizados mesmo por órgãos governamentais brasileiros usaram a metodologia do IPCC (versão anterior à usada neste trabalho) que foi elaborada por países desenvolvidos, que não é o nosso caso ou realidade. Foram feitas diversas visitas à empresa, levantadas todas as fontes potenciais de emissão, consumos e características de todos os combustíveis usados, bem como o levantamento do trabalho desenvolvido sobre geração de mudas de plantas no seu horto. Através de cálculos por essa metodologia reconhecida mundialmente (IPCC) a autora encontrou um valor em torno de 76.000 toneladas de CO2 emitidos pela empresa em 2006. A empresa neutralizou cerca de 80 toneladas de CO2, através da produção de mudas (para doação e plantio em torno de uma área que é um passivo ambiental) em seu horto e o que plantou na área desse passivo em 2006. Isso significou cerca de 0,1% do que emitiu
Resumo:
Neste trabalho é apresentado um estudo para a determinação do tamanho ótimo da malha de elementos, utilizando redes neurais artificiais, para o cálculo da intensidade útil. A ideia principal é treinar as redes de modo a possibilitar a aprendizagem e o reconhecimento do melhor tamanho para diversas áreas superficiais em fontes sonoras com geometria plana. A vantagem de se utilizar redes neurais artificiais deve-se ao fato de apresentarem um único tamanho para a obtenção da intensidade útil, consequentemente, uma redução significativa de tempo computacional quando comparado com o tempo de cálculo de uma malha bem refinada. Ensaios numéricos com placas planas - geometria separável que permite uma solução analítica - são utilizados para se realizar comparações. É apresentado um estudo comparativo entre o tempo computacional gasto para a obtenção da intensidade útil e o mesmo com a malha otimizada via redes neurais artificiais. Também é apresentada uma comparação do nível de potência sonora mediante solução numérica, a fim de validar os resultados apresentados pelas redes neurais.
Resumo:
A presente dissertação tem o objetivo de propor a reinclusão de elementos de Cálculo no ensino médio, pois no passado o Cálculo fazia parte do currículo e foi abolido após uma reforma no ensino da matemática. O trabalho apresenta os resultados de um levantamento estatístico sobre os índices de reprovação na disciplina Cálculo Diferencial e Integral I nos períodos mais recentes da Universidade do Estado do Rio de Janeiro (UERJ) e, também, uma pesquisa quantitativa com quarenta professores de matemática com o objetivo de analisar a viabilidade do projeto e os problemas a serem enfrentados. Por fim, a dissertação conta com uma série de atividades comentadas sobre o tema de limites, que é o foco do trabalho. Tais atividades podem ser incluídas já no 1 ano do ensino médio, paralelamente ao conteúdo de funções, e visam proporcionar aos estudantes o contato com elementos de Cálculo em uma linguagem acessível, e orientar o professor nesta tarefa
Resumo:
Este trabalho traz uma proposta de atividades, a serem desenvolvidas em sala de aula, com o objetivo de introduzir o conceito de derivadas para os alunos da primeira série do Ensino Médio. Antes das atividades, estão presentes algumas breves pesquisas. O histórico da presença de tópicos do Cálculo Diferencial e Integral no Ensino Médio no Brasil, assim como a análise de alguns livros didáticos, serve para mostrar como o assunto já foi e está sendo tratado no país. Também são exibidos aspectos sobre o Ensino Médio na Alemanha e nos Estados Unidos, países onde o cálculo está presente na Escola Secundária, embora de formas bastante diferentes. Um capítulo sobre a preparação adequada para as aulas também foi incluído, uma vez que a simples inserção da derivada poderia causar problemas de tempo para o cumprimento do cronograma e não trazer os resultados esperados. São necessários algum grau de adequação dos conteúdos ministrados e de cooperação com professores de Física. As atividades visando o ensino dos conceitos iniciais de derivada são motivadas por um problema físico de movimento. O foco é dado na intuição e na visualização de gráficos, para que haja uma melhor compreensão dos conceitos envolvidos. A utilização de um software de geometria dinâmica é requerida em boa parte do tempo, como importante ferramenta de apoio pedagógico
Resumo:
Com a entrada em vigor do Protocolo de Quioto, intensificam-se as expectativas pela regulamentação de um mercado de créditos de carbono. No caso de esses créditos terem sua origem em projetos de reflorestamento ou de florestamento, conforme previsto pelos chamados Mecanismos de Desenvolvimento Limpo (MDL), vem a ser fundamental o estabelecimento de uma metodologia para quantificação de estoques de carbono armazenados sob a forma de biomassa vegetal. Este trabalho propõe, como um método informatizado para cálculo de estoque de carbono em florestas, um conjunto de funcionalidades e um modelo de dados cadastrais totalmente integrados com um Sistema de Informações Geográficas de arquitetura aberta. A partir de mapas e imagens geo-referenciadas e com base em dados obtidos de pequenos transectos, o sistema calcula a quantidade total de carbono estocada em toda a floresta. Além de permitir apresentar esses resultados para diferentes agentes armazenadores de carbono, como, por exemplo, segmentos de floresta ou cada espécie vegetal, o sistema mantém registro histórico de dados dendrométricos, o que virá permitir a geração de gráficos de curvas de crescimento e, por conseguinte, estimativas futuras.
Resumo:
Azeotropia é um fenômeno termodinâmico onde um líquido em ebulição produz um vapor com composição idêntica. Esta situação é um desafio para a Engenharia de Separação, já que os processos de destilação exploram as diferenças entre as volatilidades relativas e, portanto, um azeótropo pode ser uma barreira para a separação. Em misturas binárias, o cálculo da azeotropia é caracterizado por um sistema não-linear do tipo 2 × 2. Um interessante e raro caso é o denominado azeotropia dupla, que pode ser verificado quando este sistema não-linear tem duas soluções, correspondendo a dois azeótropos distintos. Diferentes métodos tem sido utilizados na resolução de problemas desta natureza, como métodos estocásticos de otimização e as técnicas intervalares (do tipo Newton intervalar/bisseção generalizada). Nesta tese apresentamos a formulação do problema de azeotropia dupla e uma nova e robusta abordagem para a resolução dos sistemas não-lineares do tipo 2 × 2, que é a inversão de funções do plano no plano (MALTA; SALDANHA; TOMEI, 1996). No método proposto, as soluções são obtidas através de um conjunto de ações: obtenção de curvas críticas e de pré-imagens de pontos arbritários, inversão da função e por fim, as soluções esperadas para o problema de azeotropia. Esta metodologia foi desenvolvida para resolver sistemas não-lineares do tipo 2 × 2, tendo como objetivo dar uma visão global da função que modela o fenômeno em questão, além, é claro, de gerar as soluções esperadas. Serão apresentados resultados numéricos para o cálculo dos azeótropos no sistema benzeno + hexafluorobenzeno a baixas pressões por este método de inversão. Como ferramentas auxiliares, serão também apresentados aspectos numéricos usando aproximações clássicas, tais como métodos de Newton com técnicas de globalização e o algorítmo de otimização não-linear C-GRASP, para efeito de comparação.