933 resultados para Métodos de cálculo


Relevância:

20.00% 20.00%

Publicador:

Resumo:

O uso de modelos de estudo dentários faz parte tanto da prática quanto da pesquisa odontológica e ortodôntica. Com a introdução dos scanners 3D e dos tomógrafos CBCT (cone beam computer tomography) tornou-se possível a obtenção de modelos dentários tridimensionais virtuais das arcadas dentárias. Foram selecionados 56 modelos dentários superiores e escaneados em três tipos diferentes de scanners: Maestro 3D Dental Scanner (AGE Solutions, Potedera, Italia), 3Shape R700 3D Scanner (3Shape, Copenhagen, Dinamarca) e o scanner 3Shape TRIOS (3Shape, Copenhagen, Dinamarca). Doze medidas foram realizadas nos modelos dentários de gesso e comparadas com as mesmas medidas realizadas nos modelos dentários digitais por meio do teste de Análise de Variância (ANOVA). Estatisticamente não foram encontradas diferenças significativas entre as medições tradicionais nos modelos dentários de gesso e as medidas realizadas nos modelos dentários digitais. Os três tipos de métodos de aquisição de modelos dentários digitais foram considerados confiáveis para as medições horizontais, transversais e verticais. Os modelos dentários virtuais podem ser indicados como substitutos dos modelos dentários de gesso.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

[es]El principal objetivo de este trabajo es la validación de métodos analíticos nuevos como son la determinación de amonio, nitrato y carbono orgánico total en muestras de aguas de estuario ya que no se han encontrado estudios para este tipo de muestras. A partir de este objetivo principal, se pretende, por un lado, comprobar la influencia de la diferente salinidad de las muestras en el desarrollo de métodos potenciométricos mediante ISE para la medida de nitrato y amonio y del equipo de TOC-VCSN para la determinación de carbono orgánico. Además, con la ayuda de cálculos estadísticos, determinar la incertidumbre asociada a la determinación de la concentración de amonio, nitrato y carbono orgánico en las muestras. Y, por último, analizar la posible variación de las muestras a lo largo del tiempo para comprobar su estabilidad.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

No período entre 1954 e 1964, Willys de Castro dedicou-se, entre outras tarefas, ao Estúdio de Projetos Gráficos. A presente dissertação analisa quatro marcas desenvolvidas nessa época, e realizadas de forma concomitante a produção de suas pinturas, objetos e esculturas. As marcas de Willys, parecem tornar-se uma síntese de seu trabalho, de sua arte como um todo. Para realizar esta analise a dissertação traça sua trajetória no campo do design no Brasil. Devido as pouquíssimas publicações sobre o artista, principalmente com relação a sua produção gráfica, este trabalho tenta ser o mais completo possível para o estudo da arte e do design no Brasil até o momento

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A validação dos métodos de análises em situações fora da rotina, em P&D pesquisa e desenvolvimento, pode tornar-se um processo de difícil solução, em oposição àquelas de rotina, onde as concentrações são conhecidas. Nesta última situação, o método analítico é validado e aprovado com simplicidade. Apesar dos elementos de qualidade básicos para análises em P&D serem os mesmos adotados nas análises de rotina, fatores como o comportamento imprevisível da amostra, a composição desconhecida da matriz e interdependência com o analito, mesmo a incerteza a respeito da escolha do método instrumental, requer uma atenção renovada nos elementos de qualidade existentes. A razão pode ser atribuída à imprevisibilidade do procedimento analítico e a extensão do esforço adicional dos elementos de qualidade. As incertezas das análises em P&D requerem uma cuidadosa consideração do problema, assim como a disponibilidade de técnicas analíticas. Ao mesmo tempo, devem-se observar o planejamento e organização do trabalho, a supervisão do desenvolvimento analítico e a adequação dos aspectos técnico e organizacional - no trabalho de P&D, a definição de responsabilidades e a competência do corpo técnico. A garantia da qualidade nas indústrias farmacêuticas é estabelecida pelo desenvolvimento de especificações apropriadas para matérias-primas, produtos intermediários e produtos finais. A importância de especificações adequadas foi estabelecida e exemplos foram dados no desenvolvimento de especificação típica para produtos farmacêuticos, tais como a vacina e matéria prima. Isto incluiu uma discussão dos tipos de parâmetros que precisam ser controlados e uma indicação dos valores numéricos ou faixas esperadas para muitos materiais utilizados. A metrologia analítica que necessita ser aplicada para demonstrar a observância com as especificações foi discutida, com as implicações de desempenho do método para diferenciar variações na qualidade do produto e a simples variabilidade analítica. Esse trabalho foi escrito para laboratórios, com a finalidade de dar um suporte na implementação da validação de métodos analíticos e introduzir o conceito de incerteza da medida nas análises de rotina. O objetivo foi fornecer de uma maneira compreensível e prática a metodologia dos cálculos das medidas de incerteza baseados principalmente em dados de controle de qualidade e de validação já existentes. Exemplos práticos retirados diretamente do Laboratório de Metrologia e Validação, FIOCRUZ / Bio-Manguinhos, foram apresentados. Entretanto, o tratamento usado neste trabalho é genérico e pode ser aplicável a outros laboratórios químicos

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O Painel Intergovernamental de Mudanças Climáticas da ONU (IPCC) tem comprovado com nível de confiança cada vez maior, ao longo dos últimos anos, a forte relação entre o aumento da temperatura média global e o aumento dos gases de efeito estufa (GEEs) principalmente quanto ao gás que mais contribui para a composição desses gases: o gás carbônico ou CO2. O Brasil se insere no rol dos emissores desse gás, principalmente devido ao desmatamento das reservas florestais que possui. Assim, assumiu o compromisso na Convenção Quadro das Nações Unidas sobre Mudanças Climáticas (United Nations Framework Convention on Climate Change UNFCCC) de estabilizar suas emissões e inventariar periodicamente os seus GEEs. Dentro deste contexto, cabe também à indústria levantar sua parcela de responsabilidade significativa neste processo ameaçador para a vida no planeta terra. Desta forma, o principal objetivo do presente trabalho foi o de levantar e contabilizar o Inventário dos GEEs emitidos em 2006 por uma empresa que produz importantes insumos para a indústria de petróleo. A pesquisa bibliográfica sobre a metodologia mais adequada e sua aplicação para a empresa em estudo foram os principais objetivos específicos. A autora não encontrou fatores de emissão de CO2 (kg CO2/TJ do combustível, detalhado no decorrer deste trabalho) desenvolvidos no Brasil para levantar o inventário, com um nível razoável de confiança, que reflita a situação real e local. Toda a pesquisa bibliográfica feita mostrou que os trabalhos realizados mesmo por órgãos governamentais brasileiros usaram a metodologia do IPCC (versão anterior à usada neste trabalho) que foi elaborada por países desenvolvidos, que não é o nosso caso ou realidade. Foram feitas diversas visitas à empresa, levantadas todas as fontes potenciais de emissão, consumos e características de todos os combustíveis usados, bem como o levantamento do trabalho desenvolvido sobre geração de mudas de plantas no seu horto. Através de cálculos por essa metodologia reconhecida mundialmente (IPCC) a autora encontrou um valor em torno de 76.000 toneladas de CO2 emitidos pela empresa em 2006. A empresa neutralizou cerca de 80 toneladas de CO2, através da produção de mudas (para doação e plantio em torno de uma área que é um passivo ambiental) em seu horto e o que plantou na área desse passivo em 2006. Isso significou cerca de 0,1% do que emitiu

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho apresenta-se o modelo de um controlador baseado em Lógica Fuzzy para um sistema de energia baseado em fonte renovável solar fotovoltaica (photovoltaic - PV) multi-string em operação isolada, para o aproveitamento da máxima potência desta fonte. O sistema é composto por painéis solares, conversor CC-CC tipo elevador de tensão (boost), armazenamento por banco de baterias, inversor trifásico e carga trifásica variável. O sistema fotovoltaico foi modelado no MATLAB/Simulink de forma a representar a curva característica V-I do módulo PV, e que é baseado nos dados disponíveis em data-sheets de painéis fotovoltaicos comerciais. Outros estudos de natureza elétrica tais como o cálculo dos valores eficazes das correntes no conversor CC-CC, para avaliação das perdas, indispensáveis para o dimensionamento de componentes eletrônicos, foram realizados. O método tradicional Perturb and Observe de rastreamento do ponto de máxima potência (Maximum Power Point Tracking MPPT) de painéis foi testado e comparado com métodos que usam a Lógica Fuzzy. Devido ao seu desempenho, foi adotado o método Fuzzy que realiza o MPPT por inferência do ciclo de trabalho de um modulador por largura de pulso (Pulse Width Modulation - PWM) através da variação da potência pela variação da corrente do painel solar. O modelo Fuzzy adotado neste trabalho foi testado com sucesso. Os resultados mostraram que ele pode ser robusto e atende à aplicação proposta. Segundo alguns testes realizados, este controlador pode realizar o MPPT de um sistema PV na configuração multi-string onde alguns arranjos fotovoltaicos são usados. Inclusive, este controle pode ser facilmente adaptado para realizar o MPPT de outras fontes de energia baseados no mesmo princípio de controle, como é o caso do aerogerador.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho é apresentado um estudo para a determinação do tamanho ótimo da malha de elementos, utilizando redes neurais artificiais, para o cálculo da intensidade útil. A ideia principal é treinar as redes de modo a possibilitar a aprendizagem e o reconhecimento do melhor tamanho para diversas áreas superficiais em fontes sonoras com geometria plana. A vantagem de se utilizar redes neurais artificiais deve-se ao fato de apresentarem um único tamanho para a obtenção da intensidade útil, consequentemente, uma redução significativa de tempo computacional quando comparado com o tempo de cálculo de uma malha bem refinada. Ensaios numéricos com placas planas - geometria separável que permite uma solução analítica - são utilizados para se realizar comparações. É apresentado um estudo comparativo entre o tempo computacional gasto para a obtenção da intensidade útil e o mesmo com a malha otimizada via redes neurais artificiais. Também é apresentada uma comparação do nível de potência sonora mediante solução numérica, a fim de validar os resultados apresentados pelas redes neurais.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A presente dissertação tem o objetivo de propor a reinclusão de elementos de Cálculo no ensino médio, pois no passado o Cálculo fazia parte do currículo e foi abolido após uma reforma no ensino da matemática. O trabalho apresenta os resultados de um levantamento estatístico sobre os índices de reprovação na disciplina Cálculo Diferencial e Integral I nos períodos mais recentes da Universidade do Estado do Rio de Janeiro (UERJ) e, também, uma pesquisa quantitativa com quarenta professores de matemática com o objetivo de analisar a viabilidade do projeto e os problemas a serem enfrentados. Por fim, a dissertação conta com uma série de atividades comentadas sobre o tema de limites, que é o foco do trabalho. Tais atividades podem ser incluídas já no 1 ano do ensino médio, paralelamente ao conteúdo de funções, e visam proporcionar aos estudantes o contato com elementos de Cálculo em uma linguagem acessível, e orientar o professor nesta tarefa

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho traz uma proposta de atividades, a serem desenvolvidas em sala de aula, com o objetivo de introduzir o conceito de derivadas para os alunos da primeira série do Ensino Médio. Antes das atividades, estão presentes algumas breves pesquisas. O histórico da presença de tópicos do Cálculo Diferencial e Integral no Ensino Médio no Brasil, assim como a análise de alguns livros didáticos, serve para mostrar como o assunto já foi e está sendo tratado no país. Também são exibidos aspectos sobre o Ensino Médio na Alemanha e nos Estados Unidos, países onde o cálculo está presente na Escola Secundária, embora de formas bastante diferentes. Um capítulo sobre a preparação adequada para as aulas também foi incluído, uma vez que a simples inserção da derivada poderia causar problemas de tempo para o cumprimento do cronograma e não trazer os resultados esperados. São necessários algum grau de adequação dos conteúdos ministrados e de cooperação com professores de Física. As atividades visando o ensino dos conceitos iniciais de derivada são motivadas por um problema físico de movimento. O foco é dado na intuição e na visualização de gráficos, para que haja uma melhor compreensão dos conceitos envolvidos. A utilização de um software de geometria dinâmica é requerida em boa parte do tempo, como importante ferramenta de apoio pedagógico

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A modelagem orientada a agentes surge como paradigma no desenvolvimento de software, haja vista a quantidade de iniciativas e estudos que remetem à utilização de agentes de software como solução para tratar de problemas mais complexos. Apesar da popularidade de utilização de agentes, especialistas esbarram na falta de universalidade de uma metodologia para construção dos Sistemas Multiagentes (MAS), pois estas acabam pecando pelo excesso ou falta de soluções para modelar o problema. Esta dissertação propõe o uso de uma Ontologia sobre Metodologias Multiagentes, seguindo os princípios da Engenharia de Métodos Situacionais que se propõe a usar fragmentos de métodos para construção de metodologias baseados na especificidade do projeto em desenvolvimento. O objetivo do estudo é sedimentar o conhecimento na área de Metodologias Multiagentes, auxiliando o engenheiro de software a escolher a melhor metodologia ou o melhor fragmento de metodologia capaz de modelar um Sistema Multiagentes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Com a entrada em vigor do Protocolo de Quioto, intensificam-se as expectativas pela regulamentação de um mercado de créditos de carbono. No caso de esses créditos terem sua origem em projetos de reflorestamento ou de florestamento, conforme previsto pelos chamados Mecanismos de Desenvolvimento Limpo (MDL), vem a ser fundamental o estabelecimento de uma metodologia para quantificação de estoques de carbono armazenados sob a forma de biomassa vegetal. Este trabalho propõe, como um método informatizado para cálculo de estoque de carbono em florestas, um conjunto de funcionalidades e um modelo de dados cadastrais totalmente integrados com um Sistema de Informações Geográficas de arquitetura aberta. A partir de mapas e imagens geo-referenciadas e com base em dados obtidos de pequenos transectos, o sistema calcula a quantidade total de carbono estocada em toda a floresta. Além de permitir apresentar esses resultados para diferentes agentes armazenadores de carbono, como, por exemplo, segmentos de floresta ou cada espécie vegetal, o sistema mantém registro histórico de dados dendrométricos, o que virá permitir a geração de gráficos de curvas de crescimento e, por conseguinte, estimativas futuras.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Uma das tarefas mais desafiadoras do engenheiro na área da Geotecnia é a escolha dos valores de parâmetros geotécnicos obtidos de ensaios de campo ou laboratório e que serão utilizados nos modelos analíticos ou numéricos na fase de projeto de fundações. Diante das incertezas inerentes aos ensaios de SPT e da heterogeneidade de abordagens para a utilização dos valores de NSPT, é proposta neste estudo, a aplicação de um critério estatístico para obtenção de valores de NSPT, a partir da construção de intervalos de confiança de 95% de probabilidade em torno da reta ajustada de regressão linear simples entre a variável aleatória NSPT e a profundidade. Os valores obtidos de NSPT pelo critério aplicado foram utilizados na previsão da capacidade de carga de 19 estacas isoladas a partir da utilização de três métodos semi-empíricos: Aoki-Velloso (1975) com coeficientes alterados por Monteiro (1997), Décourt & Quaresma (1978) alterado pelo método de Décourt (1996) e Método de Alonso (1996). As cargas de ruptura dessas 19 estacas ensaiadas através de Provas de Carga Estática foram obtidas pelos métodos de extrapolação de Van Der Veen (1953) e Décourt (1996) e serviram para comparação e consequente validação do critério estatístico. Adicionalmente, com fulcro no item 6.2.1.2.1 da ABNT NBR 6122:2010 Resistência calculada por método semi-empírico, foram avaliados os fatores de segurança em relação às cargas de projeto, inclusive, também se utilizando da premissa de reconhecimento de regiões representativas, levando em conta o número de ensaios de SPT executados, fato que promove uma diminuição da incerteza dos parâmetros, apontando a um menor fator de segurança. A dissertação enfatiza as vantagens de um adequado tratamento estatístico dos parâmetros geotécnicos, a exemplo da recomendação já existente nas normas internacionais como Eurocódigo e outras. O critério construído permite e encoraja análises e decisões racionais no universo das partes interessadas consumidores, projetistas, fiscais de obras, contratantes e comunidade científica promovendo as discussões de forma mais objetiva e harmoniosa sobre o tema.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Métodos de otimização que utilizam condições de otimalidade de primeira e/ou segunda ordem são conhecidos por serem eficientes. Comumente, esses métodos iterativos são desenvolvidos e analisados à luz da análise matemática do espaço euclidiano n-dimensional, cuja natureza é de caráter local. Consequentemente, esses métodos levam a algoritmos iterativos que executam apenas as buscas locais. Assim, a aplicação de tais algoritmos para o cálculo de minimizadores globais de uma função não linear,especialmente não-convexas e multimodais, depende fortemente da localização dos pontos de partida. O método de Otimização Global Topográfico é um algoritmo de agrupamento, que utiliza uma abordagem baseada em conceitos elementares da teoria dos grafos, a fim de gerar bons pontos de partida para os métodos de busca local, a partir de pontos distribuídos de modo uniforme no interior da região viável. Este trabalho tem dois objetivos. O primeiro é realizar uma nova abordagem sobre método de Otimização Global Topográfica, onde, pela primeira vez, seus fundamentos são formalmente descritos e suas propriedades básicas são matematicamente comprovadas. Neste contexto, propõe-se uma fórmula semi-empírica para calcular o parâmetro chave deste algoritmo de agrupamento, e, usando um método robusto e eficiente de direções viáveis por pontos-interiores, estendemos o uso do método de Otimização Global Topográfica a problemas com restrições de desigualdade. O segundo objetivo é a aplicação deste método para a análise de estabilidade de fase em misturas termodinâmicas,o qual consiste em determinar se uma dada mistura se apresenta em uma ou mais fases. A solução deste problema de otimização global é necessária para o cálculo do equilíbrio de fases, que é um problema de grande importância em processos da engenharia, como, por exemplo, na separação por destilação, em processos de extração e simulação da recuperação terciária de petróleo, entre outros. Além disso, afim de ter uma avaliação inicial do potencial dessa técnica, primeiro vamos resolver 70 problemas testes, e então comparar o desempenho do método proposto aqui com o solver MIDACO, um poderoso software recentemente introduzido no campo da otimização global.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Com cada vez mais intenso desenvolvimento urbano e industrial, atualmente um desafio fundamental é eliminar ou reduzir o impacto causado pelas emissões de poluentes para a atmosfera. No ano de 2012, o Rio de Janeiro sediou a Rio +20, a Conferência das Nações Unidas sobre Desenvolvimento Sustentável, onde representantes de todo o mundo participaram. Na época, entre outros assuntos foram discutidos a economia verde e o desenvolvimento sustentável. O O3 troposférico apresenta-se como uma variável extremamente importante devido ao seu forte impacto ambiental, e conhecer o comportamento dos parâmetros que afetam a qualidade do ar de uma região, é útil para prever cenários. A química das ciências atmosféricas e meteorologia são altamente não lineares e, assim, as previsões de parâmetros de qualidade do ar são difíceis de serem determinadas. A qualidade do ar depende de emissões, de meteorologia e topografia. Os dados observados foram o dióxido de nitrogênio (NO2), monóxido de nitrogênio (NO), óxidos de nitrogênio (NOx), monóxido de carbono (CO), ozônio (O3), velocidade escalar vento (VEV), radiação solar global (RSG), temperatura (TEM), umidade relativa (UR) e foram coletados através da estação móvel de monitoramento da Secretaria do Meio Ambiente (SMAC) do Rio de Janeiro em dois locais na área metropolitana, na Pontifícia Universidade Católica (PUC-Rio) e na Universidade do Estado do Rio de Janeiro (UERJ) no ano de 2011 e 2012. Este estudo teve três objetivos: (1) analisar o comportamento das variáveis, utilizando o método de análise de componentes principais (PCA) de análise exploratória, (2) propor previsões de níveis de O3 a partir de poluentes primários e de fatores meteorológicos, comparando a eficácia dos métodos não lineares, como as redes neurais artificiais (ANN) e regressão por máquina de vetor de suporte (SVM-R), a partir de poluentes primários e de fatores meteorológicos e, finalmente, (3) realizar método de classificação de dados usando a classificação por máquina de vetor suporte (SVM-C). A técnica PCA mostrou que, para conjunto de dados da PUC as variáveis NO, NOx e VEV obtiveram um impacto maior sobre a concentração de O3 e o conjunto de dados da UERJ teve a TEM e a RSG como as variáveis mais importantes. Os resultados das técnicas de regressão não linear ANN e SVM obtidos foram muito próximos e aceitáveis para o conjunto de dados da UERJ apresentando coeficiente de determinação (R2) para a validação, 0,9122 e 0,9152 e Raiz Quadrada do Erro Médio Quadrático (RMECV) 7,66 e 7,85, respectivamente. Quanto aos conjuntos de dados PUC e PUC+UERJ, ambas as técnicas, obtiveram resultados menos satisfatórios. Para estes conjuntos de dados, a SVM mostrou resultados ligeiramente superiores, e PCA, SVM e ANN demonstraram sua robustez apresentando-se como ferramentas úteis para a compreensão, classificação e previsão de cenários da qualidade do ar