46 resultados para digital calibration


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este estudo teve como objetivo principal caracterizar os padrões de distribuição do material particulado em suspensão ao longo da baía de Sepetiba, associando as variabilidades espaciais e temporais com ciclos de maré. Além disso, o estudo também avalia a utilização de equipamentos acústicos como ferramentas à estimativa das concentrações de material particulado em suspensão. A aquisição de dados foi realizada num total de sete campanhas realizadas entre novembro de 2010 e dezembro de 2011. Sete estações foram posicionadas nas proximidades do canal principal de acesso à baía, ao longo de um transecto que se estende do seu interior até sua desembocadura. As sete campanhas amostrais se distribuem em duas séries longas, de 13 e 25 horas, de aquisição em um ponto fixo, e cinco amostragens ao longo das estações. A aquisição de dados envolve: coleta de amostras de água, utilizadas nas estimativas das concentrações de material particulado; coleta de sedimentos de fundo para caracterização granulométrica das estações amostradas; perfis de parâmetros físico-químicos; dados de correntômetria adquiridos junto ao fundo. O processamento das amostras de água e sedimentos foi realizado no laboratório de Geologia Marinha da Faculdade de Oceanografia da Universidade do Estado do Rio de Janeiro. As concentrações de material particulado em suspensão foram utilizadas na calibração de sensores acústicos e óticos, permitindo uma avaliação espaço-temporal mais detalhada dos padrões de distribuição junto ao fundo e ao longo da coluna dágua. Os dados observados permitiram identificar que as maiores concentrações de material particulado em suspensão ocorrem em condições de maré enchente, e estão associadas à assimetria de maré. A baía pode ser dividida em dois setores: um na porção mais interna, onde se observou maior influência do aporte fluvial, onde as concentrações de material particulado em suspensão respondem à propagação da pluma do canal de São Francisco; e outro que se estende da porção central até sua desembocadura, onde predomina o domínio marinho, com influência de eventos oriundos da plataforma continental. Também pode ser identificada a influência do fenômeno La Niña, que provavelmente foi responsável por: altas salinidades encontradas no interior da baía e ocorrência da Água Central do Atlântico Sul à baixas profundidades. Quanto à utilização de equipamentos acústicos nas estimativas das concentrações de material particulado, os dados se demonstraram ricos em detalhes, que permitiram avaliar o comportamento do material particulado junto ao fundo frente a diferentes condições de maré, turbulência e incidência de oscilações.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O desenvolvimento do projeto consistiu na modelagem da informação para gestão em arqueologia numa base de dados convergente de informação, caracterizada por um ambiente cartográfico digital, integrando mapas temáticos e base de dados alfanumérica num modelo protótipo e interativo para ajudar a integrar as informações na gestão em arqueologia, permitindo o registro, armazenamento e visualização da informação arqueológica correlacionada a mapas temáticos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho são apresentados os procedimentos de caracterização de um sistema comercial portátil de Fluorescência de Raios X por dispersão em energia, o ARTAX 200, bem com seu processo de calibração. O sistema é composto por um tubo de Raios X, com anodo de Molibdênio e um detector XFlash (Silicon Drift Detector) refrigerado por Efeito Peltier. O procedimento de caracterização do sistema foi realizado utilizando-se uma amostra de referência contendo Ferro e Cromo. Foram também usadas amostras certificadas (National Bureau of Standards) D840, D845, D846, D847 e D849 para a realização do processo de calibração do sistema para análise quantitativa. O processo de calibração foi realizado por três metodologias diferentes a fim de avaliar qual deles apresentaria melhores resultados. A caracterização do sistema ARTAX 200 foi realizada executando testes de estabilidade do tubo de Raios X, repetibilidade, reprodutibilidade, resolução em energia do sistema, levantamento da curva de limite de detecção e verificação do centro geométrico do feixe (CG). Os resultados obtidos nos testes de estabilidade apresentaram um coeficiente de variação médio menor do que 2%, o teste de repetibilidade apresentou valores médios menores que 0,5 %. A reprodutibilidade apresentou um coeficiente de variação médio menor que 1,5%. A verificação do centro geométrica mostrou que o CG encontra-se alinhada com o centro ótimo do feixe em duas das três direções do plano cartesiano. A resolução em energia do sistema para a energia de 5,9 keV foi de 150 eV. O limite de detecção apresentou valores menores que 1 % do Si ao Cu. Na avaliação das metodologias para calibração verificou-se que uma das metodologias aplicadas apresentou melhor resultado. Comparando os resultados com outros sistemas portáteis de XRF observa-se que o ARTAX 200 apresenta eficiência superior em relação aos parâmetros analisados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho analisa a formação da cidade digital nas relações sociais, ressaltando os efeitos da garantia do direito à privacidade no ambiente dos navegantes de sites e redes sociais, em função das repercussões jurídicas do vazamento de informações da vida pessoal dos usuários da rede, e do tratamento dos dados coletados pelos prestadores de serviço. Através do ciberespaço formam-se comunidades virtuais que ultrapassam a necessidade de localidade e sociabilidade, criando um isolamento social e abandonando as interações face a face em ambientes reais, originando uma sociabilidade baseada no individualismo. Avaliamos os novos padrões de interação que se originam nesta nova formatação de coletividade informacional e suas repercussões no âmbito do direito. Em uma perspectiva mais detalhada, esse estudo indica quais as hipóteses de responsabilidade civil dos provedores na Internet em decorrência de atos ilícitos cometidos por terceiros e as alternativas de um sistema de tutela da privacidade à proteção de dados, face à lesão no ambiente informacional. O levantamento das possíveis situações de responsabilização civil foi efetuado através da análise da jurisprudência e da doutrina dominante, ressaltando os aspectos fáticos que caracterizam sua formatação. Esse modelo se impõe, através de uma relação hierárquica a uma multiplicidade de indivíduos, criando um encarceramento perfeito através do exercício do biopoder. Tais papéis são reforçados por uma cultura consumista e a sociedade do espetáculo, que transforma o indivíduo em mercadoria levantando perfis de usuários conectados em rede, propiciando uma categorização dos consumidores. Nesse contexto, apresentamos os riscos de uma sociedade de vigilância que se apresenta factível como um produto das relações de mercado, que possibilita dispor livremente de um conjunto crescente de informações. Esta constante vigilância invade todos os espaços, custodiando nosso comportamento independente do tempo, com uma implacável memória no âmbito das comunicações eletrônicas, tornando nosso passado eternamente visível e fazendo surgir situações constrangedoras a nos assombrar.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Desenvolvimento de metodologia para a determinação de aflatoxinas em amostras de amendoim usando espectrofluorimetria e análise dos fatores paralelos (PARAFAC). 2012. 92 f. Dissertação (Mestrado em Engenharia Química) - Instituto de Química, Universidade do Estado do Rio de Janeiro , Rio de Janeiro, 2012. Neste trabalho de pesquisa são descritos dois estudos de caso que se baseiam na determinação de aflatoxinas B1, B2, G1 e G2 em amostras de amendoim, utilizando a técnica de espectroscopia de fluorescência molecular. O primeiro estudo tem o objetivo de avaliar a metodologia empregada para a quantificação de aflatoxinas totais em amendoins, utilizando o método clássico de validação fazendo-se o uso da calibração univariada. Os principais parâmetros de desempenho foram avaliados visando certificar a possibilidade de implementação desta metodologia em laboratórios. O segundo estudo está focado na separação e quantificação destas aflatoxinas com a aplicação combinada da espectrofluorimetria e de um método quimiométrico de segunda ordem (PARAFAC) utilizando a calibração multivariada. Esta técnica pode ser empregada como uma alternativa viável para a determinação de aflatoxinas B1, B2, G1 e G2 isoladamente, tradicionalmente é feito por cromatografia líquida de alta eficiência com detector de fluorescência. Porém, como estes analitos apresentam uma larga faixa de sobreposição espectral e as aflatoxinas (B1 e G1) possuem intensidade de sinal de fluorescência bem abaixo das demais, a separação e quantificação das quatro aflatoxinas foi inviável. O estudo foi retomado com a utilização das aflatoxinas B2 e G2 e os resultados alcançados foram satisfatórios. O método utilizado para a quantificação de aflatoxinas totais apresentou bons resultados, mostrando-se como uma importante ferramenta para a determinação destes analitos. Alem disso, comtempla perfeitamente o que é requerido pela legislação brasileira para a análise de aflatoxinas B1, B2, G1 e G2, que tem como exigência em laudos finais de análise a declaração do somatório, em g/kg, destas aflatoxinas, ou seja, sem a necessidade de quantifica-las separadamente

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esse trabalho compreende dois diferentes estudos de caso: o primeiro foi a respeito de um medicamento para o qual foi desenvolvida uma metodologia para determinar norfloxacino (NOR) por espectrofluorimetria molecular e validação por HPLC. Primeiramente foi desenvolvida uma metodologia por espectrofluorimetria onde foram feitos alguns testes preliminares a fim de estabelecer qual valor de pH iria fornecer a maior intensidade de emissão. Após fixar o pH foi feita a determinação de NOR em padrões aquosos e soluções do medicamento usando calibração univariada. A faixa de concentração trabalhada foi de 0500 μg.L-1. O limite de detecção para o medicamento foi de 6,9 μg.L-1 enquanto que o de quantificação foi de 24,6 μg.L-1. Além dessas, outras figuras de mérito também foram estimadas para desenvolvimento da metodologia e obtiveram resultados muito satisfatórios, como por exemplo, os testes de recuperação no qual a recuperação do analito foi de 99.5 a 103.8%. Para identificação e quantificação do NOR da urina foi necessário diluir a amostra de urina (estudada em dois diferentes níveis de diluição: 500 e 1000 x) e também uso do método da adição de padrão (na mesma faixa de concentração usada para medicamento). Após a aquisição do espectro, todos foram usados para construção do tensor que seria usado no PARAFAC. Foi possível estimar as figuras de mérito como limite de detecção de 11.4 μg.L-1 and 8.4 μg.L-1 (diluição de 500 e 1000 x respectivamente) e limite de quantificação de 34 μg.L-1 e 25.6 μg.L-1 (diluição de 500 x e 1000 x respectivamente). O segundo estudo de caso foi na área alimentícia no qual se usou espectroscopia NIR e FT MIR acopladas a quimiometria para discriminar óleo de soja transgênica e não transgênica. Os espectros dos óleos não mostraram diferença significativa em termos visuais, sendo necessário usar ferramentas quimiométricas capazes de fazer essa distinção. Tanto para espectroscopia NIR quanto FT MIR foi feito o PCA a fim de identificar amostras discrepantes e que influenciariam o modelo de forma negativa. Após efetuar o PCA, foram usadas três diferentes técnicas para discriminar os óleos: SIMCA, SVM-DA e PLS-DA, sendo que para cada técnica foram usados também diferentes pré processamento. No NIR, apenas para um pré processamento se obteve resultados satisfatórios nas três técnicas, enquanto que para FT-MIR ao se usar PLS-DA se obteve 100% de acerto na classificação para todos os pré processamentos

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Algumas situações relativas às práticas de comunicacão chamam a atenção, seja pelas possibilidades técnicas que surgem a cada nova ferramenta criada, seja pela influência inconteste para as relações humanas e sociais. Em um momento em que a comunidade acadêmica é convocada a pensar uma nova televisão, este trabalho se propõe a entrar em campo para observar o que há disponível: usos, formatos e linguagens em fase de transição. Propomos, portanto, uma análise empírica ambientada em espaço de recepção midiática, e utilizamos como ferramenta metodológica o Princípio da Simetria com base na Teoria Ator-rede. Seguindo a ideia de rastrear conexões a partir de uma escrita etnográfica, o método propõe pensar o social menos como categoria de base analítica - posto antecipadamente e desvinculado do campo das ações - e mais como algo focado em processo contínuo. As práticas so-ciais e midiáticas são pensadas aqui para além dos limites humanos - ou exclusivamente técnicos. O ator-rede se estabelece não como uma entidade fixa, mas através de fluxos a partir dos quais o método ajudará a descrever a propagação das associações. A discussão sobre possibilidades técnicas e produção de conteúdo mal começou. Talvez por isso se encontre vivendo o momento de transcender o campo dos conceitos normativos e das especulações, para assim acompanhar as instâncias midiáticas como redes de actantes inventadas e re-inventadas a cada dia, nas condições de possibilidades dos momentos práticos de uso. Coube à pesquisa em questão a observação mais detida desses procedimentos e da relação entre tecnologias em transformação, audiências, materialidades, espaços, corpos, sensações e emoções, para que assim seja possível identificar algum entendimento sobre o que poderá caracterizar a televisão, pelo menos provisoriamente

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A presente dissertação objetiva a verificação do desempenho dos ensaios do tipo CRS, com velocidade controlada, quando comparados aos ensaios de adensamento oedométricos convencionais, SIC. O ensaio SIC é executado em vários estágios de carga, cada qual com vinte e quatro horas de duração e razão unitária entre o incremento de tensão e a tensão anterior, requerendo um prazo total de cerca de 10 dias para sua execução. Já o ensaio de adensamento com velocidade controlada, CRS, tem sua duração bastante reduzida, o que levou diversos pesquisadores da área de Geotecnia a concentrarem esforços no estudo de seu desempenho, visando sua utilização mais ampla. Para este estudo foi adquirido equipamento da empresa Hogentogler Inc., designado por GeoStar. Sua instalação, montagem e calibração foram realizadas no Laboratório de Mecânica dos Solos. Foram executados ensaios em corpos de prova obtidos de amostras de caulim, preparadas em laboratório, e também em amostras de solos originários de dois depósitos de diferentes regiões no Estado do Rio de Janeiro: baixada de Jacarepaguá e Itaboraí. A dissertação procurou detalhar a execução dos ensaios, as dificuldades da interpretação das planilhas originadas pelo sistema de aquisição de dados, acoplado ao equipamento GeoStar, as mudanças efetuadas, as ocorrências não previstas, a análise e interpretação dos resultados e a comparação dos parâmetros obtidos com os ensaios SIC e CRS. Procurou-se estudar o efeito da velocidade de deformação, histórico de tensões, qualidade dos corpos de prova, parâmetros do ensaio, facilidade de execução e desempenho. Verificou-se a simplicidade, rapidez e o desempenho satisfatório do ensaio CRS. Sugere-se estender estudos semelhantes a outros locais e, principalmente, a amostras de qualidade superior, na expectativa de confirmar as conclusões detalhadas nesta pesquisa.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho estima, utilizando dados trimestrais de 1999 a 2011, o impacto dinâmico de um estímulo fiscal no Brasil sobre as principais variáveis macroeconômicas Brasileiras. Na estimativa dos impactos permitiu-se que as expectativas dos agentes econômicas fossem afetadas pela existência e probabilidade de alternância de regimes (foram detectados dois regimes) na política monetária do país. Os parâmetros da regra da política monetária, nos dois regimes detectados, foram estimados através de um modelo - composto apenas pela equação da regra da política monetária - que permite uma mudança de regime Markoviana. Os parâmetros do único regime encontrado para a política fiscal foram estimados por um modelo Vetorial de Correção de Erros (Vector Error Correction Model - VEC), composto apenas pelas variáveis pertencentes à regra da política fiscal. Os parâmetros estimados, para os diversos regimes das políticas monetária e fiscal, foram utilizados como auxiliares na calibragem de um modelo de equilíbrio geral estocástico dinâmico (MEGED), com mudanças de regime, com rigidez nominal de preços e concorrência monopolística (como em Davig e Leeper (2011)). Após a calibragem do MEGED os impactos dinâmicos de um estímulo fiscal foram obtidos através de uma rotina numérica (desenvolvida por Davig e Leeper (2006)) que permite obter o equilíbrio dinâmico do modelo resolvendo um sistema de equações de diferenças de primeira ordem expectacionais dinâmicas não lineares. Obtivemos que a política fiscal foi passiva durante todo o período analisado e que a política monetária foi sempre ativa, porém sendo em determinados momentos menos ativa. Em geral, em ambas as combinações de regimes, um choque não antecipado dos gastos do governo leva ao aumento do hiato do produto, aumento dos juros reais, redução do consumo privado e (em contradição com o resultado convencional) redução da taxa de inflação.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As Tecnologias da Informação e comunicação (TICS) e a Internet vêm proporcionando novas formas de interação e comunicação entre os indivíduos no meio digital. Dessa forma, surgem novos gêneros textuais e releituras de gêneros já existentes do meio físico, mas que se adaptam às peculiaridades do meio digital. Os gêneros em meio digital, como são recentes, não possuem muitas investigações sobre ele. Por isso, optamos por pesquisar esta área. Dentre a diversidade de gêneros do ambiente virtual, destacamos em nossa pesquisa as narrativas hiperficcionais ou hiperficções. A hiperficção possui características de gêneros do ambiente físico, mas se concretiza com características próprias de seu ambiente, transfigurando-se, assim, em um possível gênero digital. A hiperficção pode ser colaborativa ou exploratória e, normalmente, está alocada em sites de literatura ou projetos em literatura digital. Possuem como característica principal a hipertextualidade e o uso do link, da imagem e do som, configurando-se em um texto multimodal (ALONSO, 2011; SANTOS, 2010). Esta pesquisa concentra-se sobre as hiperficções exploratórias, uma vez que não há um número substancial de pesquisas sobre as mesmas, como acontece com as hiperficções colaborativas. Há, na academia, discussões sobre o ato de ler, se este exige (ou não) posicionamentos diversificados para textos digitais em comparação com os impressos. Estudos recentes não confirmam uma diferença significativa no ato de ler textos digitais, mas concordam com a necessidade de conhecimento e domínio do suporte e do gênero do qual o texto faz parte (COSCARELI, 2012). Partindo deste pressuposto, considerando a leitura em meio digital, e propondo um diálogo entre linguística e literatura, o presente trabalho verifica se a hiperficção se constitui enquanto gênero textual em ambiente digital (MARCUSCHI, 2008) e se é um gênero exclusivo deste meio. Assim, nosso objetivo geral é mapear a hiperficção e discutir suas características, considerando os pressupostos teóricos dos gêneros textuais digitais. Como objetivos específicos, pretendemos elaborar uma listagem de hiperficções, catalogá-las de acordo com seus elementos e descrevê-las a partir de suas características emergentes. Além disso, ponderamos em que medida a leitura do gênero textual em ambiente digital hiperficção exige um posicionamento diferenciado do leitor, principalmente aos gêneros textuais impressos. Trata-se de um estudo documental exploratório e descritivo de base qualitativa com amostra de hiperficções em língua inglesa, portuguesa e espanhola, coletadas em sites na internet, no período de junho de 2012 a maio de 2013

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A discriminação de fases que são praticamente indistinguíveis ao microscópio ótico de luz refletida ou ao microscópio eletrônico de varredura (MEV) é um dos problemas clássicos da microscopia de minérios. Com o objetivo de resolver este problema vem sendo recentemente empregada a técnica de microscopia colocalizada, que consiste na junção de duas modalidades de microscopia, microscopia ótica e microscopia eletrônica de varredura. O objetivo da técnica é fornecer uma imagem de microscopia multimodal, tornando possível a identificação, em amostras de minerais, de fases que não seriam distinguíveis com o uso de uma única modalidade, superando assim as limitações individuais dos dois sistemas. O método de registro até então disponível na literatura para a fusão das imagens de microscopia ótica e de microscopia eletrônica de varredura é um procedimento trabalhoso e extremamente dependente da interação do operador, uma vez que envolve a calibração do sistema com uma malha padrão a cada rotina de aquisição de imagens. Por esse motivo a técnica existente não é prática. Este trabalho propõe uma metodologia para automatizar o processo de registro de imagens de microscopia ótica e de microscopia eletrônica de varredura de maneira a aperfeiçoar e simplificar o uso da técnica de microscopia colocalizada. O método proposto pode ser subdividido em dois procedimentos: obtenção da transformação e registro das imagens com uso desta transformação. A obtenção da transformação envolve, primeiramente, o pré-processamento dos pares de forma a executar um registro grosseiro entre as imagens de cada par. Em seguida, são obtidos pontos homólogos, nas imagens óticas e de MEV. Para tal, foram utilizados dois métodos, o primeiro desenvolvido com base no algoritmo SIFT e o segundo definido a partir da varredura pelo máximo valor do coeficiente de correlação. Na etapa seguinte é calculada a transformação. Foram empregadas duas abordagens distintas: a média ponderada local (LWM) e os mínimos quadrados ponderados com polinômios ortogonais (MQPPO). O LWM recebe como entradas os chamados pseudo-homólogos, pontos que são forçadamente distribuídos de forma regular na imagem de referência, e que revelam, na imagem a ser registrada, os deslocamentos locais relativos entre as imagens. Tais pseudo-homólogos podem ser obtidos tanto pelo SIFT como pelo método do coeficiente de correlação. Por outro lado, o MQPPO recebe um conjunto de pontos com a distribuição natural. A análise dos registro de imagens obtidos empregou como métrica o valor da correlação entre as imagens obtidas. Observou-se que com o uso das variantes propostas SIFT-LWM e SIFT-Correlação foram obtidos resultados ligeiramente superiores aos do método com a malha padrão e LWM. Assim, a proposta, além de reduzir drasticamente a intervenção do operador, ainda possibilitou resultados mais precisos. Por outro lado, o método baseado na transformação fornecida pelos mínimos quadrados ponderados com polinômios ortogonais mostrou resultados inferiores aos produzidos pelo método que faz uso da malha padrão.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O biodiesel tem sido amplamente utilizado como uma fonte de energia renovável, que contribui para a diminuição de demanda por diesel mineral. Portanto, existem várias propriedades que devem ser monitoradas, a fim de produzir e distribuir biodiesel com a qualidade exigida. Neste trabalho, as propriedades físicas do biodiesel, tais como massa específica, índice de refração e ponto de entupimento de filtro a frio foram medidas e associadas a espectrometria no infravermelho próximo (NIR) e espectrometria no infravermelho médio (Mid-IR) utilizando ferramentas quimiométricas. Os métodos de regressão por mínimos quadrados parciais (PLS), regressão de mínimos quadrados parciais por intervalos (iPLS), e regressão por máquinas de vetor de suporte (SVM) com seleção de variáveis por Algoritmo Genético (GA) foram utilizadas para modelar as propriedades mencionadas. As amostras de biodiesel foram sintetizadas a partir de diferentes fontes, tais como canola, girassol, milho e soja. Amostras adicionais de biodiesel foram adquiridas de um fornecedor da região sul do Brasil. Em primeiro lugar, o pré-processamento de correção de linha de base foi usado para normalizar os dados espectrais de NIR, seguidos de outros tipos de pré-processamentos que foram aplicados, tais como centralização dos dados na média, 1 derivada e variação de padrão normal. O melhor resultado para a previsão do ponto de entupimento de filtro a frio foi utilizando os espectros de Mid-IR e o método de regressão GA-SVM, com alto coeficiente de determinação da previsão, R2Pred=0,96 e baixo valor da Raiz Quadrada do Erro Médio Quadrático da previsão, RMSEP (C)= 0,6. Para o modelo de previsão da massa específica, o melhor resultado foi obtido utilizando os espectros de Mid-IR e regressão por PLS, com R2Pred=0,98 e RMSEP (g/cm3)= 0,0002. Quanto ao modelo de previsão para o índice de refração, o melhor resultado foi obtido utilizando os espectros de Mid-IR e regressão por PLS, com excelente R2Pred=0,98 e RMSEP= 0,0001. Para esses conjuntos de dados, o PLS e o SVM demonstraram sua robustez, apresentando-se como ferramentas úteis para a previsão das propriedades do biodiesel estudadas

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nesta tese é realizada a modelagem do comportamento hidráulico dos principais rios que compõem a bacia hidrográfica do Rio Bengalas, localizada no município de Nova Friburgo-RJ, a qual abrange a área mais urbanizada da referida cidade. Para a realização das simulações foi utilizado o Sistema de Modelagem de Águas MOHID, ferramenta MOHID Land. Já para a calibração do modelo foram adotados alguns métodos de otimização, mais precisamente, os algoritmos de Luus- Jaakola (LJ) e Colisão de Partículas (PCA), acoplados ao referido sistema, com o intuito de determinar os principais parâmetros necessários à modelagem de corpos hídricos, bem como suas bacias hidrográficas. Foram utilizados dados topográficos do IBGE disponibilizados pela prefeitura após a elaboração do Plano de Águas Pluviais da região de interesse. Com o modelo devidamente calibrado por meio de dados experimentais, foi realizada a validação do mesmo através da simulação de inundações nesta região. Apesar de técnicas de otimização acopladas à plataforma MOHID terem sido utilizadas pela primeira vez em um rio de montanha, os resultados apresentaram-se importantes e qualitativamente satisfatórios do ponto de vista de auxílio à tomada de decisões, tendo como base a prevenção de danos causados pelas elevações da lâmina dágua que ocorrem frequentemente em Nova Friburgo, como por exemplo, a recente tragédia de janeiro de 2011 ocorrida na Região Serrana do Estado do Rio de Janeiro.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Técnicas não-intrusivas de medição de vazão constituem uma necessidade crescente em diversas aplicações. Atualmente, diversos estudos têm sido realizados com o objetivo de desenvolver técnicas de medição não-intrusivas que possam suprir as deficiências das técnicas existentes. Este trabalho visa desenvolver um medidor de vazão baseado no princípio de convecção forçada (termal) não-intrusivo inteligente. O medidor utiliza dois transdutores RTD comerciais do tipo PT100, um aquecido, que é responsável pela medição da velocidade de escoamento, e o outro utilizado como referência de set-point de temperatura do sensor aquecido. Uma Rede Neural é responsável por corrigir os erros de medição do instrumento. Para a avaliação do medidor construído, foi desenvolvida uma bancada de realização de ensaios, possibilitando a variação da vazão e temperatura na seção de teste. Com o intuito de prover a bancada de uma referência para comparação, foi instalado também um medidor do tipo Venturi normalizado segundo a ABNT.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ensaio não destrutivo é uma ferramenta essencial quando um equipamento, dispositivo ou componente não pode ser submetido a procedimentos destrutivos ou invasivos devido a razões de segurança, alto custo ou outras restrições físicas ou logísticas. Dentro deste quadro radiografias por transmissão com raios gama e nêutrons térmicos são técnicas singulares para inspecionar um objeto e desvendar sua estrutura interna devido à capacidade de atravessar uma vasta gama de materiais utilizados na indústria. Grosso modo, raios gama são mais atenuados por materiais pesados enquanto nêutrons térmicos são mais atenuados por materiais mais leves, tornando-as ferramentas complementares. Este trabalho apresenta os resultados obtidos na inspeção de vários componentes mecânicos, através da radiografia por transmissão com nêutrons térmicos e raios gama. O fluxo de nêutrons térmicos de 4,46x105 n.cm-2.s-1 disponível no canal principal do reator de pesquisa Argonauta do Instituto de Engenharia Nuclear foi usado como fonte para as imagens radiográficas com nêutrons. Raios dekeV emitidos pelo 198Au, também produzido no reator, foram usados como fonte de radiação para radiografias . Imaging Plates, especificamente produzidos para operar com nêutrons térmicos ou com raios X, foram empregados como detectores e dispositivos de armazenamento e captação de imagens para cada uma dessas radiações. Esses dispositivos exibem varias vantagens quando comparados ao filme radiográfico convencional. Com efeito, além de maior sensibilidade e serem reutilizáveis não são necessários câmaras escuras e processamento químico para a revelação. Em vez disso, ele é lido por um feixe de laser que libera elétrons armadilhados na rede cristalina durante a exposição à radiação, fornecendo uma imagem final digital. O desempenho de ambos os sistemas de aquisição de imagens, assim constituído, foi avaliado com respeito à sensibilidade, resolução espacial, linearidade e range dinâmico, incluído uma comparação com sistemas radiográficos com nêutrons empregando filmes e folhas de gadolínio como conversor de nêutrons em partículas carregadas. Além desta caracterização, diversos equipamentos e componentes foram radiografados com ambos os sistemas visando-se avaliar suas capacidades de desvendar a estrutura interna desses objetos e detectar estruturas e estados anormais. Dentro desta abordagem, uma neutrongrafia detectou a presença de material cerâmico remanescente empregado como molde no processo de fabricação nos canais de refrigeração de uma aleta do estator de uma turbina tipo turbo-fan, que deveria estar livre desse material. O reostato danificado de um sensor de pressão automotivo, foi identificado por neutrongrafia, embora nesse caso a radiografia também conseguiu realizar essa tarefa com melhor resolução, corroborando assim as curvas de resolução espacial obtidas na caracterização dos dois sistemas. A homogeneidade da distribuição do material encapsulado em uma gaxeta explosiva de chumbo utilizada na indústria aeroespacial foi igualmente verificada por neutrongrafia porque esse metal é relativamente transparente para nêutrons, mas suficientemente opaco para o explosivo rico em hidrogênio. Diversos outros instrumentos e componentes tais como variômetro, altímetro, bússola aeronáutica, injetor automotivo de combustível, foto-camera, disco rígido de computador, motor de passo, conectores eletrônicos e projéteis foram radiografados com ambos os sistemas visando avaliar suas habilidades em desvendar diferentes peculiaridades em função do agente interrogador.