918 resultados para Congelamento e processamento


Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo desta dissertação foi criar uma nova abordagem para identificar de maneira automática feições do tipo edificação em uma imagem digital. Tal identificação seria de interesse de órgãos públicos que lidam com planejamento urbano para fins de controle da ocupação humana irregular. A abordagem criada utilizou agentes de software especialistas para proceder com o processamento da segmentação e reconhecimento de feições na imagem digital. Os agentes foram programados para tratar uma imagem colorida com o padrão Red, Green e Blue (RGB). A criação desta nova abordagem teve como motivação o fato das atuais técnicas existentes de segmentação e classificação de imagens dependerem sobremaneira dos seus usuários. Em outras palavras, pretendeu-se com a abordagem em questão permitir que usuários menos técnicos pudessem interagir com um sistema classificador, sem a necessidade de profundos conhecimentos de processamento digital de imagem. Uma ferramenta protótipo foi desenvolvida para testar essa abordagem, que emprega de forma inusitada, agentes inteligentes, com testes feitos em recortes de ortofotos digitais do Município de Angra dos Reis (RJ).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Segundo O`Kane et al, em 2008, foi demonstrado que 88,9% dos erros laboratoriais são realizados na fase pré-analítica. No laboratório de análises clínicas, o sistema de controle da qualidade pode ser definido como toda a ação sistemática necessária para dar confiança e segurança em todos os exames e prevenir a ocorrência de erros. O tempo de armazenamento pode variar de dias a meses ou mesmo anos, influenciando na definição da temperatura de estocagem. O armazenamento de longo prazo pode resultar na criopreservação inadequada para determinados analitos e pode desnaturar as lipoproteínas. Objetivos: Este trabalho teve como objetivo avaliar a fase pré-analítica, controle da qualidade interno e também avaliar o efeito do congelamento (- 80C) quanto ao tempo de armazenamento do soro e plasma de sangue colhido com ácido etilenodiamino tetra-acético (EDTA). As dosagens foram realizadas no Laboratório de Lípides LabLip, e estocadas em - 80 C por três anos, as mesmas foram redosadas no Serviço de Patologia Clínica da Policlínica Piquet Carneiro da UERJ com metodologias iguais e realizada a comparabilidade dos resultados. Foram analisados o perfil lipídico (CT, HDLc e TG) e PCR-US de 103 amostras, 73 no soro e 30 no plasma em dois laboratórios altamente qualificados. Discussão: Após redosagem foram encontrados nas dosagens de HDLc e CT resultados diminuídos respectivamente (correlação coeficiente no soro 0,48 e 0,62) teste t pareado no soro (CT p 0,0012 e HDLc p 0,0001). Conclusões: Os dados obtidos nas avaliações dos resultados de diferentes laboratórios e tempo de estocagem revelaram que as amostras quando armazenadas por um longo período após redosagem no soro, apresentaram diferenças em certos analitos, tais como CT e HDLc, no qual obteve-se resultados significativamente diminuídos, diferentemente no plasma, que após três anos de estocagem a -80C foram redosados e aplicados no teste t pareado, os analitos CT e PCR-US mantiveram a estabilidade.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

No presente trabalho, foram processados compósitos de polietileno de alta densidade (PEAD) com hidroxiapatita deficiente de cálcio (HA), com o objetivo de obter materiais com melhores propriedades mecânicas e bioatividade. A adição da HA deficiente de cálcio proporcionou um aumento no módulo de elasticidade (maior rigidez), menor resistência ao impacto e decréscimo do grau de cristalinidade do PEAD, proporcionando uma maior bioatividade ao material. A análise térmica exploratória (sistema não isotérmico) foi realizada por meio da técnica de calorimetria exploratória diferencial (DSC) e foram avaliados os teores de fosfato de cálcio e a velocidade de rotação da rosca no processamento dos materiais. No estudo da cristalização não-isotérmica observou-se uma diminuição da temperatura de cristalização com o aumento da taxa de resfriamento para todos os materiais sintetizados. A energia de ativação (Ea) da cristalização dos materiais foi avaliada por meio dos métodos Kissinger e Ozawa. A amostra com 5% de HA deficiente de cálcio e velocidade de processamento de 200 rpm foi a que apresentou menor valor de energia de ativação, 262 kJ/mol, menor desvio da linearidade e a que mais se assemelhou à matriz de PEAD sem HA. O teor de hidroxiapatita deficiente de cálcio não favorece o processo de cristalização devido à alta energia de ativação determinada pelos métodos descritos. Provavelmente, a velocidade de rotação, favorece a dispersão da carga na matriz de PEAD, dificultando o processo de cristalização. Na aplicação do método de Osawa-Avrami, os coeficientes de correlação indicaram perda na correlação linear. Estas perdas podem estar associadas a uma pequena percentagem de cristalização secundária e/ou à escolha das temperaturas utilizadas para determinar a velocidade de cristalização. Na determinação dos parâmetros pelo método de Mo, as menores percentagens de cristalização apresentaram um grande desvio da linearidade, com coeficiente de correlação bem menor que 1 e com o aumento da percentagem de cristalização, o desvio da linearidade diminui, ficando próximo de 1. Os resultados obtidos mostraram que o modelo de Mo e de Osawa-Avrami não foram capazes de definir o comportamento cinético dos materiais produzidos neste trabalho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho são apresentadas algumas características físicas, vantagens e viabilidade do uso do pó de tecido, proveniente do processamento de resíduos têxteis que são descartados em confecções em geral. A produção e utilização desse tipo de pó diminui o impacto ambiental e se mostra viável economicamente, pois é produzido facilmente a partir do processamento de resíduos, que seriam descartados na natureza. O presente trabalho mostra o estudo da produção do pó de tecido e a sua substituição parcial do agregado miúdo natural na produção de concretos de cimento Portland convencionais. Para comprovar a viabilidade técnica e econômica do uso do pó de tecido foram analisadas características do agregado como sua composição granulométrica, e seu comportamento nos ensaios de abatimento tronco de cone (Slump Test). Uma relação água-cimento também foi convencionada a um concreto usual com resistência esperada de 27MPa. Com estes dados foi definido um traço para o concreto utilizando 5% e 15% de agregado pó de tecido, substituindo a areia. A pesquisa apresenta os resultados de resistência à compressão simples dos corpos de prova cilíndricos de concreto aos 28 dias. Verificou-se que as amostras não apresentaram diferenças significativas de resistência entre si, tão pouco com relação às resistências de um concreto convencional produzido somente com agregado miúdo natural. Entretanto, houve uma melhora nos resultados dos ensaios à compressão, principalmente no concreto com 15% de pó de tecido.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho traz como proposta a obtenção de nanocompósitos (PLA/HDPE-g-AM/HDPE-Verde/n-CaCO3) com propriedades mecânicas e de fluxo adequadas para aplicação no setor de embalagens. A produção desses nanocompósitos ocorreu por meio de uma mistura de PLA e polietileno proveniente de fonte renovável (HDPE-Verde), viabilizada pela ação do agente compatibilizante polietileno enxertado com anidrido maleico (HDPE-g-AM) e do aditivo carbonato de cálcio nanoparticulado (n-CaCO3), através do estudo das condições ótimas de processamento e composição, realizado por meio do Planejamento Fatorial Delineamento Composto Central Rotacional (DCCR). A obtenção deste balanço ótimo se deu ao se avaliar a influência dos fatores de estudo velocidade de rotação (100-400rpm), teor da fase dispersa PLA 2003D (0-35%) e teor da nanocarga mineral - n-CaCO3 (1-4%) sobre as propriedades mecânicas, térmicas, morfológicas e de fluxo dos nanocompósitos, através das variáveis de resposta - módulo de Young, resistência ao impacto, grau de cristalinidade (c) e índice de fluidez (MFI).Avaliações preliminares conduziram à escolha do PLA como fase dispersa dos compósitos. As variáveis de resposta do planejamento indicaram que a viscosidade dessas amostras é diretamente proporcional à concentração de n-CaCO3 e a velocidade de processamento, por promoverem, respectivamente, maior resistência ao escoamento e dispersão da carga. As composições apresentaram como característica resistência ao impacto similar ao comportamento do PLA puro e em contrapartida, módulo de Young similar a matriz de HDPE-Verde. A cristalinidade dos polímeros foi melhorada, observando-se uma ação mútua do HDPE-Verde e do PLA para este aumento, havendo ainda colaboração do n-CaCO3 e da velocidade de mistura. A morfologia dos compósitos foi função da velocidade que favoreceu maior dispersão e distribuição da fase dispersa e ainda por maiores teores de n-CaCO3 que ocasionaram a formação de gotas de PLA de menores dimensões, favorecendo uma estrutura mais homogênea. Maiores teores de PLA alteraram a morfologia dos compósitos, ocasionando a formação de grandes domínios dessa fase na forma de gota que atribuíram ao material maior rigidez. A avaliação individual do efeito do n-CaCO3 sobre o PLA e o HDPE-Verde individualmente apontaram que a ação da carga mineral em geral é benéfica para a melhoria das propriedades, com exceção da resistência ao impacto. Além disso, os resultados mostram que a compatibilizante HDPE-g-AM também minimiza a atuação da carga. Em relação à influência do HDPE-g-AM sobre a mistura HDPE-Verde/PLA é possível observar que a compatibilização da mistura tende a ocorrer, porém não de forma eficiente como o esperado

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Diversas das possíveis aplicações da robótica de enxame demandam que cada robô seja capaz de estimar a sua posição. A informação de localização dos robôs é necessária, por exemplo, para que cada elemento do enxame possa se posicionar dentro de uma formatura de robôs pré-definida. Da mesma forma, quando os robôs atuam como sensores móveis, a informação de posição é necessária para que seja possível identificar o local dos eventos medidos. Em virtude do tamanho, custo e energia dos dispositivos, bem como limitações impostas pelo ambiente de operação, a solução mais evidente, i.e. utilizar um Sistema de Posicionamento Global (GPS), torna-se muitas vezes inviável. O método proposto neste trabalho permite que as posições absolutas de um conjunto de nós desconhecidos sejam estimadas, com base nas coordenadas de um conjunto de nós de referência e nas medidas de distância tomadas entre os nós da rede. A solução é obtida por meio de uma estratégia de processamento distribuído, onde cada nó desconhecido estima sua própria posição e ajuda os seus vizinhos a calcular as suas respectivas coordenadas. A solução conta com um novo método denominado Multi-hop Collaborative Min-Max Localization (MCMM), ora proposto com o objetivo de melhorar a qualidade da posição inicial dos nós desconhecidos em caso de falhas durante o reconhecimento dos nós de referência. O refinamento das posições é feito com base nos algoritmos de busca por retrocesso (BSA) e de otimização por enxame de partículas (PSO), cujos desempenhos são comparados. Para compor a função objetivo, é introduzido um novo método para o cálculo do fator de confiança dos nós da rede, o Fator de Confiança pela Área Min-Max (MMA-CF), o qual é comparado com o Fator de Confiança por Saltos às Referências (HTA-CF), previamente existente. Com base no método de localização proposto, foram desenvolvidos quatro algoritmos, os quais são avaliados por meio de simulações realizadas no MATLABr e experimentos conduzidos em enxames de robôs do tipo Kilobot. O desempenho dos algoritmos é avaliado em problemas com diferentes topologias, quantidades de nós e proporção de nós de referência. O desempenho dos algoritmos é também comparado com o de outros algoritmos de localização, tendo apresentado resultados 40% a 51% melhores. Os resultados das simulações e dos experimentos demonstram a eficácia do método proposto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A diminuição do aporte de oxigênio e nutrientes na vida perinatal resulta em danos, como astrogliose, morte de neurônios e de células proliferativas. Déficits cognitivos podem estar relacionados a danos no hipocampo. Neste trabalho avaliamos a citoarquitetura do giro dentado (DG) durante o desenvolvimento e a memória de ratos submetidos à HI. Para tal, utilizamos a técnica de imunohistoquímica para marcador de proliferação celular (KI67), neurônio jovem (DCX), de astrócitos (GFAP) e de óxido nítrico sintase neuronal (NOSn). Para avaliar a memória de curta e de longa duração foi utilizado o teste de reconhecimento de objetos (RO). Ratas Wistar grávidas em E18 foram anestesiadas (tribromoetanol) e as quatro artérias uterinas foram ocluídas com grampos de aneurisma (Grupo HI). Após 45 minutos, os grampos foram removidos e foi feita a sutura por planos anatômicos. Os animais do grupo controle (SHAM) sofreram o mesmo procedimento, excetuando a oclusão das artérias. Os animais nasceram a termo. Animais com idades de 7 a 90 dias pós-natal (P7 a P90), foram anestesiados e perfundido-fixados com paraformaldeído a 4%, e os encéfalos submetidos ao processamento histológico. Cortes coronais do hipocampo (20m) foram submetidos à imunohistoquímica para KI67, DCX, GFAP e NOSn. Animais P90 foram submetidos ao RO. Os procedimentos foram aprovados pelo comitê de ética (CEA/019/2010). Observamos menor imunomarcação para KI67 no giro dentado de animais HI em P7. Para a marcação de DCX nesta idade não foi observada diferença entre os grupos. Animais HI em P15, P20 e P45 tiveram menor imunomarcação para DCX e Ki67 na camada granular. Animais P90 de ambos os grupos não apresentaram marcação para KI67 e DCX. Vimos aumento da imunomarcação para GFAP nos animais HI em todas as idades. A imunomarcação para NOSn nos animais HI foi menor em todas as idades. O maior número de células NOSn positivas foi visto em animais P7 em ambos os grupos na camada polimórfica. Em P15, animais HI apresentam células NOSn+ em todo o DG. Em P30 animais HI apresentam células NOSn+ nas camadas polimórfica e sub-granular. Animais adultos (P90) de ambos os grupos apresentam células NOSn positivas apenas nas camadas granular e sub-granular. Embora animais HI P90 não apresentaram déficits de memória, estes apresentaram menor tempo de exploração do objeto. Comportamento correspondente a déficits de atenção em humanos. Nossos resultados sugerem que HI perinatal diminui a população de células proliferativas, de neurônios jovens, de neurônios NOSn+, além de causar astrogliose e possivelmente déficits de atenção. O modelo demonstrou ser útil para a compreensão dos mecanismos celulares das lesões hipóxico-isquêmicas e pode ser usado para testar estratégias terapêuticas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Evidências sugerem que a lateralização cerebral é uma característica fundamental dos vertebrados. Nos seres humanos, tem sido sugerido que o hemisfério direito é especializado no processamento de informação emocional negativa e o hemisfério esquerdo no controle da função motora. Em roedores, evidências de lateralização hemisférica são escassas. Diante disso, utilizamos a hemisferectomia para avaliar a importância relativa de cada hemisfério no controle emocional e na atividade motora espontânea em camundongos. Machos adultos foram submetidos à hemisferectomia direita (HD), hemisferectomia esquerda (HE) ou a simulação da cirurgia (SHAM). Para ajudar na interpretação dos resultados, uma amostra adicional de camundongos foi submetida à aspiração unilateral da área frontoparietal esquerda (FPE), da área frontoparietal direito (FPD) ou a simulação da cirurgia (CONT). Quinze dias após a cirurgia, a reatividade emocional e a ambulação foram avaliadas no teste de campo aberto durante 10 minutos (dividido em intervalos de 1 min). A arena de campo aberto consistiu em uma caixa de polipropileno, cujo fundo foi dividido em 16 retângulos do mesmo tamanho. O número total de retângulos cruzados pelo animal foi utilizado como a medida da atividade locomotora espontânea. Considerando-se que os camundongos evitam áreas abertas, a locomoção no centro e o tempo despendido nos retângulos centrais foram utilizados para avaliar a reatividade emocional. Em relação à atividade locomotora as duas técnicas cirúrgicas revelaram assimetrias na direção oposta. A atividade locomotora do grupo HE aumentou ao longo do período de teste e foi maior do que a dos grupos HD e SHAM. Em contraste, a atividade locomotora do grupo FPD diminuiu ao longo do período de teste e foi superior a ambos os grupos, FPE e CONT. Em relação à reatividade emocional, o grupo HE passou menos tempo na área central que os grupos HD e CONT. Não foram observadas diferenças entre FPD, FPE e o grupo CONT. Os nossos resultados sugerem que os dois hemisférios contribuem de forma assimétrica para controlar de reatividade emocional e para controlar de atividade motora em camundongos. De forma semelhante ao que é observado em humanos, o hemisfério direito dos camundongos foi mais associado com o processamento de informação emocional negativa. Em relação aos dados de hiperatividade, as diferenças observadas entre os animais hemisferectomizados e com lesão frontoparietal sugerem que mais de um circuito (ou sistema) lateralizado pode mediar a atividade locomotora espontânea.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nos últimos 20-30 anos polímeros biodegradáveis vêm sendo estudados e desenvolvidos e atualmente já são comercializados. Contudo, o custo, a processabilidade e algumas propriedades ainda dificultam a penetração desses polímeros no mercado e a competição com as chamadas commodities. Não são poucos os autores que se dedicam a desenvolver aditivos e formulações para superar essas limitações. Desta forma, esta Tese se dedicou ao desenvolvimento de compósitos de Ecobras, fabricado pela Basf e comercializado pela Corn Products, utilizando como carga mineral resíduo da extração da bauxita, no município de Santa Luzia/PB, o qual consiste em sua totalidade de vermiculita. Esta vermiculita foi quimicamente modificada com sais de alquil fosfônio para melhorar a compatibilidade com a matriz polimérica e também espaçar as camadas de aluminossilicato. De fato, a modificação com o brometo de hexadecil tributil fosfônio resultou na esfoliação da vermiculita tornando-a potencialmente apropriada para a obtenção de nanocompósitos. A preparação dos compósitos foi realizada pelo método de intercalação no estado fundido e foram comparadas a utilização da câmara interna de mistura e da mini extrusora de dupla rosca, sendo esta última mais eficaz na dispersão da vermiculita, conforme revelado pela microscopia eletrônica de varredura, difração de raios-X e reometria de placas. O grau de dispersão também foi influenciado pela estrutura química do modificador da vermiculita e pelo teor dessa carga incorporada à matriz. Teores mais elevados levaram a formação de aglomerados, enquanto a modificação da carga implicou na formação de micro e nanocompósitos. Ainda houve alterações das propriedades térmicas com aumento dos valores da temperatura de transição vítrea, de cristalização e fusão, embora o grau de cristalinidade tenha sido mantido. Nitidamente, foram obtidos materiais mais rígidos, com maior módulo e menor capacidade de deformação. Cerca de 58% de perda de massa foi observada para os micro e nanocompósitos obtidos após 17 semanas de enterro em solo simulado para avaliação da biodegradabilidade, valor bem próximo ao Ecobras puro. De modo geral, a incorporação das diferentes vermiculitas retardou nas primeiras semanas a biodegradação, provavelmente em função de modificações na estrutura cristalina, conforme sugerido pelos maiores valores de temperatura de fusão observados durante o acompanhamento do processo de biodegradação. No entanto, após 7 semanas os perfis de biodegradação dos micro e nanocompósitos se aproximaram bastante do Ecobras puro. Desta forma, foi possível nesta Tese obter um nanocompósito de Ecobras com vermiculita modificada com brometo de hexadecil fosfônio utilizando ferramentas comuns de processamento no estado fundido com biodegradabilidade próxima ao polímero de partida, porém mais rígido e menos deformável

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A técnica de deposição de resíduos de processamento de bauxita prevê uma operação inicial de lançamento de resíduos, por via úmida, no interior de reservatórios artificiais. Nesta fase de deposição, os resíduos são lançados em forma de polpa, sofrendo processos de sedimentação e adensamento por peso próprio. A vida útil dos reservatórios depende fundamentalmente do comportamento geotécnico do resíduo, cujas propriedades variam ao longo do tempo e da profundidade. A presente dissertação tem como objetivo a análise do comportamento de uma área de resíduos de bauxita durante a operação de enchimento do reservatório. Para tanto, foi utilizado o programa Plaxis, que executa análises tensão-deformação pelo método dos elementos finitos. Os parâmetros geotécnicos do resíduo foram definidos com base em ensaios de adensamento e piezocone, executados em amostras representativas da polpa de resíduos. Para calibração do modelo, a batimetria executada no reservatório foi confrontada com as cotas de enchimento previstas numericamente. Finalmente, a distribuição dos parâmetros geotécnicos (peso específico, índice de vazios, permeabilidade) com a profundidade prevista numericamente foi confrontada com os valores medidos no campo, ao final da etapa de enchimento. O conhecimento da variação dos parâmetros geotécnicos com a profundidade ao final do enchimento é importante para avaliar o comportamento do reservatório na etapa de operação de alteamento, e para a estimativa do ganho de vida útil do reservatório. Os resultados permitiram avaliar o funcionamento da drenagem de fundo, a distribuição complexa dos excessos de poropressão ao final do enchimento, os perfis dos índices físicos com a profundidade e o ganho de vida útil. As análises mostraram que o programa foi capaz de reproduzir os processos simultâneos de sedimentação e adensamento por peso próprio, em análises de enchimento de reservatórios de resíduos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Atualmente grande parte dos resíduos descartados rotineiramente no Brasil é composta por material plástico como, por exemplo, o polietileno de alta densidade (PEAD), o qual é muito comum no lixo doméstico. Nesta Dissertação, embalagens de PEAD pós-consumo foram coletadas e moídas. Após processamento em extrusora, o material definido como PEAD reciclado (mistura de embalagens brancas, marfins e incolores) foi injetado e as propriedades mecânicas foram avaliadas e comparadas com uma amostra de PEAD comercial (HD7600U). A análise térmica através da calorimetria exploratória diferencial (DSC), em conjunto com a análise estatística dos resultados experimentais, também foi conduzida. Em relação à resistência à tração, a diferença entre as amostras de PEAD reciclado e PEAD comercial foram tão pouco expressivas que, dentro das condições experimentais adotadas, se pode afirmar que o material reciclado é equivalente ao comercial.Por sua vez, os modelos cinéticos aplicados na análise térmica revelaram quea amostra de PEAD comercial demonstra um processo de nucleação e crescimento dos cristais mais homogêneo e simples, embora a energia de ativação seja consideravelmente maior do que o das demais amostras de PEAD.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese apresentada uma proposta de desenvolvimento de uma ferramenta computacional para metrologia com microtomografia computadorizada que possa ser implantada em sistemas de microtomógrafos convencionais. O estudo concentra-se nas diferentes técnicas de detecção de borda utilizadas em processamento de imagens digitais.Para compreender a viabilidade do desenvolvimento da ferramenta optou-se por utilizar o Matlab 2010a. A ferramenta computacional proposta é capaz de medir objetos circulares e retangulares. As medidas podem ser horizontais ou circulares, podendo ser realizada várias medidas de uma mesma imagem, uma medida de várias imagens ou várias medidas de várias imagens. As técnicas processamento de imagens digitais implementadas são a limiarização global com escolha do threshold manualmente baseado no histograma da imagem ou automaticamente pelo método de Otsu, os filtros de passa-alta no domínio do espaço Sobel, Prewitt, Roberts, LoG e Canny e medida entre os picos mais externos da 1 e 2 derivada da imagem. Os resultados foram validados através de comparação com os resultados de teste realizados pelo Laboratório de Ensaios Mecânicos e Metrologia (LEMec) do Intstituto Politécnico do Rio de Janeiro (IPRJ), Universidade do Estado do Rio de Janeiro (UERJ), Nova Friburdo- RJ e pelo Serviço Nacional da Indústria Nova Friburgo (SENAI/NF). Os resultados obtidos pela ferramenta computacional foram equivalentes aos obtidos com os instrumentos de medição utilizados, demonstrando à viabilidade de utilização da ferramenta computacional a metrologia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação apresenta resultados da aplicação de filtros adaptativos, utilizando os algoritmos NLMS (Normalized Least Mean Square) e RLS (Recursive Least Square), para a redução de desvios em previsões climáticas. As discrepâncias existentes entre o estado real da atmosfera e o previsto por um modelo numérico tendem a aumentar ao longo do período de integração. O modelo atmosférico Eta é utilizado operacionalmente para previsão numérica no CPTEC/INPE e como outros modelos atmosféricos, apresenta imprecisão nas previsões climáticas. Existem pesquisas que visam introduzir melhorias no modelo atmosférico Eta e outras que avaliam as previsões e identificam os erros do modelo para que seus produtos sejam utilizados de forma adequada. Dessa forma, neste trabalho pretende-se filtrar os dados provenientes do modelo Eta e ajustá-los, de modo a minimizar os erros entre os resultados fornecidos pelo modelo Eta e as reanálises do NCEP. Assim, empregamos técnicas de processamento digital de sinais e imagens com o intuito de reduzir os erros das previsões climáticas do modelo Eta. Os filtros adaptativos nesta dissertação ajustarão as séries ao longo do tempo de previsão. Para treinar os filtros foram utilizadas técnicas de agrupamento de regiões, como por exemplo o algoritmo de clusterização k-means, de modo a selecionar séries climáticas que apresentem comportamentos semelhantes entre si. As variáveis climáticas estudadas são o vento meridional e a altura geopotencial na região coberta pelo modelo de previsão atmosférica Eta com resolução de 40 km, a um nível de pressão de 250 hPa. Por fim, os resultados obtidos mostram que o filtro com 4 coeficientes, adaptado pelo algoritmo RLS em conjunto com o critério de seleção de regiões por meio do algoritmo k-means apresenta o melhor desempenho ao reduzir o erro médio e a dispersão do erro, tanto para a variável vento meridional quanto para a variável altura geopotencial.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho apresenta um procedimento numérico para o estudo da precisão e da exatidão da técnica de birrefringência acústica como usada no Instituto de Engenharia Nuclear (IEN) para avaliação de tensões residuais e aplicadas em estruturas metálicas. Esse procedimento deverá ser incorporado posteriormente ao módulo de processamento de sinal do sistema ultrassônico utilizado no Laboratório de Ultrassom do IEN para levar em conta, de forma automática e sistemática, as incertezas nos dados de entrada e as suas propagações ao longo dos cálculos efetuados. A birrefringência acústica é geralmente definida a partir das velocidades de duas ondas ultrassônicas volumétricas de incidência normal e ortogonais entre si. A birrefringência pode ser definida diretamente a partir dos tempos de percurso dessas duas ondas, uma vez que elas percorrem o mesmo espaço físico. Os tempos de percurso das ondas podem ser assim considerados como as variáveis primárias de interesse. Por meio da teoria da acustoelasticidade é possível relacionar a birrefringência acústica com as tensões atuantes no material explorando o fato da velocidade da onda ultrassônica ser afetada pela presença de um campo de tensões. Nesta dissertação elaborou-se um conjunto de planilhas eletrônicas no aplicativo Microsoft Excel para efetuar de forma automática todos os cálculos necessários ao objetivo proposto, levando em conta as incertezas nos dados, sua propagação ao longo dos cálculos e o número de dígitos significativos nos resultados. Como exemplo do procedimento desenvolvido, o estudo da precisão e da exatidão na determinação das tensões em uma viga de aço sob flexão pela técnica da birrefringência acústica é apresentado. Como valor de referência, para fins do cálculo da exatidão alcançada, utilizou-se uma solução analítica derivada da teoria clássica da resistência de materiais. Os resultados encontrados indicaram uma razoável precisão, com um erro relativo menor do que 8%, e uma baixa exatidão, menor do que 57%, nos pontos da viga sujeitos às maiores tensões principais de flexão.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A realização da Internet das Coisas (Internet of Things, IoT) requer a integração e interação de dispositivos e serviços com protocolos de comunicação heterogêneos. Os dados gerados pelos dispositivos precisam ser analisados e interpretados em concordância com um modelo de dados em comum, o que pode ser solucionado com o uso de tecnologias de modelagem semântica, processamento, raciocínio e persistência de dados. A computação ciente de contexto possui soluções para estes desafios com mecanismos que associam os dados de contexto com dados coletados pelos dispositivos. Entretanto, a IoT precisa ir além da computação ciente de contexto, sendo simultaneamente necessário soluções para aspectos de segurança, privacidade e escalabilidade. Para integração destas tecnologias é necessário o suporte de uma infraestrutura, que pode ser implementada como um middleware. No entanto, uma solução centralizada de integração de dispositivos heterogêneos pode afetar escalabilidade. Assim esta integração é delegada para agentes de software, que são responsáveis por integrar os dispositivos e serviços, encapsulando as especificidades das suas interfaces e protocolos de comunicação. Neste trabalho são explorados os aspectos de segurança, persistência e nomeação para agentes de recursos. Para este fim foi desenvolvido o ContQuest, um framework, que facilita a integração de novos recursos e o desenvolvimento de aplicações cientes de contexto para a IoT, através de uma arquitetura de serviços e um modelo de dados. O ContQuest inclui soluções consistentes para os aspectos de persistência, segurança e controle de acesso tanto para os serviços de middleware, como para os Agentes de Recursos, que encapsulam dispositivos e serviços, e aplicações-clientes. O ContQuest utiliza OWL para a modelagem dos recursos e inclui um mecanismo de geração de identificadores únicos universais nas ontologias. Um protótipo do ContQuest foi desenvolvido e validado com a integração de três Agentes de Recurso para dispositivos reais: um dispositivo Arduino, um leitor de RFID e uma rede de sensores. Foi também realizado um experimento para avaliação de desempenho dos componentes do sistema, em que se observou o impacto do mecanismo de segurança proposto no desempenho do protótipo. Os resultados da validação e do desempenho são satisfatórios