146 resultados para Estimativa de parâmetro
Resumo:
Os girinos são organismos diversos e abundantes nos pequenos riachos de cabeceira de florestas tropicais e constituem importantes componentes da diversidade biológica, da trófica e funcional dos sistemas aquáticos. Diferentes características estruturais e limnológicas dos ambientes aquáticos influenciam a organização das assembleias de girinos. Embora o estágio larvar dos anuros seja o mais vulnerável de seu ciclo de vida, sujeito a elevadas taxas de mortalidade, as pesquisas sobre girinos na região neotropical ainda são pouco representativas diante da elevada diversidade de anfíbios desta região e ferramentas que permitam a sua identificação ainda são escassas. Nesta tese, dividida em três capítulos, apresento uma compilação das informações relacionadas aos principais fatores que afetam as assembleias de girinos na região tropical (Capítulo 1), a caracterização morfológica dos girinos encontrados nos riachos durante o estudo e uma proposta de chave dicotômica de identificação (Capítulo 2) e avalio a importância relativa da posição geográfica e da variação temporal de fatores ambientais locais sobre as assembleias de girinos, assim como a correlação entre as espécies de girinos e as variáveis ambientais de 10 riachos, ao longo de 15 meses, nas florestas da REGUA (Capítulo 3). Há pelo menos oito tendências relacionadas à distribuição das assembleias de girinos: (1) o tamanho dos riachos e a diversidade de microhabitats são importantes características abióticas influenciando a riqueza e a composição de espécies; (2) em poças, o gradiente de permanência (e.g., hidroperíodo) e a heterogeneidade do habitat são os principais fatores moldando as assembleias de girinos; (3) a composição de espécies parece ser um parâmetro das assembleias mais relevante do que a riqueza de espécies e deve ser primeiramente considerado durante o planejamento de ações conservacionistas de anuros associados a poças e riachos; (4) a predação parece ser a interação biótica mais importante na estruturação das assembleias de girinos, com predadores vertebrados (e.g. peixes) sendo mais vorazes em habitats permanentes e predadores invertebrados (e.g. larvas de odonata) sendo mais vorazes em ambientes temporários; (5) os girinos podem exercer um efeito regulatório, predando ovos e girinos recém eclodidos; (6) o uso do microhabitat varia em função da escolha do habitat reprodutivo pelos adultos, presença de predadores, filogenia, estágio de desenvolvimento e heterogeneidade do habitat; (7) os fatores históricos restringem os habitats reprodutivos que uma espécie utiliza, impondo restrições comportamentais e fisiológicas; (8) a variação temporal nos fatores bióticos (e.g., fatores de risco), abióticos (e.g., distribuição de chuvas), e no padrão de reprodução das espécies pode interferir na estrutura das assembleias de girinos tropicais. A variação temporal na heterogeneidade ambiental dos riachos da REGUA resultou na previsibilidade das assembleias locais de girinos, sendo que os parâmetros ambientais explicaram 23% da variação na sua composição. Os parâmetros espaciais explicaram uma porção menor da variação nas assembleias (16%), enquanto uma porção relativamente elevada da variação temporal da heterogeneidade ambiental foi espacialmente estruturada (18%). As variáveis abióticas que apresentaram as maiores correlação com a composição das assembleias de girinos foram a proporção de folhiço e de rochas no fundo do riacho, e secundariamente a profundidade, a condutividade e a temperatura. O gradiente gerado pela proporção de folhiço e de rochas representou a transição entre riachos permanentes e intermitentes. Este gradiente proporcionou o turnover de espécies, o qual também seguiu um gradiente de condutividade, temperatura, profundidade, e em menor extensão, de hidroperíodo e largura, que estiveram fortemente associado ao grau de permanência dos riachos. Estes resultados corroboram tanto a hipótese do controle ambiental, como do controle biótico de comunidades e indicam que a variação temporal da heterogeneidade ambiental e a variação na posição geográfica são importantes para a estruturação local de assembleias de girinos da REGUA. Os resultados também permitiram distinguir entre assembleias de girinos exclusivas de riachos permanentes, exclusivas de riachos intermitentes e aquelas registradas nos dois tipos de riachos. Os resultados deste capítulo são relevantes para compreender em que extensão os efeitos da variação temporal na heterogeneidade ambiental e de processos espaciais afetam localmente a estruturação de assembleias de girinos.
Resumo:
Os RCC são originados dos diversos processos da construção civil, com características bastante particulares pela variedade dos métodos construtivos empregados. Suas deposições em locais inadequados causam vários impactos com diferentes tempos de reação e de degradação do meio ambiente. Para impedi-los foi aprovada a Resolução 307 do CONAMA, que estabelece critérios e normas de caráter protetor ao meio ambiente, porém as administrações públicas possuem inúmeras dificuldades técnicas e financeiras para sua implementação. Para auxiliar os municípios, a CEF elaborou dois manuais de orientações para o manejo e gestão dos RCC, direcionando o sistema gestor. Uma opção para a gestão de RCC é a reciclagem. O Município do Rio de Janeiro com seu relevo original formado por mangues e morros, sofreu grandes aterros e sofre até os dias atuais, utilizando para isso os RCC e o desmonte de antigos morros. Os RCC, após coletados, são destinados a uma única Área de Transbordo e Triagem, com capacidade insuficiente para recebê-los. A ausência de controle do órgão gestor sobre os RCC, seus dados de produção e de destinação, exige uma estimativa dos RCC gerados no Município e uma observação global sobre seus destinos, considerando os aterros autorizados pela SMAC. Foi realizada uma análise crítica da gestão corretiva adotada pelo sistema gestor, suas particularidades e dificuldades, e o perfil atual sobre a reciclagem de RCC no Rio de Janeiro. Algumas propostas para a melhoria do sistema gestor foram apresentadas e sugerida a necessidade de um estudo mais aprofundado e de um levantamento mais completo da realidade dos RCC no Município do Rio de Janeiro.
Resumo:
O papel dos polimorfismos genéticos da ECA (PGECA) na insuficiência cardíaca (IC) como preditor de desfechos clínicos e ecocardiográficos ainda não está estabelecido. É necessário identificar o perfil genotípico local para se observar se o impacto clínico desses genótipos é igual entre populações estrangeiras e a brasileira. O objetivo deste trabalho foi determinar a frequência das variantes do PGECA e sua relação com a evolução clínica de pacientes com IC de etiologia não isquêmica de uma população do Rio de Janeiro, utilizando desfechos clínicos, ecocardiográficos e do Seattle Heart Failure Model (SHFM).Para isso, realizou-se análise secundária de prontuários de 111 pacientes, acompanhados de forma prospectiva e retrospectiva, além da análise genética com identificação da variante do PGECA e sua classificação. Os pacientes foram acompanhados em média por 64,93,9 meses, tinham 59,51,3 (26-89) anos, predomínio do sexo masculino (60,4%) e da cor da pele branca (51,4 %), mas com alta prevalência de pretos (36 %). A distribuição do PGECA observada foi: 51,4 % DD, 44,1 % DI e apenas 4,5 % II. Hipertensão arterial foi a comorbidade mais frequentemente observada (70,3 %). O tratamento farmacológico estava bastante otimizado: 98,2 % em uso de betabloqueadores e 89,2 % em uso de inibidores da ECA ou losartana. Nenhuma das características clínicas ou do tratamento medicamentoso variou entre os grupos. Cerca de metade da coorte (49,5 %) apresentou fração de ejeção de VE (FEVE) ≤35 %. O diâmetro sistólico do VE (DSVE) final foi a única variável ecocardiográfica isolada significativamente diferente entre os PGECA: 59,21,8 DD x 52,31,9 DI x 59,25,2 (p=0,029). Quando analisadas de maneira evolutiva, todas as variáveis (FEVE, DSVE e DDVE) diferiram de maneira significativa entre os genótipos: p=0,024 para ∆FE, p=0,002 para ∆DSVE e p=0,021 para ∆DDVE. O genótipo DI se associou ao melhor parâmetro ecocardiográfico (aumento de FEVE e diminuição de diâmetros de VE), enquanto que o DD e II apresentaram padrão inverso. Os valores derivados do SHFM (expectativa de vida, mortalidade em um ano e mortalidade em cinco anos) não variaram de forma significativa entre os genótipos, mas notou-se um padrão com o DD associado a piores estimativas, DI a estimativas intermediárias e II a valores mais benignos. Não houve diferença significativa entre desfechos clínicos isolados (óbitos: p=0,552; internação por IC: p=0,602 e PS por IC: p=0,119) ou combinados (óbitos + internação por IC: p=0,559). Na análise multivariada, o peso alelo D foi preditor independente da variação do DSVE (p=0,023). Em relação aos preditores independentes de óbito + internação por IC, foram identificados classe funcional NYHA final (p=0,018), frequência cardíaca final (p=0,026) e uso de furosemida (p=0,041). Em suma, a frequência alélia e das variantes do PGECA foram diferentes da maioria do estudos internacionais. O alelo D foi associado de forma independente à pior evolução ecocardiográfica. Não houve diferenças significativas em relação aos parâmetros derivados do SHFM, embora o genótipo II pareça estar associado com o melhor perfil clínico. Por último, não houve diferenças em relação aos desfechos clínicos entre os PGECA.
Resumo:
O presente trabalho investiga um método de detecção de anomalias baseado em sistemas imunológicos artificiais, especificamente em uma técnica de reconhecimento próprio/não-próprio chamada algoritmo de seleção negativa (NSA). Foi utilizado um esquema de representação baseado em hiperesferas com centros e raios variáveis e um modelo capaz de gerar detectores, com esta representação, de forma eficiente. Tal modelo utiliza algoritmos genéticos onde cada gene do cromossomo contém um índice para um ponto de uma distribuição quasi-aleatória que servirá como centro do detector e uma função decodificadora responsável por determinar os raios apropriados. A aptidão do cromossomo é dada por uma estimativa do volume coberto através uma integral de Monte Carlo. Este algoritmo teve seu desempenho verificado em diferentes dimensões e suas limitações levantadas. Com isso, pode-se focar as melhorias no algoritmo, feitas através da implementação de operadores genéticos mais adequados para a representação utilizada, de técnicas de redução do número de pontos do conjunto próprio e de um método de pré-processamento baseado em bitmaps de séries temporais. Avaliações com dados sintéticos e experimentos com dados reais demonstram o bom desempenho do algoritmo proposto e a diminuição do tempo de execução.
Resumo:
Nesta dissertação são analisados métodos de localização baseados na rede, com destaque para os métodos de correlação de assinaturas de rádio-frequência (DCM - Database Correlation Methods). Métodos baseados na rede não requerem modificações nos terminais móveis (MS - Mobile Stations), sendo portanto capazes de estimar a localização de MS legados, i.e., sem suporte específico a posicionamento. Esta característica, associada a alta disponibilidade e precisão dos métodos DCM, torna-os candidatos viáveis para diversas aplicações baseadas em posição, e em particular para a localização de chamadas para números de emergência - polícia, defesa civil, corpo de bombeiros, etc. - originadas de telefones móveis celulares. Duas técnicas para diminuição do tempo médio para produção de uma estimativa de posição são formuladas: a filtragem determinística e a busca otimizada utilizando algoritmos genéticos. Uma modificação é realizada nas funções de avaliação utilizadas em métodos DCM, inserindo um fator representando a inacurácia intrínseca às medidas de nível de sinal realizadas pelos MS. As modificações propostas são avaliadas experimentalmente em redes de telefonia móvel celular de segunda e terceira gerações em ambientes urbanos e suburbanos, assim como em redes locais sem fio em ambiente indoor. A viabilidade da utilização de bancos de dados de correlação (CDB - Correlation Database) construídos a partir de modelagem de propagação é analisada, bem como o efeito da calibração de modelos de propagação empíricos na precisão de métodos DCM. Um dos métodos DCM propostos, utilizando um CDB calibrado, teve um desempenho superior ao de vários outros métodos DCM publicados na literatura, atingindo em área urbana a precisão exigida dos métodos baseados na rede pela regulamentação FCC (Federal Communications Commission) para o serviço E911 (Enhanced 911 ).
Resumo:
A insuficiente definição conceitual das contribuições, seja a nível constitucional, seja a nível do Código Tributário Nacional, tem possibilitado a instituição de contribuições especiais pela União Federal sem quase nenhum parâmetro de controle, exceto pelas exigências de afetação do produto da arrecadação a uma finalidade específica (social, econômica ou profissional) e de referibilidade dos benefícios ao grupo de contribuintes. Ocorre que o primeiro requisito (da afetação) é de dificílimo controle e tem sido pouco observado, enquanto que o segundo (da referibilidade) é um conceito ainda muito aberto e sujeito a uma interpretação elástica pelos tribunais, que tem reconhecido a sua existência mesmo nos casos em que a atuação estatal não se refere direta e imediatamente ao grupo de contribuintes. Isso, na prática, abriu à União Federal um campo de incidência quase ilimitado a explorar por meio da criação de contribuições que muitas vezes não passam de meros impostos com destinação especial, agravando os problemas de escalada da carga tributária, concentração das receitas tributárias na União Federal, crescente dependência de Estados e Municípios de transferências federais e perda da racionalidade do já precário Sistema Tributário Nacional. Em vista disso, o presente trabalho visa contribuir para o desenvolvimento da teoria das contribuições, identificando novos parâmetros jurídicos para a sua classificação, estruturação e controle. Por meio desses aportes teóricos, busca-se também conferir maior racionalidade e coerência ao Sistema Tributário Nacional, o que de maneira indireta também tende a contribuir para o desenvolvimento institucional do País.
Resumo:
O projeto de Estações de Tratamento de Efluentes Industriais (ETEIs) deve objetivar um desempenho médio, o qual não pode ser ultrapassado certo número de vezes durante seu tempo operacional. Este trabalho propõe a aplicação da metodologia conhecida como Coeficiente de Confiabilidade (CDC) para quantificação da confiabilidade das etapas de tratamento físico (Separação Águaóleo SAO e flotação) e biológico (lodos ativados com aeração prolongada), considerando efluente oleoso proveniente de refino de petróleo. Tal metodologia, entretanto, não possibilita a identificação das prováveis causas do baixo desempenho na tratabilidade. Por isso também é proposta a aplicação da ferramenta de gestão riscos conhecida como FMECA (Failure Modes, Effects and Criticality Analysis), que permite a quantificação das observações qualitativas de campo, tornando os valores comparáveis para definir a hierarquização dos riscos e criticidade das etapas de tratamento estudadas. A etapa biológica para o parâmetro NH3 apresentou a maior confiabilidade, ainda que a análise de risco tenha apontado esta etapa como mais crítica. Ou seja, um sistema confiável não necessariamente apresenta menor criticidade, pois uma má gestão implicará em possíveis infrações às metas pré-fixadas ou à própria legislação ambiental.
Resumo:
Este trabalho tem como tema a formação histórica dos estados modernos, analisando a literatura sobre o fenômeno na Europa e na América Latina. Seu argumento principal é que podemos, tomando a sociologia histórica como teoria política, desenvolver ferramentas metodológicas e teóricas mais acuradas para entender as organizações estatais e a explicação histórica em ciências sociais. O argumento secundário é que a discussão contemporânea sobre construção de estados vem carregada de um viés modernizador na forma como articula o conceito de estado com o processo de seu desenvolvimento. Refinando essa ideia, o trabalho especifica o viés modernizador em termos de distorções na visão de estado e de história, transpondo-o como parâmetro de crítica a determinadas narrativas sobre os estados latino-americanos e sua formação. Como contraponto, recorre aos marcos da crítica substantiva e formal às teorias da modernização feita pela sociologia histórico-comparativa nas décadas de 1970 e 1980. Como resultado, propõe a convergência entre uma teoria crítica do estado e uma noção de processo histórico aberta à variação, à contingência e à contextualidade. Ao final, o trabalho enquadra uma nova onda de estudos histórico-comparativos sobre os estados latino-americanos, percebendo nela caminhos promissores para a superação do viés modernizador.
Resumo:
Desde 2004, o CONAMA (Conselho Nacional de Meio Ambiente), através de sua Resolução n 344, vem exigindo que as análises físicas, químicas e biológicas em matrizes ambientais sejam realizadas em laboratórios ambientais que possuam sua competência técnica reconhecida formalmente através da acreditação concedida pelo Inmetro. Assim, algumas Unidades Federativas vem adotando o mesmo critério para cadastramento de laboratórios em seus bancos de dados. Com isso, houve um crescimento no número de acreditações: em 2002 haviam 12 laboratórios acreditados e em 2012 foram concedidas 198 acreditações a laboratórios ambientais. A adoção da ABNT NBR ISO/IEC 17025 como padrão de trabalho, além de atender as legislações vigentes, possui as seguintes vantagens: satisfação do cliente, credibilidade e melhoria contínua do laboratório, melhoria da capacitação profissional e a conquista de um mercado mais amplo. Buscando adequar-se a essa realidade, apesar de todas as dificuldades inerentes ao processo de implementação dos requisitos da ABNT NBR ISO/IEC 17025 em laboratórios universitários e de pesquisa, o Laboratório de Engenharia Sanitária (LES/DESMA) priorizou a adequação da determinação da demanda química de oxigênio (DQO) aos requisitos técnicos da ABNT NBR ISO/IEC 17025:2005, por ser um parâmetro indicador global de matéria orgânica em águas residuárias e superficiais e ser amplamente utilizado no monitoramento de estações de tratamento de efluentes líquidos e pelo fato deste poder ser determinado por duas técnicas analíticas distintas: espectrofotometria e colorimetria. Em razão deste cenário, o objetivo deste trabalho foi avaliar o desempenho dos métodos 5220 B e 5220 D descritos pelo Standard Methods, através dos parâmetros de validação de métodos analíticos. Ambos os métodos mostraram-se adequados ao uso a que se destinam e o limite de quantificação determinado apresentou-se compatível com o praticado com os laboratórios acreditados. As incertezas foram calculadas de forma a quantificar a qualidade do resultado.
Resumo:
No Brasil, se espera ter até 2014, de acordo com o prazo da Política Nacional de Resíduos Sólidos, todos os lixões erradicados e os resíduos sólidos urbanos gerados depositados em aterros sanitários. Atualmente, os projetos de aterros sanitários dão oportunidade para um nicho de mercado, o da fonte de geração de energia. Um parâmetro de controle da poluição do ar causada pelos aterros sanitários são as chamadas camadas de cobertura. Nesse contexto, é de fundamental importância o estudo de camadas de cobertura de resíduos por ser um importante elemento de projeto para evitar ou minimizar a poluição do ar devido aos gases gerados em aterros sanitários de resíduos sólidos, já que é o elo existente entre o ambiente interno dos resíduos e a atmosfera. A presente pesquisa aborda o comportamento dos gases em relação à camada de cobertura existentes na CTR de Nova Iguaçu e no Lixão remediado de Seropédica. Foram realizados ensaios de Placa de Fluxo, medição de pressão e concentração dos gases no contato solo-resíduo e emissões dos gases pelos drenos, além das análises de solo in situ e em laboratório. Os ensaios foram realizados de outubro a novembro de 2012. Os resultados indicaram uma inexistência de fluxo de gases pela camada de cobertura, que possui 1,10 m de espessura, do lixão de Seropédica, sendo encontrado apenas fluxo nos drenos. Na CTR Nova Iguaçu, foi verificada que praticamente a inexistência de fluxo de gases com o sistema de gás ligado, mesmo possuindo uma camada de cobertura de 0,8 m.
Resumo:
Este trabalho apresenta uma estimativa a priori para o limite superior da distribuição de temperatura considerando um problema em regime permanente em um corpo com uma condutividade térmica dependente da temperatura. A discussão é realizada supondo que as condições de contorno são lineares (lei de Newton do resfriamento) e que a condutividade térmica é constante por partes (quando considerada como uma função da temperatura). Estas estimativas consistem em uma ferramenta poderosa que pode prescindir da necessidade de uma simulação numérica cara de um problema de transferência de calor não linear, sempre que for suficiente conhecer o valor mais alto de temperatura. Nestes casos, a metodologia proposta neste trabalho é mais eficaz do que as aproximações usuais que assumem tanto a condutividade térmica quanto as fontes de calor como constantes.
Resumo:
Apresenta-se uma avaliação técnico-econômica para o préaquecimento solar da água de reposição em caldeiras de sistemas de vapor abertos. São empregados, para compor um estudo de caso, os dados de uma indústria de laticínios de médio porte situada próximo da cidade do Rio de Janeiro. Quarenta e oito simulações computacionais do sistema de aquecimento solar (SAS) foram realizadas em TRNSYS, correspondendo aos 5% melhores resultados econômicos de uma série de 2.700 simulações mais simples (método φ-f-chart), programados em MATLAB. Foram empregados dados horários de ano típico meteorológico (TMY) para a cidade do Rio de Janeiro. O ganho econômico foi baseado no consumo evitado dos três combustíveis mais comuns na indústria de laticínios, enquanto o custo de investimento foi composto a partir de valores comerciais e da literatura. Os resultados da avaliação econômica mostraram-se desfavoráveis para a substituição de óleo combustível, favoráveis no caso de caldeiras a gás natural, condicionado a existência de subsídios, e bem competitivos para a substituição de GLP. A eficiência térmica do sistema mostrou ser o parâmetro técnico chave para o desempenho econômico, consequentemente, uma vez que a eficiência se mostrou inversamente proporcional tanto ao volume do reservatório quanto à área de coletores, não há uma configuração ótima para o sistema. Não obstante, os resultados permitiram a proposição de políticas públicas para incentivar o uso da energia solar na indústria leiteira e, consequentemente, contribuir para a preservação ambiental.
Resumo:
Este trabalho teve como objetivo verificar se a técnica de impedância bioelétrica (IB) identifica as modificações da composição corporal em mulheres no período pós-parto. Participaram do estudo 47 mulheres (≥ 18 anos), nas quais foram avaliadas massa livre de gordura (MLG), massa gorda (MG) e percentual de gordura corporal (%GC) pelos equipamentos IB_Tanita BC 533; IB_RJL 101 e por absorciometria de raio X de dupla energia (DXA). Todas as avaliações foram feitas no mesmo dia. Posteriormente, as mulheres foram categorizadas em dois grupos: com perda ponderal (n= 24) e com ganho ponderal (n= 22). Os valores médios das alterações da composição corporal (CC), foram comparados intra-métodos e em relação ao método padrão-ouro (DXA) através de teste T-pareado. A concordância entre as diferenças das alterações da CC obtidas pelas IB e DXA foi avaliada pelo método de Bland & Altman e pelo coeficiente de correlação intraclasse (CCI). A média desvio padrão de idade foi de 26,7 5,2 anos e o tempo médio da captação no pós-parto para a primeira avaliação foi de 2,6 2,0 meses e 8,0 2,7 meses para a segunda avaliação. A média de massa corporal (MC) foi de 74,6 11,4 kg na primeira avaliação e 75,1 12,6 kg na segunda avaliação, correspondendo a um valor de índice de massa corporal (IMC) de 28,8 4,0 kg/m2 e 29,0 4,6 kg/m2, respectivamente. O %GC medido pela DXA foi de 40,1 4,9 % para a primeira avaliação e de 41,0 5,2 %, para a segunda avaliação, representando uma MG de 30,2 6,6 kg e de 30,9 8,0 kg, respectivamente. Ambas as IB subestimaram a alteração do % GC (-0,7 % para IB_Tanita e -1,1% para IB_RJL) e MG (-0,6 kg para IB_Tanita e -1,0 kg IB_RJL) em relação ao DXA. Por sua vez, as alterações de MLG foram superestimadas 0,8 kg pela IB_Tanita e 1,0 kg IB_RJL. Houve boa concordância (CCI ≥ 0,75) entre as alterações identificadas para MG pela IB_Tanita e por DXA e satisfatória pela IB_RJL. Dessa forma o presente estudo verificou um desempenho satisfatório da técnica de IB em identificar as alterações da MG gorda e que a IB_Tanita mostrou-se melhor que a IB_RJL na estimativa da alteração desse componente corporal nesse grupo de mulheres pós-parto.
Resumo:
No presente trabalho, foram realizados ensaios de tribocorrosão no aço inoxidável AISI 304L, no titânio comercialmente puro (CPTi) e na liga de titânio Ti6Al4V em solução aquosa de 0,90% m/v NaCl. Amostras de ligas de titânio com tratamento térmico superficial de refusão a laser também foram utilizadas. Um tribômetro do tipo pino-no-disco com contracorpo de alumina foi usado. Técnicas eletroquímicas in situ de monitoramento em circuito aberto, espectroscopia de impedância eletroquímica, curvas de polarização e amperimetria de resistência nula foram empregadas. Os resultados obtidos indicam que o desgaste tribocorrosivo das ligas de titânio é mais intenso do que o observado no aço inoxidável, apresentando perfis de superfície mais irregulares. A análise da impedância eletroquímica mostrou que todos os materiais utilizados apresentam uma rápida recuperação da camada passiva, exibindo módulos e fases um pouco menores do que os medidos antes do desgaste. Sob atrito, os diagramas de impedância apresentam uma forte redução do módulo. Sob desgaste, o expoente α do elemento de fase constante (CPE) atinge seu valor mais baixo, enquanto o parâmetro γ é máximo. As curvas de polarização exibem potenciais menores e densidades de corrente de corrosão maiores durante o desgaste. O tratamento de refusão a laser, embora mude a microestrutura e a dureza superficial das amostras, não indica uma mudança aparente nos parâmetros eletroquímicos sob tribocorrosão, bem como do coeficiente de atrito. Nos ensaios de amperimetria de resistência nula, foi possível estimar a corrente mensurada no ARN por meio do emprego de um circuito elétrico equivalente. A densidade espectral de potência dos sinais de potencial e de corrente exibe a frequência de rotação (1,25 Hz) e seus harmônicos. Para baixas frequências (abaixo de 10 mHz), o decaimento obedece à relação 1 ⁄ e 1⁄ para os sinais de potencial e corrente, respectivamente.
Resumo:
Neste trabalho apresentamos um novo método de compressão, com perda controlada de dados, que tem a vantagem de ter uma taxa significativa de compressão sem introduzir nenhuma perda superior a um parâmetro escolhido pelo usuário. Esta abordagem é uma abordagem mista, pois usa técnicas de compactação de dados tanto com perda quanto sem perda. Isto quer dizer que conseguimos um método que alia as vantagens da alta compressão, sem introduzir distorções indesejáveis nos dados. Mostramos como a massa de dados utilizada nos nossos estudos é obtida e a sua importância na prospecção de depósitos de hidrocarbonetos. É apresentado um levantamento bibliográfico com técnicas de compressão aplicadas a dados sísmicos tipicamente utilizadas em aplicações comerciais. Por fim, apresentamos os resultados da compressão utilizando o método em conjuntos de dados sísmicos reais. Para 1% de erro, os arquivos de dados sísmicos compactados passaram a ter algo próximo a 25% de seus tamanhos originais, o que representa um fator de compressão de aproximadamente 4