82 resultados para Sismicidade - Processamento de dados

em Biblioteca Digital de Teses e Dissertações Eletrônicas da UERJ


Relevância:

90.00% 90.00%

Publicador:

Resumo:

No presente trabalho foram utilizados modelos de classificação para minerar dados relacionados à aprendizagem de Matemática e ao perfil de professores do ensino fundamental. Mais especificamente, foram abordados os fatores referentes aos educadores do Estado do Rio de Janeiro que influenciam positivamente e negativamente no desempenho dos alunos do 9 ano do ensino básico nas provas de Matemática. Os dados utilizados para extrair estas informações são disponibilizados pelo Instituto Nacional de Estudos e Pesquisas Educacionais Anísio Teixeira que avalia o sistema educacional brasileiro em diversos níveis e modalidades de ensino, incluindo a Educação Básica, cuja avaliação, que foi foco deste estudo, é realizada pela Prova Brasil. A partir desta base, foi aplicado o processo de Descoberta de Conhecimento em Bancos de Dados (KDD - Knowledge Discovery in Databases), composto das etapas de preparação, mineração e pós-processamento dos dados. Os padrões foram extraídos dos modelos de classificação gerados pelas técnicas árvore de decisão, indução de regras e classificadores Bayesianos, cujos algoritmos estão implementados no software Weka (Waikato Environment for Knowledge Analysis). Além disso, foram aplicados métodos de grupos e uma metodologia para tornar as classes uniformemente distribuídas, afim de melhorar a precisão dos modelos obtidos. Os resultados apresentaram importantes fatores que contribuem para o ensino-aprendizagem de Matemática, assim como evidenciaram aspectos que comprometem negativamente o desempenho dos discentes. Por fim, os resultados extraídos fornecem ao educador e elaborador de políticas públicas fatores para uma análise que os auxiliem em posteriores tomadas de decisão.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Neste trabalho apresentamos um novo método de compressão, com perda controlada de dados, que tem a vantagem de ter uma taxa significativa de compressão sem introduzir nenhuma perda superior a um parâmetro escolhido pelo usuário. Esta abordagem é uma abordagem mista, pois usa técnicas de compactação de dados tanto com perda quanto sem perda. Isto quer dizer que conseguimos um método que alia as vantagens da alta compressão, sem introduzir distorções indesejáveis nos dados. Mostramos como a massa de dados utilizada nos nossos estudos é obtida e a sua importância na prospecção de depósitos de hidrocarbonetos. É apresentado um levantamento bibliográfico com técnicas de compressão aplicadas a dados sísmicos tipicamente utilizadas em aplicações comerciais. Por fim, apresentamos os resultados da compressão utilizando o método em conjuntos de dados sísmicos reais. Para 1% de erro, os arquivos de dados sísmicos compactados passaram a ter algo próximo a 25% de seus tamanhos originais, o que representa um fator de compressão de aproximadamente 4

Relevância:

90.00% 90.00%

Publicador:

Resumo:

No presente trabalho foram desenvolvidos modelos de classificação aplicados à mineração de dados climáticos para a previsão de eventos extremos de precipitação com uma hora de antecedência. Mais especificamente, foram utilizados dados observacionais registrados pela estação meteorológica de superfície localizada no Instituto Politécnico da Universidade do Estado do Rio de Janeiro em Nova Friburgo RJ, durante o período de 2008 a 2012. A partir desses dados foi aplicado o processo de Descoberta de Conhecimento em Banco de Dados (KDD Knowledge Discovery in Databases), composto das etapas de preparação, mineração e pós processamento dos dados. Com base no uso de algoritmos de Redes Neurais Artificiais e Árvores de Decisão para a extração de padrões que indicassem um acúmulo de precipitação maior que 10 mm na hora posterior à medição das variáveis climáticas, pôde-se notar que a utilização da observação meteorológica de micro escala para previsões de curto prazo é suscetível a altas taxas de alarmes falsos (falsos positivos). Para contornar este problema, foram utilizados dados históricos de previsões realizadas pelo Modelo Eta com resolução de 15 km, disponibilizados pelo Centro de Previsão de Tempo e Estudos Climáticos do Instituto Nacional de Pesquisas Espaciais CPTEC/INPE. De posse desses dados, foi possível calcular os índices de instabilidade relacionados à formação de situação convectiva severa na região de Nova Friburgo e então armazená-los de maneira estruturada em um banco de dados, realizando a união entre os registros de micro e meso escala. Os resultados demonstraram que a união entre as bases de dados foi de extrema importância para a redução dos índices de falsos positivos, sendo essa uma importante contribuição aos estudos meteorológicos realizados em estações meteorológicas de superfície. Por fim, o modelo com maior precisão foi utilizado para o desenvolvimento de um sistema de alertas em tempo real, que verifica, para a região estudada, a possibilidade de chuva maior que 10 mm na próxima hora.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Sistemas Multiagentes estão recebendo cada vez mais a atenção de pesquisadores e desenvolvedores de jogos virtuais. O uso de agentes permite controlar o desempenho do usuário, adaptando a interface e alterando automaticamente o nível de dificuldade das tarefas. Este trabalho descreve uma estratégia de integração de sistemas multiagentes e ambientes virtuais tridimensionais e exemplifica a viabilidade dessa integração através do desenvolvimento de um jogo com características de Serious game. Este jogo visa estimular as funções cognitivas, tais como atenção e memória e é voltado para pessoas portadoras de diferentes distúrbios neuropsiquiátricos. A construção do jogo foi apoiada em um processo de desenvolvimento composto por várias etapas: estudos teóricos sobre as áreas envolvidas, estudo de tecnologias capazes de apoiar essa integração, levantamento de requisitos com especialistas, implementação e avaliação com especialistas. O produto final foi avaliado por especialistas da área médica, que consideraram os resultados como positivos.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

A segmentação dos nomes nas suas partes constitutivas é uma etapa fundamental no processo de integração de bases de dados por meio das técnicas de vinculação de registros. Esta separação dos nomes pode ser realizada de diferentes maneiras. Este estudo teve como objetivo avaliar a utilização do Modelo Escondido de Markov (HMM) na segmentação nomes e endereços de pessoas e a eficiência desta segmentação no processo de vinculação de registros. Foram utilizadas as bases do Sistema de Informações sobre Mortalidade (SIM) e do Subsistema de Informação de Procedimentos de Alta Complexidade (APAC) do estado do Rio de Janeiro no período entre 1999 a 2004. Uma metodologia foi proposta para a segmentação de nome e endereço sendo composta por oito fases, utilizando rotinas implementadas em PL/SQL e a biblioteca JAHMM, implementação na linguagem Java de algoritmos de HMM. Uma amostra aleatória de 100 registros de cada base foi utilizada para verificar a correção do processo de segmentação por meio do modelo HMM.Para verificar o efeito da segmentação do nome por meio do HMM, três processos de vinculação foram aplicados sobre uma amostra das duas bases citadas acima, cada um deles utilizando diferentes estratégias de segmentação, a saber: 1) divisão dos nomes pela primeira parte, última parte e iniciais do nome do meio; 2) divisão do nome em cinco partes; (3) segmentação segundo o HMM. A aplicação do modelo HMM como mecanismo de segmentação obteve boa concordância quando comparado com o observador humano. As diferentes estratégias de segmentação geraram resultados bastante similares na vinculação de registros, tendo a estratégia 1 obtido um desempenho pouco melhor que as demais. Este estudo sugere que a segmentação de nomes brasileiros por meio do modelo escondido de Markov não é mais eficaz do que métodos tradicionais de segmentação.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta dissertação tem como objetivo estudar um método para estimar a velocidade de veículos ferroviários usando processamento dedeo. O sistema proposto consiste na utilização de câmeras ao longo das vias férreas que permitam não só o monitoramento do tráfego ferroviário, mas cujo vídeo captado possa ser utilizado para a obtenção de estimativas para a velocidade instantânea dos trens que por ela trafegam. Tal sistema seria utilizado independentemente dos sistemas de controle já utilizados pela operadora do sistema ferroviário, permitindo que os controladores possam ter uma segunda análise no caso de falha da primeira, assim como um modelo que permita avaliar a velocidade instantânea do veículo ferroviário ao longo do percurso. Os algoritmos de rastreamento empregados para esse fim abordaram diferentes métodos. Confrontaram-se os resultados obtidos com os algoritmos propostos com os dados empíricos de forma a determinar aquele com melhor resposta dada as características do sistema. O algoritmo que apresentou os melhores resultados emprega um único bloco de referência para todos os quadros comparados. A métrica de similaridade responsável por determinar quais blocos são mais ou menos similares dentro do universo de busca estipulado é a soma de diferenças absolutas (SAD, Sum of Absolute Differences). O tempo de processamento requerido por cada um dos métodos de rastreamento estudados também foi considerado nas avaliações de resultados apresentadas. Uma comparação realizada entre as velocidades coletadas e aquelas informadas pelo sistema de controle mostraram que os resultados obtidos com o sistema atual, utilizando a sinalização apenas por circuito de via apresenta resultados pouco confiáveis com erros bastante significativos. Os resultados obtidos com o sistema proposto apresentaram erros menores quando comparados àqueles obtidos pelo sistema vigente, apresentando-se assim como uma solução viável e de baixo custo quando comparada às técnicas atualmente empregadas para a medida de velocidade de trens.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O emprego das técnicas de posicionamento de alta-precisão e de precisão, com recurso ao Sistema de Posicionamento Global, têm se consolidado como solução definitiva para a obtenção das coordenadas de pontos sobre a superfície terrestre, nas mais diversas aplicações, em particular aquelas envolvidas na realização do cadastro em áreas urbanas e construção da base de dados associada aos Sistemas de Informação Geográfica utilizados na gestão territorial. Os receptores GPS armazenam as informações dos satélites inicialmente em formato próprio, porém a maioria dos usuários não usa esse formato para trabalho, e sim o formato RINEX. Sendo este um formato importante ao trabalhar com GPS, os softwares proprietários que geralmente acompanham os receptores e fazem a transformação de seu formato próprio para o RINEX, processam as observáveis de forma exclusiva e fechada, não permitindo alteração de seu código-fonte (o que configura uma caixa preta). Este trabalho visa elaborar e implementar um programa com código-fonte aberto para leitura e manipulação de arquivos de efemérides transmitidas e precisas do Sistema de Posicionamento Global GPS e aplicá-lo ao posicionamento de satélites artificiais, e ainda realizar um estudo do comportamento do mesmo no posicionamento geodésico de pontos na superfície terrestre. Considerando-se que a posição terrestre dos satélites influencia diretamente no cálculo da posição de pontos sobre a superfície, esse estudo verifica que é possível obter coordenadas dos satélites a partir das efemérides transmitidas de forma coerente, e isto é feito utilizando-se o processamento que o programa faz ao manipular corretamente os arquivos RINEX. O programa implementado é capaz de lidar com os arquivos de formato RINEX e SP3, lendo, extraindo e utilizando informações para uma aplicação de posicionamento terrestre de satélites artificiais GPS, podendo ainda realizar outras aplicações como o posicionamento geodésico de pontos adaptando seu código-fonte para outros modelos. Esse programa poderá ser utilizado em benefício dos profissionais que atuam em diversas aplicações que envolvam o posicionamento geodésico por satélites, proporcionando flexibilidade de trabalho, pois o programa terá código-fonte aberto.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Essa pesquisa teve como objetivo analisar a aplicabilidade de uma metodologia de investigação das disfunções existentes no conjunto de dados eleitorais de uma eleição para cargo majoritário no Brasil. O desenvolvimento e a rápida expansão da teoria descoberta por Newcomb-Benford, conhecida como Lei de Benford, bastante difundida por Mark J. Nigrini, Ph.D. no meio contábil, com a utilização de testes estatísticos, despertou o interesse por esta pesquisa. Vislumbrou-se a possibilidade de reduzir o risco de fraude eleitoral através da utilização da análise digital. Entretanto, é necessário adotar procedimentos mais acurados para que possíveis erros de aplicação do método analisado não acabem inviabilizando os efeitos benéficos trazidos pelo mesmo. A probabilidade de ocorrência do erro tipo I alarme falso pode levar ao aumento de custo na análise dos dados. Um dos maiores problemas encontrados em auditorias, contábeis ou não, diz respeito à falha na obtenção de evidências. No Brasil, a partir da utilização de sistema de processamento eletrônico de votação, houve um aumento da preocupação com a fraude, visto que não existe ainda um procedimento que permita verificar, por trilha de auditoria, a confiabilidade dos dados eleitorais. Para atingir o objetivo da pesquisa, foi realizada a aplicação do método estudado em um conjunto de dados relativos à eleição para cargo majoritário Presidente da República do Brasil - no ano de 2010, e a posterior análise dos resultados obtidos. Então, a partir dos resultados obtidos, pode-se sugerir a aplicabilidade da Lei de Benford, em especial o teste do 2 dígito, para a detecção de manipulação ou fraude no conjunto de dados eleitorais.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este texto verificou o tema de monitoramento de processos de produção de petróleo em plataformas no mar de forma a propor indicadores globais para monitoramento da funcionalidade dos equipamentos que envolvem estes processos, permitindo a antecipação da tomada de decisão sobre suas eminentes quedas de disponibilidade. Para tal, buscando conhecer as áreas envolvidas na gestão de uma plataforma de petróleo no mar, foram identificados os principais sistemas relacionados ao processo de produção de petróleo e optou-se pelo Sistema de Separação e Tratamento de Óleo para desenvolvimento e validação dos indicadores propostos. O Indicador Global de Funcionalidade Operacional (IGFO) foi desenvolvido a partir dos dados disponíveis para monitoramento dos processos de produção de petróleo, focado nas visões das principais áreas envolvidas na gestão da plataforma. Este indicador foi elaborado com objetivo de simplificar a análise dos processos, permitindo assim aferir o desempenho das ações de monitoramento de processos em plataformas de petróleo, de modo a atuar de forma antecipativa, contribuindo com a identificação e a disseminação das melhores práticas de manutenção preditiva. Neste aspecto, os indicadores na forma de normalização utilizada permitem comparações em diversos níveis, tanto em relação as plataformas dentro de uma empresa, como plataformas de empresas diferentes. Os indicadores globais propostos obtiveram resultados que permitiram avaliar a queda de funcionalidade dos equipamentos do Sistema de Separação e Tratamento de Óleo durante o período avaliado, servindo de base para identificação das causas das falhas destes equipamentos. Assim sendo, pôde-se perceber que a utilização dos indicadores globais identificados pode responder com sucesso às necessidades propostas

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho apresenta a proposta de um middleware, chamado DistributedCL, que torna transparente o processamento paralelo em GPUs distribuídas. Com o suporte do middleware DistributedCL uma aplicação, preparada para utilizar a API OpenCL, pode executar de forma distribuída, utilizando GPUs remotas, de forma transparente e sem necessidade de alteração ou nova compilação do seu código. A arquitetura proposta para o middleware DistributedCL é modular, com camadas bem definidas e um protótipo foi construído de acordo com a arquitetura, onde foram empregados vários pontos de otimização, incluindo o envio de dados em lotes, comunicação assíncrona via rede e chamada assíncrona da API OpenCL. O protótipo do middleware DistributedCL foi avaliado com o uso de benchmarks disponíveis e também foi desenvolvido o benchmark CLBench, para avaliação de acordo com a quantidade dos dados. O desempenho do protótipo se mostrou bom, superior às propostas semelhantes, tendo alguns resultados próximos do ideal, sendo o tamanho dos dados para transmissão através da rede o maior fator limitante.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A renderização de volume direta tornou-se uma técnica popular para visualização volumétrica de dados extraídos de fontes como simulações científicas, funções analíticas, scanners médicos, entre outras. Algoritmos de renderização de volume, como o raycasting, produzem imagens de alta qualidade. O seu uso, contudo, é limitado devido à alta demanda de processamento computacional e o alto uso de memória. Nesse trabalho, propomos uma nova implementação do algoritmo de raycasting que aproveita a arquitetura altamente paralela do processador Cell Broadband Engine, com seus 9 núcleos heterogêneos, que permitem renderização eficiente em malhas irregulares de dados. O poder computacional do processador Cell BE demanda um modelo de programação diferente. Aplicações precisam ser reescritas para explorar o potencial completo do processador Cell, que requer o uso de multithreading e código vetorizado. Em nossa abordagem, enfrentamos esse problema distribuindo a computação de cada raio incidente nas faces visíveis do volume entre os núcleos do processador, e vetorizando as operações da integral de iluminação em cada um. Os resultados experimentais mostram que podemos obter bons speedups reduzindo o tempo total de renderização de forma significativa.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A reação álcali-agregado - RAA é uma patologia de ação lenta que tem sido observada em construções de concreto capaz de comprometer suas estruturas. Sabe-se que a reação álcali-agregado é um fenômeno bastante complexo em virtude da grande variedade de rochas na natureza que são empregadas como agregados no preparo do concreto, podendo cada mineral utilizado afetar de forma distinta a reação ocorrida. Em função dos tipos de estrutura, das suas condições de exposição e dos materiais empregados, a RAA não se comporta sempre da mesma forma, em virtude disto a pesquisa constante neste tema é necessária para o meio técnico e a sociedade. Pesquisas laboratoriais, empíricas e experimentais tem sido rotina em muitos dos estudos da RAA dada ainda à carência de certas definições mais precisas a respeito dos métodos de ensaio, mas também em função da necessidade do melhor conhecimento dos materiais de uso em concretos como os agregados, cimentos, adições, aditivos entre outros e do comportamento da estrutura. Embora técnicas de prevenção possam reduzir significativamente a incidência da RAA, muitas estruturas foram construídas antes que tais medidas fossem conhecidas, havendo no Brasil vários casos de estruturas afetadas, sendo custosos os reparos dessas estruturas. Em estudos recentes sobre o tamanho das partículas de álcali-agregado e sua distribuição foi concluído que o tamanho do agregado está relacionado com o potencial danoso da RAA. Existem ainda indícios de que o tamanho e a distribuição dos poros do concreto também sejam capazes de influenciar o potencial reativo do concreto. Neste trabalho desenvolvemos um Sistema de Visão Artificial (SVA) que, com o uso de técnicas de Processamento de Imagens, é capaz de identificar em imagens de concreto, agregado e poros que atendam em sua forma, às especificações do usuário, possibilitando o cálculo da porosidade e produzindo imagens segmentadas à partir das quais será possível extrair dados relativos à geometria desses elementos. Serão feitas duas abordagens para a obtenção das imagens, uma por Escâner Comercial, que possui vantagens relacionadas à facilidade de aquisição do equipamento, e outra por micro tomógrafo. Uma vez obtidas informações sobre as amostras de concreto, estas podem ser utilizadas para pesquisar a RAA, comparar estruturas de risco com estruturas antigas de forma a melhorar a previsão de risco de ocorrência, bem como serem aplicadas a outras no estudo de outras patologias do concreto menos comuns no nosso país, como o efeito gelo/degelo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A área estudada está inserida na Faixa Ribeira, Segmento Central da Província Mantiqueira (Almeida et al., 1973, 1977, 1981), que representa um cinturão de dobramentos e empurrões gerado no Neo-proterozóico/Cambriano, durante a Orogênese Brasiliana, na borda sul/sudeste do Cráton do São Francisco (Almeida, 1971, 1977; Cordani et al., 1967, 1973; Cordani & Brito Neves, 1982; Teixeira & Figueiredo, 1991). Neste contexto, o Complexo Quirino é o embasamento retrabalhado do Terreno Paraíba do Sul (Heilbron et al., 2004). O Complexo Quirino é formado por extensos corpos de ortognaisses foliados a homogêneos, leuco a mesocráticos, de granulometria média à grossa, composicionalmente variando entre granitóides tonalíticos/granodioríticos a graníticos, e apresentando enclaves de rochas ultramáficas, máficas e cálcio-silicáticas (ricas em tremolita). Os ortognaisses tonalíticos/granodioríticos apresentam porfiroblastos de plagioclásio e a hornblenda como máfico principal, contrastando com os de composição granítica que apresentam porfiroblastos de K-feldspato e biotita predominante. Como acessórios aparecem zircão, titanita, apatita e epidoto. Também estão associados a estes ortognaisses, granitóides neoproterozóicos que formam corpos individualizados ou lentes anatéticas no conjunto paleoproterozóico. Estes são compostos predominantemente por biotita gnaisse e hornblenda-biotita gnaisse. A análise litogeoquímicas dos ortognaisses do Complexo Quirino demonstrou a existência de duas séries magmáticas distintas. A primeira pertencente à série cálcio-alcalina de alto-K apresenta uma composição mais expandida granítica-adamelítica/granodioritica/tonalítica e é correlacionável aos bt-ortognaisses e alguns hb-bt-ortognaisses. Os ortognaisses da série médio-K apresentam composição predominantemente tonalítica, sendo correlacionáveis à maioria dos hornblenda-biotita gnaisses. Enclaves lenticulares de metapiroxeníticos e anfibolíticos ocorrem em muitos afloramentos. Também ocorrem granitóides neoproterozóicos de composição graníticas a quartzo-monzoníticas O estudo isotópico de Sm-Nd e Sr demonstrou que os ortognaisses da série cálcio-alcalina de alto-K e aqueles da série cálcio-alcalina de médio-K possuem idades modelo TDM variando entre paleoproterozóicas a arqueanas, consistentes com dados U-Pb em zircão publicados na literatura. A série cálcio-alcalina de alto-K é mais antiga (2308 9,2 Ma a 2185 8 Ma) do que a série calcio-alcalina de médio-K (2169 3 a 2136 14 Ma) e a existência de zircões herdados com idades mínimas de 2846 Ma e 2981 Ma para série de médio-K e 3388 16 para série de alto-K. Os granitóides brasilianos possuem idades de cristalização neoproterozóica correlacionada a Orogênese Brasiliana (602 a 627 Ma) (Viana, 2008; Valladares et al., 2002)./Com base nos dados de Sr e Sm-Nd foi possível caracterizar 4 grupos distintos. Os grupos 1 e 2 são formados por rochas de idade paleoproterozóica (2,1 a 2,3 Ga) com idades modelo TDM variando de 2,9 e 3,4 Ga, εNd entre -8,1 e -5,8 e 87Sr/86Sr(t) = 0,694707 (Grupo 1) e TDM variando de 2,5 a 2,7 Ga, εNd entre -5,8 e -3,1 e 87Sr/86Sr(t) = 0,680824 (Grupo 2), formados no paleoproterozóico com contribuição de uma crosta arqueana. O grupo 3 é formado por rochas juvenis de idade paleoproterozóica, com idades de cristalização variando entre 2,0 e 2,2 Ga e com idades modelo TDM variando de 2,1 a 2,2 Ga e εNd entre + 1,5 e + 1,2. O grupo 4 é formado durante o neoproterozóico (645 Ma) por rochas possivelmente de idade paleoproterozóico com idades modelo TDM igual a 1,7 Ga e εNd igual a -8,3.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O fator de compressibilidade (Z) de gás natural é utilizado em vários cálculos na engenharia de petróleo (avaliação de formações, perda de carga em tubulações, gradiente de pressão em poços de gás, cálculos de balanço de massa, medição de gás, compressão e processamento de gás). As fontes mais comuns de valores de Z são medições experimentais, caras e demoradas. Essa propriedade também é estimada por correlações empíricas, modelos baseados no princípio dos estados correspondentes ou equações de estado (EOS). Foram avaliadas as capacidades das EOS de Soave-Redlich-Kwong (SRK), Peng-Robinson (PR), Patel-Teja (PT), Patel-Teja-Valderrama (PTV), Schmidt-Wenzel (SW), Lawal-Lake-Silberberg (LLS) e AGA-8 para previsão desta propriedade em aproximadamente 2200 pontos de dados experimentais. Estes pontos foram divididos em quatro grupos: Grupo 1 (Presença de frações C7+, Grupo 2 (temperaturas inferiores a 258,15 K), Grupo 3 (pressões superiores a 10000 kPa) e Grupo 4 (pressões inferiores a 10000 kPa). Os cálculos utilizando as equações de estado sob diferentes esquemas de previsão de coeficientes binários de interação foram cuidadosamente investigados. Os resultados sugerem que a EOS AGA-8 apresenta os menores erros para pressões de até 70000 kPa. Entretanto, observou-se uma tendência de aumento nos desvios médios absolutos em função das concentrações de CO2 e H2S. As EOS PTV e a EOS SW são capazes de predizer o fator de compressibilidade (Z) com desvios médios absolutos entre os valores calculados e experimentais com precisão satisfatória para a maioria das aplicações, para uma variada faixa de temperatura e pressão. Este estudo também apresenta uma avaliação de 224 métodos de cálculo de Z onde foram utilizadas 8 correlações combinadas com 4 regras de mistura para estimativa de temperaturas e pressões pseudorreduzidas das amostras, junto com 7 métodos de caracterização das propriedades críticas da fração C7+, quando presente na composição do gás. Em função dos resultados são sugeridas, para diferentes tipos de sistemas, as melhores combinações de correlações com regras de mistura capazes de predizer fatores de compressibilidade (Z) com os menores erros absolutos médios relativos

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Copolímeros casca-núcleo de poli(acrilato de butila) (núcleo) e poliestireno (casca) foram sintetizados por meio de polimerização em emulsão, conduzida em duas etapas. A adição de ácido itacônico como monômero funcional na polimerização do núcleo foi realizada para verificar seu efeito sobre suas propriedades mecânicas e de processamento. Os copolímeros foram caracterizados por espalhamento dinâmico de luz (DLS), microscopia eletrônica de transmissão (MET), cromatografia de exclusão por tamanho (SEC), espectrometria na região do infravermelho (FTIR) e calorimetria diferencial por varredura (DSC). A incorporação do monômero funcional foi confirmada por DSC e quantificada por titulação. A proporção de poli(acrilato de butila) e poliestireno influenciou diretamente o processamento e as propriedades mecânicas do polímero. Os copolímeros com teores de poliestireno acima de 50% foram processados por compressão e extrusão a temperatura ambiente, apresentando comportamento baroplástico. A presença do monômero funcional não alterou o processamento do polímero e melhorou significativamente sua resistência à tração, aumentando sua tenacidade