54 resultados para Modelos computacionais
Resumo:
O uso de modelos de estudo dentários faz parte tanto da prática quanto da pesquisa odontológica e ortodôntica. Com a introdução dos scanners 3D e dos tomógrafos CBCT (cone beam computer tomography) tornou-se possível a obtenção de modelos dentários tridimensionais virtuais das arcadas dentárias. Foram selecionados 56 modelos dentários superiores e escaneados em três tipos diferentes de scanners: Maestro 3D Dental Scanner (AGE Solutions, Potedera, Italia), 3Shape R700 3D Scanner (3Shape, Copenhagen, Dinamarca) e o scanner 3Shape TRIOS (3Shape, Copenhagen, Dinamarca). Doze medidas foram realizadas nos modelos dentários de gesso e comparadas com as mesmas medidas realizadas nos modelos dentários digitais por meio do teste de Análise de Variância (ANOVA). Estatisticamente não foram encontradas diferenças significativas entre as medições tradicionais nos modelos dentários de gesso e as medidas realizadas nos modelos dentários digitais. Os três tipos de métodos de aquisição de modelos dentários digitais foram considerados confiáveis para as medições horizontais, transversais e verticais. Os modelos dentários virtuais podem ser indicados como substitutos dos modelos dentários de gesso.
Resumo:
A presente Tese de Doutorado analisa as características e os efeitos da cientometria e bibliometria adotadas no Brasil. Primeiramente, a fim de contextualizar o tema, faço uma revisão de literatura acerca do processo de mercantilização da educação. Meu objetivo é mostrar a inclinação empresarial das políticas públicas educacionais, especialmente aquelas voltadas para a pós-graduação. Além disso, seleciono e analiso alguns conceitos que ajudam a compreender o presente tema, bem como sustento a inadequação da lógica de economia de mercado como forma de gerir a Academia e a ciência. Na segunda parte da Tese, focalizo os critérios adotados para avaliar a hierarquizar Programas de Pós-Graduação e diferenciar pesquisadores. A tese a ser defendida é que o modelo CAPES de avaliação da pós-graduação está baseado numa norma produtividade de cunho periodicocrático que cria uma forte pressão por publicação de artigos em periódicos acadêmico-científicos, uma vez que eles os produtos privilegiados no modelo de mensuração objetivista em vigor. Produzir/publicar artigos torna-se, portanto, a performance acadêmico-científica por excelência. Isso enseja a criação de um mercado acadêmico-científico e de um mercado de publicações, o que cria um contexto propício para a ocorrência de más condutas acadêmico-científicas
Resumo:
A segmentação dos nomes nas suas partes constitutivas é uma etapa fundamental no processo de integração de bases de dados por meio das técnicas de vinculação de registros. Esta separação dos nomes pode ser realizada de diferentes maneiras. Este estudo teve como objetivo avaliar a utilização do Modelo Escondido de Markov (HMM) na segmentação nomes e endereços de pessoas e a eficiência desta segmentação no processo de vinculação de registros. Foram utilizadas as bases do Sistema de Informações sobre Mortalidade (SIM) e do Subsistema de Informação de Procedimentos de Alta Complexidade (APAC) do estado do Rio de Janeiro no período entre 1999 a 2004. Uma metodologia foi proposta para a segmentação de nome e endereço sendo composta por oito fases, utilizando rotinas implementadas em PL/SQL e a biblioteca JAHMM, implementação na linguagem Java de algoritmos de HMM. Uma amostra aleatória de 100 registros de cada base foi utilizada para verificar a correção do processo de segmentação por meio do modelo HMM.Para verificar o efeito da segmentação do nome por meio do HMM, três processos de vinculação foram aplicados sobre uma amostra das duas bases citadas acima, cada um deles utilizando diferentes estratégias de segmentação, a saber: 1) divisão dos nomes pela primeira parte, última parte e iniciais do nome do meio; 2) divisão do nome em cinco partes; (3) segmentação segundo o HMM. A aplicação do modelo HMM como mecanismo de segmentação obteve boa concordância quando comparado com o observador humano. As diferentes estratégias de segmentação geraram resultados bastante similares na vinculação de registros, tendo a estratégia 1 obtido um desempenho pouco melhor que as demais. Este estudo sugere que a segmentação de nomes brasileiros por meio do modelo escondido de Markov não é mais eficaz do que métodos tradicionais de segmentação.
Resumo:
As estatinas são fármacos inibidores competitivos da enzima hidroxi-3-metil-glutaril Coenzima A (HMGCoA) redutase, amplamente utilizados para o controle da hipercolesterolemia total e, em especial, para a redução dos níveis séricos de LDLc (Low Density Lipoprotein cholesterol). Além do efeito primário, esses fármacos apresentam vários efeitos secundários, chamados de efeitos pleiotrópicos, envolvendo atividade anti-inflamatória, antitumoral e antiparasitária. Para o desenvolvimento de inovações na área de química medicinal é imprescindível avaliar o risco de efeitos adversos para saúde ou, em outras palavras, a segurança terapêutica do novo produto nas condições propostas de uso. Nesse sentido, o objetivo desse trabalho foi investigar a genotoxicidade de quatro análogos inibidores da biossíntese de lipídios, da classe das estatinas, em modelos experimentais in vitro, testados previamente contra o clone W2 de Plasmodium falciparum a fim de se obter o IC50 dessas moléculas frente ao patógeno. Foram desenvolvidas quatro novas moléculas (PCSR02.001, PCSR09.001, PCSR08.002 e PCSR10.002). Para a avaliação da toxicidade, foram realizados o teste de mutagenicidade bacteriana (teste de Ames), o ensaio de viabilidade celular utilizando o reagente WST-1 e o ensaio de indução de micronúcleos, ambos utilizando uma linhagem ovariana (CHO-K1) e uma linhagem hepática (HepG2). Levando em conta o fato de nenhuma das amostras ter induzido efeitos mutagênicos nas linhagens de S. enterica sorovar Typhimurium, e PCSR10.002 ter apresentado citotoxicidade sugere-se então que este composto seja o mais tóxico. Comparativamente, PCSR10.002 foi mais genotóxico e citotóxico para a linhagem CHO-K1 do que para a linhagem HepG2. PCSR02.001 apresentou elevado potencial genotóxico para células ovarianas, mas não foi capaz de induzir a formação de micronúcleos em células hepáticas, apresentando, portanto um perfil similar ao observado em PCSR10.002. Assim como a atorvastatina, PCSR09.001 apresentou elevado potencial pró-apoptótico para a linhagem de hepatócitos. Já PCSR08.002, apresentou aumento na apoptose de CHO-K1. A indução de apoptose não é necessariamente um evento negativo, já que é pouco lesiva e responsável pela eliminação de células danificadas. Porém, as respostas de apoptose induzidas por esse composto foram muito inferiores àquelas induzidas pela atorvastatina (cerca de 4 vezes menor que a atorvastatina). PCSR08.002 foi aquele se mostrou menos tóxico e essa amostra foi a que teve menor risco relativo, em uma análise global das respostas de citotoxicidade e não demonstrou ter potencial genotóxico para as linhagens utilizadas nesse estudo. Conclui-se, portanto, que a análise da atividade toxicológica utilizando modelos experimentais in vitro dessas estatinas constitui um importante passo para o estabelecimento de novos candidatos à fármacos com maior segurança.
Resumo:
Passarelas de pedestres mistas (aço-concreto) e de aço são frequentemente submetidas a ações dinâmicas de magnitude variável, devido à travessia de pedestres sobre a laje de concreto. Estas ações dinâmicas podem produzir vibrações excessivas e dependendo de sua magnitude e intensidade, estes efeitos adversos podem comprometer a confiabilidade e a resposta do sistema estrutural e, também, podem levar a uma redução da expectativa de vida útil da passarela. Por outro lado, a experiência e o conhecimento dos engenheiros estruturais em conjunto com o uso de novos materiais e tecnologias construtivas têm produzido projetos de passarelas mistas (aço-concreto) bastante arrojados. Uma consequência direta desta tendência de projeto é um aumento considerável das vibrações estruturais. Com base neste cenário, esta dissertação visa investigar o comportamento dinâmico de três passarelas de pedestres mistas (aço-concreto) localizadas no Rio de Janeiro, submetidas ao caminhar humano. Estes sistemas estruturais são constituídos por uma estrutura principal de aço e laje em concreto e são destinados à travessia de pedestres. Deste modo, foram desenvolvidos modelos numérico-computacionais, adotando-se as técnicas tradicionais de refinamento presentes em simulações do método de elementos finitos, com base no uso do software ANSYS. Estes modelos numéricos permitiram uma completa avaliação dinâmica das passarelas investigadas, especialmente em termos de conforto humano. As respostas dinâmicas foram obtidas em termos de acelerações de pico e comparadas com valores limites propostas por diversos autores e normas de projeto. Os valores de aceleração de pico e aceleração rms encontrados na presente investigação indicaram que as passarelas analisadas apresentaram problemas relacionados com o conforto humano. Assim sendo, considerando-se que foi detectado que estas estruturas poderiam atingir níveis elevados de vibração que possam vir a comprometer o conforto dos usuários, foi verificado que uma estratégia para o controle estrutural era necessária, a fim de reduzir as vibrações excessivas nas passarelas. Finalmente, uma investigação foi realizada com base em alternativas de controle estrutural objetivando atenuar vibrações excessivas, a partir do emprego de sistemas de atenuadores dinâmicos sintonizados (ADS).
Resumo:
Em engenharia, a modelagem computacional desempenha um papel importante na concepção de produtos e no desenvolvimento de técnicas de atenuação de ruído. Nesse contexto, esta tese investiga a intensidade acústica gerada pela radiação sonora de superfícies vibrantes. De modo específico, a pesquisa enfoca a identificação das regiões de uma fonte sonora que contribuem efetivamente para potência sonora radiada para o campo afastado, quando a frequência de excitação ocorre abaixo da frequência crítica de coincidência. São descritas as fundamentações teóricas de duas diferentes abordagens. A primeira delas, denominada intensidade supersônica (analítica) é calculada via transformadas de Fourier para fontes sonoras com geometrias separáveis. A segunda, denominada intensidade útil (numérica) é calculada através do método dos elementos de contorno clássico para fontes com geometrias arbitrárias. Em ambas, a identificação das regiões é feita pela filtragem das ondas não propagantes (evanescentes). O trabalho está centrado em duas propostas, a saber. A primeira delas, é a apresentação implementação e análise de uma nova técnica numérica para o cálculo da grandeza intensidade útil. Essa técnica constitui uma variante do método dos elementos de contorno (MEC), tendo como base o fato de as aproximações para as variáveis acústicas pressão e velocidade normal serem tomadas como constantes em cada elemento. E também no modo peculiar de obter a velocidade constante através da média de um certo número de velocidades interiores a cada elemento. Por esse motivo, a técnica recebe o nome de método de elemento de contorno com velocidade média (AVBEMAverage Velocity Boundary Element Method). A segunda, é a obtenção da solução forma fechada do campo de velocidade normal para placas retangulares com oito diferentes combinações de condições contorno clássicas. Então, a intensidade supersônica é estimada e comparada à intensidade acústica. Nos ensaios numéricos, a comparação da intensidade útil obtida via MEC clássico e via AVBEM é mostrada para ilustrar a eficiência computacional da técnica aqui proposta, que traz como benefício adicional o fato de poder ser utilizada uma malha menos refinada para as simulações e, consequentemente, economia significativa de recursos computacionais.
Resumo:
Esta pesquisa tem como finalidade explorar os recursos de interação do usuário com a informação georreferenciada, utilizando o próprio ambiente físico e seus elementos como interface. A indexação geográfica de arquivos digitais e os recursos disponíveis pela computação móvel estabeleceram um novo modelo de interação com a informação. Cabe ao designer criar sistemas e interfaces que levem em consideração a localização do usuário no acesso da informação atribuída ao entorno. Foi identificado que as soluções desenvolvidas para esse propósito utilizam telas e outros aparatos tecnológicos que constrangem a relação do usuário com o ambiente e interferem na experiência interativa. Como desdobramento da pesquisa foi desenvolvido um aplicativo que dispensa a tela na visualização e interação com a camada informacional do ambiente físico. O sistema utiliza os sensores de localização e orientação presentes nos smartphones para interagir com o entorno mapeado e georreferenciado. Dessa forma, o usuário, ao apontar o aparelho e selecionar diretamente o objeto de interesse, recebe os dados atribuídos a ele. Sem a interferência de telas ou dispositivos imersivos, o próprio ambiente se apresenta como interface de interação, dispensando novos ícones ou símbolos e tornando a tecnologia mais sutil em seu uso cotidiano.
Resumo:
O aumento da prevalência da obesidade e osteoporose, bem como a identificação de mecanismos comuns que ligam a osteogênese e a adipogênese, sugerem que a obesidade e osteoporose podem ser distúrbios relacionados, e além disso, ambos podem ter suas origens no início da vida. Em 3 modelos diferentes de plasticidade ontogenética foi observado obesidade na vida adulta. Sendo assim, o objetivo deste trabalho foi investigar o impacto desses 3 modelos, o desmame precoce mecânico (DPM) e o farmacológico (DPF), e a supernutrição neonatal (SN) no tecido ósseo da prole durante o desenvolvimento. Para tanto, 2 experimentos foram realizados. No experimento 1, ratas lactantes foram divididas em 3 grupos: controle - os filhotes tiveram livre acesso ao leite durante toda a lactação; DPM - as mães foram envolvidas com uma atadura nos últimos 3 dias de lactação; DPF - as mães foram tratadas com bromocriptina (0,5 mg/duas vezes/dia) 3 dias antes do desmame padrão. No experimento 2, o tamanho da ninhada foi reduzido para 3 filhotes machos no 3o dia de lactação até o desmame (SN); o grupo controle permaneceu com 10 filhotes durante toda a lactação. Realizou-se absorciometria de raios-x de dupla energia, tomografia computadorizada, microtomografia computadorizada, teste biomecânico e análises séricas. Os dados foram considerados significativos quando P<0,05. No experimento 1, ao desmame, os filhotes DPM e DPF apresentaram menor massa corporal, massa gorda, densidade mineral óssea total (DMO), conteúdo mineral ósseo total (CMO), área óssea e osteocalcina sérica, e maior telopeptídeo carboxi-terminal do colágeno tipo I (CTX-I). O cálcio ionizado sérico foi menor apenas na prole DPM, a 25-hidroxivitamina D (25(OH)D) foi maior e o PTH menor apenas na prole DPF. Aos 180 dias, as proles DPM e DPF apresentaram maior massa corporal, maior massa de gordura visceral, hiperleptinemia, maior 25(OH)D e menor CTX-I. Ambos os grupos apresentaram aumento da DMO total, do CMO, da DMO da coluna vertebral e da área óssea aos 150 e 180 dias de idade. Nas avaliações ósseas individuais, as proles DPM e DPF também apresentaram aumento da DMO do fêmur e da vértebra lombar, da radiodensidade da cabeça femoral e do corpo vertebral; melhora da microarquitetura trabecular óssea e da resistência óssea. No experimento 2, observamos aumento da massa corporal, da massa gorda e da massa magra, do CMO e da área óssea no grupo SN desde o desmame até a idade adulta. Aos 180 dias, a prole SN também apresentou aumento da DMO total, da DMO do fêmur e da vértebra lombar, da radiodensidade da cabeça femoral e do corpo vertebral; melhora da microarquitetura trabecular óssea e da resistência óssea, maior osteocalcina e menor CTX-I. Demonstramos que, apesar de fatores de imprinting opostos, ambos os modelos causam melhora da massa, do metabolismo, da qualidade e da resistência óssea. Porém, parece que este efeito protetor sobre o tecido ósseo não é um resultado direto da programação deste tecido, mas sim consequência das alterações fisiopatológicas da obesidade programada pelos três modelos.
Resumo:
A operação de coleta e transporte de resíduos sólidos urbanos é indispensável dentro de quaisquer sistema de limpeza urbana. É necessário que se intensifique a pesquisa nessa área de conhecimento afim de produzir-se material de auxílio ao poder público municipal e o setor privado. Deste modo o objetivo geral deste trabalho é o estudo da utilização de ferramentas computacionais para a otimização dos roteiros dos serviços de coleta de resíduos sólidos domiciliares. Foi feito um comparativo entre os itinerários percorridos pelos caminhões de coleta quando dimensionados de forma empírica e quando dimensionados com o auxílio de ferramentas computacionais. Verificou-se as vantagens e desvantagens de cada modelo de dimensionamento e o grande potencial de redução de custos quando utilizadas ferramentas computacionais.
Resumo:
A utilização do metano (CH4) presente no biogás gerado através da degradação anaeróbica de resíduos orgânicos depositados em aterros sanitários como fonte de energia é uma tecnologia em expansão, principalmente nos países em desenvolvimento. Para assegurar um melhor aproveitamento do CH4 e a viabilidade econômica do projeto de exploração energética é necessário que estes empreendimentos avaliem sua capacidade de produzir este gás com o passar dos anos, mesmo após o encerramento da deposição de resíduos. O potencial de geração é comumente estimado a partir de modelos cinéticos de primeira ordem propostos por conceituadas instituições, entretanto, estudos recentes apontam alto grau de incerteza e diferenças relevantes entre os resultados obtidos com cada metodologia. Este trabalho tem por objetivo analisar a variação dos resultados das estimativas de emissão de metano dos modelos recomendados pela USEPA, Banco Mundial (Scholl Canyon) e IPCC utilizando tanto dados e informações disponibilizadas do aterro sanitário Moskogen, localizado em Kalmar, Suécia, que foi operado entre 1977 e 2008. Além de estimar a capacidade de geração de CH4, objetiva-se identificar qual o modelo cujas estimativas mais se aproximam dos dados de biogás efetivamente medidos e quanto gás ainda pode ser extraído do aterro. O estudo ainda avaliou como valores diferentes para os parâmetros principais dos modelos afetam a estimativa de geração final. O modelo IPCC mostrou-se o mais confiável dentre os analisados, estimando que o aterro Moskogen produza mais de 102 milhões de m de CH4 entre 1977 e 2100, sendo 39,384 milhões passíveis de extração de 2012 a 2100. Os demais modelos apresentaram premissas inadequadas com a realidade do aterro sanitário estudado. Contudo, mesmo com a superioridade do modelo proposto pelo IPCC, maiores estudos são necessários no local, que levantem outras informações de campo como a vazão passiva de gás pela camada de cobertura do aterro e uma melhor estimativa do percentual de material orgânico biodegradável presente em cada fração de resíduos depositada em Moskogen.
Resumo:
Esta é uma pesquisa sobre o uso de metáforas na construção de modelos por parte do físico escocês James Clerk Maxwell. O objetivo da pesquisa foi buscar compreender de que maneira o uso de metáforas e modelos é legítimo na ciência e em que medida contribui para seu sucesso. Além disso, busca compreender em que medida o uso de artifícios como modelos e analogias entre ramos distintos da ciência são impulsionadores de sucesso explicativo e preditivo da teoria do físico estudado. Explora as crenças teológicas e filosóficas do autor, que vê o mundo como unidade, permitindo a analogia entre ramos distintos da física. Seus desenvolvimentos em torno de teorias como calor, cores, óptica, magnetismo e eletricidade permitem evidenciar essa visão em todo o seu trabalho. Maxwell é considerado inaugurador de nova metodologia com o uso de modelos e metáforas. Explora o desenvolvimento da teoria das cores, da descrição matemática da estabilidade dos anéis de Saturno e o desenvolvimento da teoria dos gases como preâmbulo à discussão da teoria do eletromagnetismo. Descreve o desenvolvimento teórico do eletromagnetismo em seus diversos momentos. A construção da teoria do eletromagnetismo evidencia paulatino abandono do mecanicismo, uso intenso de modelos e metáforas temporários e ênfase na quantificação e no uso de experimentos. Discute o relacionamento de Maxwell com as discussões filosóficas, sociais e teológicas de sua época, seu engajamento em atividades práticas nesse sentido e suas influências científicas e filosóficas. Descreve e discute os textos filosóficos do cientista, em que se evidenciam sua ontologia, suas crenças teológicas e sua concepção de analogias. Discute a questão do uso de analogias em ciência e compara diversos autores que abordam o tema. A metodologia utilizada foi a de levantamento bibliográfico com análise crítica da literatura do autor e de seus comentadores, além de comentário crítico sobre os textos primários e secundários. Conclui que o sucesso científico de Maxwell deve-se à sua aposta numa unidade do mundo garantida por Deus, bem como na unidade entre o mundo e a mente humana, posturas que mostraram ser bem-sucedidas quando aplicadas à metodologia científica. Conclui também pela legitimidade e necessidade do uso de metáforas e modelos no empreendimento científico.
Resumo:
Uma simulação numérica que leva em conta os efeitos de estratificação e mistura escalar (como a temperatura, salinidade ou substância solúvel em água) é necessária para estudar e prever os impactos ambientais que um reservatório de usina hidrelétrica pode produzir. Este trabalho sugere uma metodologia para o estudo de escoamentos ambientais, principalmente aqueles em que o conhecimento da interação entre a estratificação e mistura pode dar noções importantes dos fenômenos que ocorrem. Por esta razão, ferramentas de simulação numérica 3D de escoamento ambiental são desenvolvidas. Um gerador de malha de tetraedros do reservatório e o modelo de turbulência algébrico baseado no número de Richardson são as principais ferramentas desenvolvidas. A principal dificuldade na geração de uma malha de tetraedros de um reservatório é a distribuição não uniforme dos pontos relacionada com a relação desproporcional entre as escalas horizontais e verticais do reservatório. Neste tipo de distribuição de pontos, o algoritmo convencional de geração de malha de tetraedros pode tornar-se instável. Por esta razão, um gerador de malha não estruturada de tetraedros é desenvolvido e a metodologia utilizada para obter elementos conformes é descrita. A geração de malha superficial de triângulos utilizando a triangulação Delaunay e a construção do tetraedros a partir da malha triangular são os principais passos para o gerador de malha. A simulação hidrodinâmica com o modelo de turbulência fornece uma ferramenta útil e computacionalmente viável para fins de engenharia. Além disso, o modelo de turbulência baseado no número de Richardson leva em conta os efeitos da interação entre turbulência e estratificação. O modelo algébrico é o mais simples entre os diversos modelos de turbulência. Mas, fornece resultados realistas com o ajuste de uma pequena quantidade de parâmetros. São incorporados os modelos de viscosidade/difusividade turbulenta para escoamento estratificado. Na aproximação das equações médias de Reynolds e transporte de escalar é utilizando o Método dos Elementos Finitos. Os termos convectivos são aproximados utilizando o método semi-Lagrangeano, e a aproximação espacial é baseada no método de Galerkin. Os resultados computacionais são comparados com os resultados disponíveis na literatura. E, finalmente, a simulação de escoamento em um braço de reservatório é apresentada.
Resumo:
O atual nível das mudanças uso do solo causa impactos nas mudanças ambientais globais. Os processos de mudanças do uso e cobertura do solo são processos complexos e não acontecem ao acaso sobre uma região. Geralmente estas mudanças são determinadas localmente, regionalmente ou globalmente por fatores geográficos, ambientais, sociais, econômicos e políticos interagindo em diversas escalas temporais e espaciais. Parte desta complexidade é capturada por modelos de simulação de mudanças do uso e cobertura do solo. Uma etapa do processo de simulação do modelo CLUE-S é a quantificação da influência local dos impulsores de mudança sobre a probabilidade de ocorrência de uma classe de uso do solo. Esta influência local é obtida ajustando um modelo de regressão logística. Um modelo de regressão espacial é proposto como alternativa para selecionar os impulsores de mudanças. Este modelo incorpora a informação da vizinhança espacial existente nos dados que não é considerada na regressão logística. Baseado em um cenário de tendência linear para a demanda agregada do uso do solo, simulações da mudança do uso do solo para a microbacia do Coxim, Mato Grosso do Sul, foram geradas, comparadas e analisadas usando o modelo CLUE-S sob os enfoques da regressão logística e espacial para o período de 2001 a 2011. Ambos os enfoques apresentaram simulações com muito boa concordância, medidas de acurácia global e Kappa altos, com o uso do solo para o ano de referência de 2004. A diferença entre os enfoques foi observada na distribuição espacial da simulação do uso do solo para o ano 2011, sendo o enfoque da regressão espacial que teve a simulação com menor discrepância com a demanda do uso do solo para esse ano.
Resumo:
A remoção de compostos sulfurados da gasolina é um assunto de grande interesse na indústria de refino de petróleo em função das restrições ambientais cada vez mais rígidas em relação ao teor máximo de enxofre de produtos acabados. A solução mais comum para remoção de contaminantes são as unidades de hidrotratamento que operam a alta pressão e possuem alto custo de instalação e de operação além de levarem à perda de octanagem do produto acabado. O uso de membranas é uma alternativa promissora para a redução do teor de enxofre de correntes de gasolina e possui diversas vantagens em relação ao hidrotratamento convencional. O conhecimento aprofundado dos parâmetros que influenciam as etapas de sorção e difusão é crítico para o desenvolvimento da aplicação. Este trabalho avalioua seletividade e sorção do sistema formado por n-heptano e tiofeno em polímeros através de modelos termodinâmicos rigorosos, baseados em contribuição de grupos. O modelo UNIFAC-FV, variante do tradicional modelo UNIFAC para sistemas poliméricos, foi o modelo escolhido para cálculo de atividade dos sistemas estudados. Avaliou-se ainda a disponibilidade de parâmetros para desenvolvimento da modelagem e desenvolveu-se uma abordagem com alternativas para casos de indisponibilidade de parâmetros UNIFAC. Nos casos com ausência de parâmetros, o cálculo do termo residual da atividade das espécies é feito na forma proposta por Flory-Hugginsutilizando-se parâmetros de solubilidade obtidos também por contribuição de grupos. Entre os métodos de contribuição de grupos existentes para cálculo de parâmetros de solubilidade, o método de Hoy mostrou menores desvios para os sistemas estudados. A abordagem utilizada neste trabalho permite, ao final, uma análise de alterações da configuração da cadeia principal de polímeros de forma a influenciar sua seletividade e sorção para dessulfurização de naftas