38 resultados para Algoritmos genéticos


Relevância:

20.00% 20.00%

Publicador:

Resumo:

A engenharia geotécnica é uma das grandes áreas da engenharia civil que estuda a interação entre as construções realizadas pelo homem ou de fenômenos naturais com o ambiente geológico, que na grande maioria das vezes trata-se de solos parcialmente saturados. Neste sentido, o desempenho de obras como estabilização, contenção de barragens, muros de contenção, fundações e estradas estão condicionados a uma correta predição do fluxo de água no interior dos solos. Porém, como a área das regiões a serem estudas com relação à predição do fluxo de água são comumente da ordem de quilômetros quadrados, as soluções dos modelos matemáticos exigem malhas computacionais de grandes proporções, ocasionando sérias limitações associadas aos requisitos de memória computacional e tempo de processamento. A fim de contornar estas limitações, métodos numéricos eficientes devem ser empregados na solução do problema em análise. Portanto, métodos iterativos para solução de sistemas não lineares e lineares esparsos de grande porte devem ser utilizados neste tipo de aplicação. Em suma, visto a relevância do tema, esta pesquisa aproximou uma solução para a equação diferencial parcial de Richards pelo método dos volumes finitos em duas dimensões, empregando o método de Picard e Newton com maior eficiência computacional. Para tanto, foram utilizadas técnicas iterativas de resolução de sistemas lineares baseados no espaço de Krylov com matrizes pré-condicionadoras com a biblioteca numérica Portable, Extensible Toolkit for Scientific Computation (PETSc). Os resultados indicam que quando se resolve a equação de Richards considerando-se o método de PICARD-KRYLOV, não importando o modelo de avaliação do solo, a melhor combinação para resolução dos sistemas lineares é o método dos gradientes biconjugados estabilizado mais o pré-condicionador SOR. Por outro lado, quando se utiliza as equações de van Genuchten deve ser optar pela combinação do método dos gradientes conjugados em conjunto com pré-condicionador SOR. Quando se adota o método de NEWTON-KRYLOV, o método gradientes biconjugados estabilizado é o mais eficiente na resolução do sistema linear do passo de Newton, com relação ao pré-condicionador deve-se dar preferência ao bloco Jacobi. Por fim, há evidências que apontam que o método PICARD-KRYLOV pode ser mais vantajoso que o método de NEWTON-KRYLOV, quando empregados na resolução da equação diferencial parcial de Richards.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A doença de Parkinson (DP) é uma das desordens neurodegenerativas mais comuns associada ao envelhecimento, alcançando 2% aos 70 anos. É uma doença caracterizada pela degeneração progressiva de neurônios dopaminérgicos nigrais nos gânglios basais e pela presença de inclusões protéicas citoplasmáticas denominadas corpúsculos e neuritos de Lewy nos neurônios sobreviventes. A etiologia da DP é pouco conhecida, sendo considerada, na maioria dos casos, idiopática. Conhecimentos alcançados nos últimos 15 anos sobre a base genética da DP demonstram, claramente, que os fatores genéticos desempenham um importante papel na etiologia desta desordem. Neste trabalho, rastreamos mutações nos genes que codificam proteínas participantes de vias metabólicas mitocondriais (Parkin, PINK1 e DJ-1) em 136 pacientes brasileiros com manifestação precoce da DP, através do sequenciamento automático e da técnica de MLPA. Avaliamos a presença de variantes de sequência por meio do sequenciamento dos exons 1 a 12 do gene Parkin e dos exons 1 a 8 do gene PINK1. Em Parkin foram identificadas três mutações patogênicas ou potencialmente patogênicas, ambas em heterozigose: p.T240M, p.437L e p.S145N. Em PINK1 não encontramos variantes de ponto patogênicas. Através da técnica de MLPA investigamos alterações de dosagem nos genes Parkin, PINK1 e DJ-1. Identificamos cinco alterações no gene Parkin em quatro pacientes: uma duplicação heterozigota do exon 4 no paciente PAR2256, uma deleção heterozigota do exon 4 no probando PAR2099, uma deleção homozigota do exon 4 na paciente PAR3380 e um probando heterozigoto composto (PAR2396) com duas alterações, uma duplicação do exon 3 e uma deleção dos exons 5 e 6. No gene PINK1 identificamos uma deleção heterozigota do exon 1, que nunca foi descrita na literatura, em um paciente (PAR2083). Não encontramos alteração quantitativa no gene DJ-1. Neste estudo obtivemos uma frequência total de mutações patogênicas (pontuais e de dosagem) nos genes estudados de 7,3%, sendo 6,6% no gene Parkin e 0,7% no gene PINK1.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O papel dos polimorfismos genéticos da ECA (PGECA) na insuficiência cardíaca (IC) como preditor de desfechos clínicos e ecocardiográficos ainda não está estabelecido. É necessário identificar o perfil genotípico local para se observar se o impacto clínico desses genótipos é igual entre populações estrangeiras e a brasileira. O objetivo deste trabalho foi determinar a frequência das variantes do PGECA e sua relação com a evolução clínica de pacientes com IC de etiologia não isquêmica de uma população do Rio de Janeiro, utilizando desfechos clínicos, ecocardiográficos e do Seattle Heart Failure Model (SHFM).Para isso, realizou-se análise secundária de prontuários de 111 pacientes, acompanhados de forma prospectiva e retrospectiva, além da análise genética com identificação da variante do PGECA e sua classificação. Os pacientes foram acompanhados em média por 64,93,9 meses, tinham 59,51,3 (26-89) anos, predomínio do sexo masculino (60,4%) e da cor da pele branca (51,4 %), mas com alta prevalência de pretos (36 %). A distribuição do PGECA observada foi: 51,4 % DD, 44,1 % DI e apenas 4,5 % II. Hipertensão arterial foi a comorbidade mais frequentemente observada (70,3 %). O tratamento farmacológico estava bastante otimizado: 98,2 % em uso de betabloqueadores e 89,2 % em uso de inibidores da ECA ou losartana. Nenhuma das características clínicas ou do tratamento medicamentoso variou entre os grupos. Cerca de metade da coorte (49,5 %) apresentou fração de ejeção de VE (FEVE) ≤35 %. O diâmetro sistólico do VE (DSVE) final foi a única variável ecocardiográfica isolada significativamente diferente entre os PGECA: 59,21,8 DD x 52,31,9 DI x 59,25,2 (p=0,029). Quando analisadas de maneira evolutiva, todas as variáveis (FEVE, DSVE e DDVE) diferiram de maneira significativa entre os genótipos: p=0,024 para ∆FE, p=0,002 para ∆DSVE e p=0,021 para ∆DDVE. O genótipo DI se associou ao melhor parâmetro ecocardiográfico (aumento de FEVE e diminuição de diâmetros de VE), enquanto que o DD e II apresentaram padrão inverso. Os valores derivados do SHFM (expectativa de vida, mortalidade em um ano e mortalidade em cinco anos) não variaram de forma significativa entre os genótipos, mas notou-se um padrão com o DD associado a piores estimativas, DI a estimativas intermediárias e II a valores mais benignos. Não houve diferença significativa entre desfechos clínicos isolados (óbitos: p=0,552; internação por IC: p=0,602 e PS por IC: p=0,119) ou combinados (óbitos + internação por IC: p=0,559). Na análise multivariada, o peso alelo D foi preditor independente da variação do DSVE (p=0,023). Em relação aos preditores independentes de óbito + internação por IC, foram identificados classe funcional NYHA final (p=0,018), frequência cardíaca final (p=0,026) e uso de furosemida (p=0,041). Em suma, a frequência alélia e das variantes do PGECA foram diferentes da maioria do estudos internacionais. O alelo D foi associado de forma independente à pior evolução ecocardiográfica. Não houve diferenças significativas em relação aos parâmetros derivados do SHFM, embora o genótipo II pareça estar associado com o melhor perfil clínico. Por último, não houve diferenças em relação aos desfechos clínicos entre os PGECA.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho apresenta contribuições para algoritmos de controle utilizados em filtros ativos e híbridos conectados em redes elétricas trifásicas a 3 ou a 4 fios. Em relação aos algoritmos de controle para filtros ativos, a contribuição consiste em estender o conceito da filtragem harmônica seletiva para compensação de correntes harmônicas e desequilibradas em uma rede trifásica a 4 fios. Esses algoritmos derivam dos conceitos utilizados na teoria da potência instantânea (teoria pq), em conjunto com um circuito de sincronismo PLL. É importante ressaltar que estes algoritmos não utilizam as correntes consumidas pelas cargas, ou seja, apenas as tensões no ponto da rede onde o filtro está conectado são utilizadas para determinação das correntes harmônicas de referência. Apenas as correntes na saída do conversor são utilizadas como realimentação do controle PWM. Estes algoritmos também foram utilizados no filtro híbrido para compensação de correntes harmônicas em uma rede trifásica a 3 fios. Por fim foi feito uma alteração nesses algoritmos de controle que permite eliminar as correntes utilizadas na realimentação do controle PWM. Resultados de simulação são apresentados com objetivo de observar o comportamento desses algoritmos tanto no filtro ativo quanto no híbrido nas condições mencionadas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A extração de regras de associação (ARM - Association Rule Mining) de dados quantitativos tem sido pesquisa de grande interesse na área de mineração de dados. Com o crescente aumento das bases de dados, há um grande investimento na área de pesquisa na criação de algoritmos para melhorar o desempenho relacionado a quantidade de regras, sua relevância e a performance computacional. O algoritmo APRIORI, tradicionalmente usado na extração de regras de associação, foi criado originalmente para trabalhar com atributos categóricos. Geralmente, para usá-lo com atributos contínuos, ou quantitativos, é necessário transformar os atributos contínuos, discretizando-os e, portanto, criando categorias a partir dos intervalos discretos. Os métodos mais tradicionais de discretização produzem intervalos com fronteiras sharp, que podem subestimar ou superestimar elementos próximos dos limites das partições, e portanto levar a uma representação imprecisa de semântica. Uma maneira de tratar este problema é criar partições soft, com limites suavizados. Neste trabalho é utilizada uma partição fuzzy das variáveis contínuas, que baseia-se na teoria dos conjuntos fuzzy e transforma os atributos quantitativos em partições de termos linguísticos. Os algoritmos de mineração de regras de associação fuzzy (FARM - Fuzzy Association Rule Mining) trabalham com este princípio e, neste trabalho, o algoritmo FUZZYAPRIORI, que pertence a esta categoria, é utilizado. As regras extraídas são expressas em termos linguísticos, o que é mais natural e interpretável pelo raciocício humano. Os algoritmos APRIORI tradicional e FUZZYAPRIORI são comparado, através de classificadores associativos, baseados em regras extraídas por estes algoritmos. Estes classificadores foram aplicados em uma base de dados relativa a registros de conexões TCP/IP que destina-se à criação de um Sistema de Detecção de Intrusos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A Inteligência de Enxame foi proposta a partir da observação do comportamento social de espécies de insetos, pássaros e peixes. A ideia central deste comportamento coletivo é executar uma tarefa complexa decompondo-a em tarefas simples, que são facilmente executadas pelos indivíduos do enxame. A realização coordenada destas tarefas simples, respeitando uma proporção pré-definida de execução, permite a realização da tarefa complexa. O problema de alocação de tarefas surge da necessidade de alocar as tarefas aos indivíduos de modo coordenado, permitindo o gerenciamento do enxame. A alocação de tarefas é um processo dinâmico pois precisa ser continuamente ajustado em resposta a alterações no ambiente, na configuração do enxame e/ou no desempenho do mesmo. A robótica de enxame surge deste contexto de cooperação coletiva, ampliada à robôs reais. Nesta abordagem, problemas complexos são resolvidos pela realização de tarefas complexas por enxames de robôs simples, com capacidade de processamento e comunicação limitada. Objetivando obter flexibilidade e confiabilidade, a alocação deve emergir como resultado de um processo distribuído. Com a descentralização do problema e o aumento do número de robôs no enxame, o processo de alocação adquire uma elevada complexidade. Desta forma, o problema de alocação de tarefas pode ser caracterizado como um processo de otimização que aloca as tarefas aos robôs, de modo que a proporção desejada seja atendida no momento em que o processo de otimização encontre a solução desejada. Nesta dissertação, são propostos dois algoritmos que seguem abordagens distintas ao problema de alocação dinâmica de tarefas, sendo uma local e a outra global. O algoritmo para alocação dinâmica de tarefas com abordagem local (ADTL) atualiza a alocação de tarefa de cada robô a partir de uma avaliação determinística do conhecimento atual que este possui sobre as tarefas alocadas aos demais robôs do enxame. O algoritmo para alocação dinâmica de tarefas com abordagem global (ADTG) atualiza a alocação de tarefas do enxame com base no algoritmo de otimização PSO (Particle swarm optimization). No ADTG, cada robô possui uma possível solução para a alocação do enxame que é continuamente atualizada através da troca de informação entre os robôs. As alocações são avaliadas quanto a sua aptidão em atender à proporção-objetivo. Quando é identificada a alocação de maior aptidão no enxame, todos os robôs do enxame são alocados para as tarefas definidas por esta alocação. Os algoritmos propostos foram implementados em enxames com diferentes arranjos de robôs reais demonstrando sua eficiência e eficácia, atestados pelos resultados obtidos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A genética forense tem grande importância na geração de provas em casos de violência sexual, paternidade criminal, identificação de cadáveres e investigação de evidências de locais de crime. A análise de STRs apresenta grande poder de discriminação, mas é uma metodologia multi-etapas, trabalhosa, cara e em muitos casos a análise genética é prejudicada pela baixa quantidade e qualidade das evidências coletadas. Este estudo teve como objetivo desenvolver e caracterizar uma metodologia de triagem de amostras forenses através da análise de perfis de dissociação em alta resolução (HRM) de regiões do DNA mitocondrial, o qual está presente em maior número de cópias e mais resistente a degradação. Para tanto, foram extraídos DNAs de 68 doadores. Estas amostras foram sequenciadas e analisadas por HRM para sete alvos no DNA mitocondrial. Também foram realizados ensaios para determinar a influência do método de extração, da concentração e nível de degradação do DNA no perfil de HRM obtido para uma amostra. Os resultados demonstraram a capacidade da técnica de excluir indivíduos com sequências diferentes da referência comparativa em cinco regiões amplificadas. Podem ser analisadas em conjunto, amostras de DNA com variação de concentração de até a ordem de 100 vezes e extraídas por diferentes metodologias. Condições de degradação de material genético não prejudicaram a obtenção de perfis de dissociação em alta resolução. A sensibilidade da técnica foi aprimorada com a análise de produtos de amplificação de tamanho reduzido. A fim de otimizar o ensaio foi testada a análise de HRM em reações de PCR duplex. Um dos pares de amplificação forneceu perfis de HRM compatíveis com resultados obtidos de reações com amplificação de apenas um dos alvos. Através da análise conjunta das cinco regiões, esta metodologia visa a identificação de indivíduos não relacionados com as referências comparativas, diminuindo o número de amostras a serem analisadas por STRs, reduzindo gastos e aumentando a eficiência da rotina de laboratórios de genética forense.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Bacia de Almada, localizada no estado da Bahia, compartilha características similares com as outras bacias da margem leste do Brasil, quando é analisada segundo aspectos como os processos sedimentares e o regime de esforço dominante durante a sua formação. Observa-se uma diferença marcante em relação as outras bacias quando é analisada sob a ótica da composição da crosta transicional, uma vez que não se registra atividade vulcânica durante a fase rifte. A aquisição de um extenso levantamento sísmico 3D, com cabos de 6 km de comprimento e 9.2 segundos de tempo de registro (tempo sísmico duplo), resultaram em imagens sísmicas de boa qualidade das estruturas profundas do rifte. Adicionalmente, estudos de modelagem gravimétrica foram integrados com a análise sísmica para corroborar o modelo geológico. A Bacia de Almada é parte dos sistemas de rifte continentais, desenvolvidos durante o Berriasiano até o Aptiano, que antecederam a quebra do continente do Gondwana, evoluindo posteriormente para uma margem passiva divergente. O processo do rifteamento desenvolveu cinco sub-bacias de orientação NNE-SSO, desde posições terrestres até marinhas profundas, produzindo um arcabouço estrutural complexo. Os perfis da sísmica profunda mostram o afinamento progressivo da crosta continental até espessuras da ordem de 5 km, abaixo da sub-bacia mais oriental, com fatores de estiramento crustal próximo a 7 antes do desenvolvimento de crosta oceânica propriamente dita. As imagens sísmicas de boa qualidade permitem também o reconhecimento de sistemas de falhas lístricas que se iniciam na crosta superior, evoluem atravessando a crosta e conectando as sub-bacias para finalizar em um descolamento horizontal na crosta inferior estratificada. Adicionalmente, a bacia apresenta um perfil assimétrico, compatível com mecanismos de cisalhamento simples. As margens vulcânicas (VM) e não vulcânicas (NVM), são os extremos da análise composicional das margens divergentes continentais. Na Bacia de Almada não se reconhecem os elementos arquiteturais típicos das VM, tais como são as grandes províncias ígneas, caracterizadas por cunhas de refletores que mergulham em direção ao mar e por intenso vulcanismo pré- e sin-rifte nas bacias. Embora a margem divergente do Atlântico Sul seja interpretada tradicionalmente como vulcânica, o segmento do rifte ao sul do Estado da Bahia apresenta características não-vulcânicas, devido à ausência destes elementos arquiteturais e aos resultados obtidos nas perfurações geológicas que eventualmente alcançam a seqüência rifte e embasamento. Regionalmente a margem divergente sul-americana é majoritariamente vulcânica, embora a abundância e a influência do magmatísmo contemporâneo ao rifte seja muito variável. Ao longo da margem continental, desde a Bacia Austral no sul da Argentina, até a Bacia de Pernambuco no nordeste do Brasil, podem ser reconhecidos segmentos de caráter vulcânico forte, médio e não vulcânico. Nos exemplos clássicos de margens não vulcânicas, como a margem da Ibéria, a crosta transicional é altamente afinada podendo apresentar evidências de exumação de manto. Na Bacia de Almada, a crosta transicional apresenta importante estiramento embora não haja evidências concretas de exumação de manto. Os mecanismos responsáveis pela geração e intrusão dos grandes volumes de magma registrados nas margens divergentes são ainda sujeitos a intenso debate. Ao longo da margem divergente sul-americana há evidências da presença dos mecanismos genéticos de estiramento litosférico e impacto de plumas. Alternativamente estes dois mecanismos parecem ter tido um papel importante na evolução tectônica da margem sudeste e sul, diferenciando-as da margem continental onde foi implantada a Bacia de Almada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os principais constituintes do ar, nitrogênio, oxigênio e argônio, estão cada vez mais presentes nas indústrias, onde são empregados nos processos químicos, para o transporte de alimentos e processamento de resíduos. As duas principais tecnologias para a separação dos componentes do ar são a adsorção e a destilação criogênica. Entretanto, para ambos os processos é necessário que os contaminantes do ar, como o gás carbônico, o vapor dágua e hidrocarbonetos, sejam removidos para evitar problemas operacionais e de segurança. Desta forma, o presente trabalho trata do estudo do processo de pré-purificação de ar utilizando adsorção. Neste sistema a corrente de ar flui alternadamente entre dois leitos adsorvedores para produzir ar purificado continuamente. Mais especificamente, o foco da dissertação corresponde à investigação do comportamento de unidades de pré-purificação tipo PSA (pressure swing adsorption), onde a etapa de dessorção é realizada pela redução da pressão. A análise da unidade de pré-purificação parte da modelagem dos leitos de adsorção através de um sistema de equações diferenciais parciais de balanço de massa na corrente gasosa e no leito. Neste modelo, a relação de equilíbrio relativa à adsorção é descrita pela isoterma de Dubinin-Astakhov estendida para misturas multicomponentes. Para a simulação do modelo, as derivadas espaciais são discretizadas via diferenças finitas e o sistema de equações diferenciais ordinárias resultante é resolvido por um solver apropriado (método das linhas). Para a simulação da unidade em operação, este modelo é acoplado a um algoritmo de convergência relativo às quatro etapas do ciclo de operação: adsorção, despressurização, purga e dessorção. O algoritmo em questão deve garantir que as condições finais da última etapa são equivalentes às condições iniciais da primeira etapa (estado estacionário cíclico). Desta forma, a simulação foi implementada na forma de um código computacional baseado no ambiente de programação Scilab (Scilab 5.3.0, 2010), que é um programa de distribuição gratuita. Os algoritmos de simulação de cada etapa individual e do ciclo completo são finalmente utilizados para analisar o comportamento da unidade de pré-purificação, verificando como o seu desempenho é afetado por alterações nas variáveis de projeto ou operacionais. Por exemplo, foi investigado o sistema de carregamento do leito que mostrou que a configuração ideal do leito é de 50% de alumina seguido de 50% de zeólita. Variáveis do processo foram também analisadas, a pressão de adsorção, a vazão de alimentação e o tempo do ciclo de adsorção, mostrando que o aumento da vazão de alimentação leva a perda da especificação que pode ser retomada reduzindo-se o tempo do ciclo de adsorção. Mostrou-se também que uma pressão de adsorção maior leva a uma maior remoção de contaminantes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A periodontite é um processo inflamatório crônico de origem bacteriana mediado por citocinas, em especial, interleucina-1 (IL1) e fator de necrose tumoral (TNFα). Polimorfismos genéticos de IL1 e TNFA têm sido associados com a variação de expressão dessas proteínas, o que poderia justificar as diferenças interindividuais de manifestação da doença. O objetivo do presente estudo foi investigar possíveis associações entre os genes IL1B, IL1RN e TNFA e a suscetibilidade à periodontite agressiva e à periodontite crônica severa. Foram selecionados 145 pacientes do Estado do Rio de Janeiro, 43 com periodontite agressiva (PAgr) (33,1 4,8 anos), 52 com periodontite crônica severa (PCr) (50,6 5,8 anos) e 50 controles (40,1 7,8 anos). Os DNAs genômicos dos integrantes dos grupos PAgr, PCr e controle foram obtidos através da coleta de células epiteliais bucais raspadas da parte interna da bochecha com cotonete. Os SNPs IL1B -511C>T, IL1B +3954C>T e TNFA -1031T>C foram analisados pela técnica de PCR-RFLP, utilizando as enzimas de restrição Ava I Taq I e Bpi I, respectivamente. O polimorfismo de número variável de repetições in tandem (VNTR) no intron 2 do gene IL1RN foi feita pela análise direta dos amplicons. Todos os polimorfismos foram analisados por eletroforese em gel de poliacrilamida 8%. As frequências alélica e genotípica do polimorfismo IL1B +3954C>T no grupo PCr foram significativamente diferentes das observadas no grupo controle (p=0,003 e p=0,041, respectivamente). A freqüência do alelo A2 do polimorfismo IL1RN VNTR intron2 no grupo PAgr foi significativamente maior do que no grupo controle (p=0,035). Não houve associação entre os polimorfismos IL1B -511C>T e TNFA -1031T>C e as periodontites agressiva e crônica. A presença dos alelos 2 nos genótipos combinados de IL1RN VNTR intron2 e IL1B +3954C>T no grupo PCr foi significativamente maior quando comparada ao grupo controle (p=0,045). Entretanto, não se observou associação entre as combinações genotípicas IL1B -511C>T / IL1B +3954C>T e IL1RN VNTR / IL1B -511C>T e a predisposição à doença periodontal. De acordo com os nossos resultados podemos sugerir que, para a população estudada, o polimorfismo IL1B +3954C>T interfere no desenvolvimento da periodontite crônica, enquanto a presença do alelo A2 do polimorfismo IL1RN VNTR intron2 pode ser considerado como indicador de risco para a periodontite agressiva. O presente estudo também nos permite sugerir que a ausência de homozigose dos alelos 1 nos genótipos combinados de IL1RN VNTR intron2 e IL1B +3954C>T pode representar maior suscetibilidade à periodontite crônica severa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho, é proposta uma nova família de métodos a ser aplicada à otimização de problemas multimodais. Nestas técnicas, primeiramente são geradas soluções iniciais com o intuito de explorar o espaço de busca. Em seguida, com a finalidade de encontrar mais de um ótimo, estas soluções são agrupadas em subespaços utilizando um algoritmo de clusterização nebulosa. Finalmente, são feitas buscas locais através de métodos determinísticos de otimização dentro de cada subespaço gerado na fase anterior com a finalidade de encontrar-se o ótimo local. A família de métodos é formada por seis variantes, combinando três esquemas de inicialização das soluções na primeira fase e dois algoritmos de busca local na terceira. A fim de que esta nova família de métodos possa ser avaliada, seus constituintes são comparados com outras metodologias utilizando problemas da literatura e os resultados alcançados são promissores.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A influência da dieta e da hereditariedade nas características dentofaciais foi avaliada através do exame de duas populações indígenas amazônicas divididas por um processo de fissão linear. Os indígenas que constituem a aldeia Arara-Iriri são descendentes de um único casal expulso da aldeia Arara-Laranjal. O crescimento da aldeia Iriri ocorreu pelo acasalamento de parentes próximos, ratificado por um alto coeficiente de consanguinidade (F=0,25, p<0,001). A epidemiologia da má oclusão e das características da face foi analisada nos indivíduos entre dois e 22 anos, das aldeias Iriri (n=46) e Laranjal (n=130). A biometria da dentição e da face foi obtida em 55 indígenas em dentição permanente sem perdas dentárias, através da fotogrametria facial e dos modelos de gesso. O desgaste dentário foi examinado em 126 indivíduos através da análise de regressão múltipla. Os resultados revelaram uma determinação significativa da idade no desgaste dos dentes (R2=87,6, p<0,0001), que se mostrou semelhante entre as aldeias (R2=0,027, p=0,0935). Por outro lado, diferenças marcantes foram observadas nas características dentofaciais. Revelou-se uma face mais vertical (dolicofacial) entre os índios Iriri e o predomínio do tipo braquifacial nos indígenas da aldeia original, corroborado pela fotogrametria. Uma face sagitalmente normal foi observada em 97,7% da aldeia Laranjal, enquanto faces convexas (26,1%, RR-16,96) e côncavas (15,2%, RR=19,78) eram mais prevalentes na aldeia Iriri (p<0,001). A biprotrusão, com consequente redução do ângulo nasolabial, era uma característica comum entre os Arara, porém com maior prevalência no grupo Iriri (RP=1,52, p=0,0002). A prevalência da má oclusão foi significativamente mais alta na aldeia Iriri (RP= 1,75, p=0,0007). A maioria da população da aldeia original (83,8%) apresentou uma relação normal entre os arcos dentários, contudo, na aldeia resultante (Iriri), 34,6% dos indivíduos era Classe III (RP=6,01, p<0,001) e 21,7% era Classe II (RP=2,02, p=0,05). Enquanto nenhum caso de apinhamento e de sobremordida foi observado na aldeia Iriri, a razão da prevalência era 2,64 vezes maior para a mordida aberta anterior (p=0,003), 2,83 vezes (p<0,001) para a mordida cruzada anterior, 3,93 (p=0,03) para a sobressaliência aumentada, e de 4,71 (p=0,02) para a mordida cruzada posterior. Observou-se uma alta prevalência das perdas dentárias, sem diferença entre as aldeias (RP=1,46, p=0,11). O exame dos modelos revelou uma tendência de incisivos maiores e pré-molares e caninos menores na aldeia Iriri, delineando uma semelhança na massa dentária total entre as aldeias, que, aliada a arcadas dentárias maiores, justificaram o menor índice de irregularidade dos incisivos entre esses indígenas. Esses resultados minimizam a influência do desgaste dentário, uma evidência direta de como um indivíduo se alimentou no passado, no desenvolvimento dentofacial e enfatizam o predomínio da hereditariedade, através da endogamia, na etiologia da variação anormal da oclusão dentária e da morfologia da face.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho apresenta a aplicação das fórmulas de Vincenty nos cálculos das correções do terreno e do efeito indireto, que desempenham papel relevante na construção de cartas geoidais. Implementa-se um programa de processamento que realiza a integração numérica sobre o modelo digital do terreno, discretizado em células triangulares de Delaunay. O sistema foi desenvolvido com a linguagem de programação FORTRAN, para a execução de intensos algoritmos numéricos usando compiladores livres e robustos. Para o cálculo do efeito indireto, considera-se a redução gravimétrica efetuada com base no segundo método de condensação de Helmert, face ao pequeno valor de efeito indireto no cálculo do geóide, em função da mudança que este produz no potencial da gravidade devido ao deslocamento da massa topográfica. Utiliza-se, o sistema geodésico SIRGAS 2000 como sistema de referência para o cômputo das correções. Simplificando o exame dos resultados alcançados, distingue-se o processamento e desenvolvimento do trabalho em etapas como a escolha de ferramentas geodésicas para máxima precisão dos resultados, elaboração de subrotinas e comparação de resultados com cálculos anteriores. Os resultados encontrados foram de geração sadia e satisfatória e podem ser perfeitamente empregados no cálculo do geóide em qualquer área do globo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A indústria de processos químicos tem sofrido consideráveis transformações devido ao acirramento da competitividade. Importantes progressos tecnológicos têm sido atingidos através de técnicas de modelagem, simulação e otimização visando o aumento da lucratividade e melhoria contínua nos processos industriais. Neste contexto, as plantas de metanol, um dos mais importantes produtos petroquímicos, podem ser destacadas. Atualmente, a principal matéria-prima para obtenção de metanol é o gás natural. A produção do metanol é caracterizada por três etapas: geração de gás de síntese, conversão do gás de síntese em metanol (unidade de síntese ou loop de síntese) e purificação do produto na especificação requerida. Os custos fixos e variáveis da unidade de síntese são fortemente dependentes das variáveis operacionais, como temperatura, pressão, razão de reciclo e composição da carga. Desta forma, foi desenvolvido um conjunto de modelos e algoritmos computacionais para representar matematicamente unidades de síntese de metanol. O modelo apresenta operações unitárias associadas aos seguintes equipamentos: divisores de correntes, misturadores de correntes, compressores, trocadores de calor, vasos de flash e reatores. Inicialmente, foi proposto um simulador estacionário, que serviu como base para um pseudo-estacionário, o qual contempla a desativação do catalisador por sinterização térmica. Os simuladores foram criados segundo uma arquitetura seqüencial modular e empregou-se o método de substituição sucessiva para a convergência dos reciclos. O estudo envolveu dois fluxogramas típicos, um constituído por reatores adiabáticos em série, enquanto o outro constituído por um reator tipo quench. Uma análise do efeito das principais variáveis operacionais foi realizada para o reator e para o loop de síntese. Estudou-se também o efeito da desativação do catalisador ao longo do tempo. Uma ferramenta de otimização operacional foi empregada para alcançar a máxima produção manipulando as injeções de carga fria na entrada dos leitos catalíticos. Formulou-se também um problema de maximização do lucro em função da otimização de paradas da unidade para troca do catalisador. Os resultados obtidos apontam que a ferramenta desenvolvida é promissora para a compreensão e otimização da unidade objeto deste estudo

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho aborda um problema inverso associado a difus~ao de calor em uma barra unidimensional. Esse fen^omeno e modelado por meio da equac~ao diferencial par- cial parabolica ut = uxx, conhecida como equac~ao de difus~ao do calor. O problema classico (problema direto) envolve essa equac~ao e um conjunto de restric~oes { as condic~oes inicial e de contorno {, o que permite garantir a exist^encia de uma soluc~ao unica. No problema inverso que estudamos, o valor da temperatura em um dos extremos da barra n~ao esta disponvel. Entretanto, conhecemos o valor da temperatura em um ponto x0 xo no interior da barra. Para aproximar o valor da temperatura no intervalo a direita de x0, propomos e testamos tr^es algoritmos de diferencas nitas: diferencas regressivas, leap-frog e diferencas regressivas maquiadas.