881 resultados para Cadeias de Markov. Algoritmos genéticos


Relevância:

20.00% 20.00%

Publicador:

Resumo:

A engenharia geotécnica é uma das grandes áreas da engenharia civil que estuda a interação entre as construções realizadas pelo homem ou de fenômenos naturais com o ambiente geológico, que na grande maioria das vezes trata-se de solos parcialmente saturados. Neste sentido, o desempenho de obras como estabilização, contenção de barragens, muros de contenção, fundações e estradas estão condicionados a uma correta predição do fluxo de água no interior dos solos. Porém, como a área das regiões a serem estudas com relação à predição do fluxo de água são comumente da ordem de quilômetros quadrados, as soluções dos modelos matemáticos exigem malhas computacionais de grandes proporções, ocasionando sérias limitações associadas aos requisitos de memória computacional e tempo de processamento. A fim de contornar estas limitações, métodos numéricos eficientes devem ser empregados na solução do problema em análise. Portanto, métodos iterativos para solução de sistemas não lineares e lineares esparsos de grande porte devem ser utilizados neste tipo de aplicação. Em suma, visto a relevância do tema, esta pesquisa aproximou uma solução para a equação diferencial parcial de Richards pelo método dos volumes finitos em duas dimensões, empregando o método de Picard e Newton com maior eficiência computacional. Para tanto, foram utilizadas técnicas iterativas de resolução de sistemas lineares baseados no espaço de Krylov com matrizes pré-condicionadoras com a biblioteca numérica Portable, Extensible Toolkit for Scientific Computation (PETSc). Os resultados indicam que quando se resolve a equação de Richards considerando-se o método de PICARD-KRYLOV, não importando o modelo de avaliação do solo, a melhor combinação para resolução dos sistemas lineares é o método dos gradientes biconjugados estabilizado mais o pré-condicionador SOR. Por outro lado, quando se utiliza as equações de van Genuchten deve ser optar pela combinação do método dos gradientes conjugados em conjunto com pré-condicionador SOR. Quando se adota o método de NEWTON-KRYLOV, o método gradientes biconjugados estabilizado é o mais eficiente na resolução do sistema linear do passo de Newton, com relação ao pré-condicionador deve-se dar preferência ao bloco Jacobi. Por fim, há evidências que apontam que o método PICARD-KRYLOV pode ser mais vantajoso que o método de NEWTON-KRYLOV, quando empregados na resolução da equação diferencial parcial de Richards.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A doença de Parkinson (DP) é uma das desordens neurodegenerativas mais comuns associada ao envelhecimento, alcançando 2% aos 70 anos. É uma doença caracterizada pela degeneração progressiva de neurônios dopaminérgicos nigrais nos gânglios basais e pela presença de inclusões protéicas citoplasmáticas denominadas corpúsculos e neuritos de Lewy nos neurônios sobreviventes. A etiologia da DP é pouco conhecida, sendo considerada, na maioria dos casos, idiopática. Conhecimentos alcançados nos últimos 15 anos sobre a base genética da DP demonstram, claramente, que os fatores genéticos desempenham um importante papel na etiologia desta desordem. Neste trabalho, rastreamos mutações nos genes que codificam proteínas participantes de vias metabólicas mitocondriais (Parkin, PINK1 e DJ-1) em 136 pacientes brasileiros com manifestação precoce da DP, através do sequenciamento automático e da técnica de MLPA. Avaliamos a presença de variantes de sequência por meio do sequenciamento dos exons 1 a 12 do gene Parkin e dos exons 1 a 8 do gene PINK1. Em Parkin foram identificadas três mutações patogênicas ou potencialmente patogênicas, ambas em heterozigose: p.T240M, p.437L e p.S145N. Em PINK1 não encontramos variantes de ponto patogênicas. Através da técnica de MLPA investigamos alterações de dosagem nos genes Parkin, PINK1 e DJ-1. Identificamos cinco alterações no gene Parkin em quatro pacientes: uma duplicação heterozigota do exon 4 no paciente PAR2256, uma deleção heterozigota do exon 4 no probando PAR2099, uma deleção homozigota do exon 4 na paciente PAR3380 e um probando heterozigoto composto (PAR2396) com duas alterações, uma duplicação do exon 3 e uma deleção dos exons 5 e 6. No gene PINK1 identificamos uma deleção heterozigota do exon 1, que nunca foi descrita na literatura, em um paciente (PAR2083). Não encontramos alteração quantitativa no gene DJ-1. Neste estudo obtivemos uma frequência total de mutações patogênicas (pontuais e de dosagem) nos genes estudados de 7,3%, sendo 6,6% no gene Parkin e 0,7% no gene PINK1.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O papel dos polimorfismos genéticos da ECA (PGECA) na insuficiência cardíaca (IC) como preditor de desfechos clínicos e ecocardiográficos ainda não está estabelecido. É necessário identificar o perfil genotípico local para se observar se o impacto clínico desses genótipos é igual entre populações estrangeiras e a brasileira. O objetivo deste trabalho foi determinar a frequência das variantes do PGECA e sua relação com a evolução clínica de pacientes com IC de etiologia não isquêmica de uma população do Rio de Janeiro, utilizando desfechos clínicos, ecocardiográficos e do Seattle Heart Failure Model (SHFM).Para isso, realizou-se análise secundária de prontuários de 111 pacientes, acompanhados de forma prospectiva e retrospectiva, além da análise genética com identificação da variante do PGECA e sua classificação. Os pacientes foram acompanhados em média por 64,93,9 meses, tinham 59,51,3 (26-89) anos, predomínio do sexo masculino (60,4%) e da cor da pele branca (51,4 %), mas com alta prevalência de pretos (36 %). A distribuição do PGECA observada foi: 51,4 % DD, 44,1 % DI e apenas 4,5 % II. Hipertensão arterial foi a comorbidade mais frequentemente observada (70,3 %). O tratamento farmacológico estava bastante otimizado: 98,2 % em uso de betabloqueadores e 89,2 % em uso de inibidores da ECA ou losartana. Nenhuma das características clínicas ou do tratamento medicamentoso variou entre os grupos. Cerca de metade da coorte (49,5 %) apresentou fração de ejeção de VE (FEVE) ≤35 %. O diâmetro sistólico do VE (DSVE) final foi a única variável ecocardiográfica isolada significativamente diferente entre os PGECA: 59,21,8 DD x 52,31,9 DI x 59,25,2 (p=0,029). Quando analisadas de maneira evolutiva, todas as variáveis (FEVE, DSVE e DDVE) diferiram de maneira significativa entre os genótipos: p=0,024 para ∆FE, p=0,002 para ∆DSVE e p=0,021 para ∆DDVE. O genótipo DI se associou ao melhor parâmetro ecocardiográfico (aumento de FEVE e diminuição de diâmetros de VE), enquanto que o DD e II apresentaram padrão inverso. Os valores derivados do SHFM (expectativa de vida, mortalidade em um ano e mortalidade em cinco anos) não variaram de forma significativa entre os genótipos, mas notou-se um padrão com o DD associado a piores estimativas, DI a estimativas intermediárias e II a valores mais benignos. Não houve diferença significativa entre desfechos clínicos isolados (óbitos: p=0,552; internação por IC: p=0,602 e PS por IC: p=0,119) ou combinados (óbitos + internação por IC: p=0,559). Na análise multivariada, o peso alelo D foi preditor independente da variação do DSVE (p=0,023). Em relação aos preditores independentes de óbito + internação por IC, foram identificados classe funcional NYHA final (p=0,018), frequência cardíaca final (p=0,026) e uso de furosemida (p=0,041). Em suma, a frequência alélia e das variantes do PGECA foram diferentes da maioria do estudos internacionais. O alelo D foi associado de forma independente à pior evolução ecocardiográfica. Não houve diferenças significativas em relação aos parâmetros derivados do SHFM, embora o genótipo II pareça estar associado com o melhor perfil clínico. Por último, não houve diferenças em relação aos desfechos clínicos entre os PGECA.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho apresenta contribuições para algoritmos de controle utilizados em filtros ativos e híbridos conectados em redes elétricas trifásicas a 3 ou a 4 fios. Em relação aos algoritmos de controle para filtros ativos, a contribuição consiste em estender o conceito da filtragem harmônica seletiva para compensação de correntes harmônicas e desequilibradas em uma rede trifásica a 4 fios. Esses algoritmos derivam dos conceitos utilizados na teoria da potência instantânea (teoria pq), em conjunto com um circuito de sincronismo PLL. É importante ressaltar que estes algoritmos não utilizam as correntes consumidas pelas cargas, ou seja, apenas as tensões no ponto da rede onde o filtro está conectado são utilizadas para determinação das correntes harmônicas de referência. Apenas as correntes na saída do conversor são utilizadas como realimentação do controle PWM. Estes algoritmos também foram utilizados no filtro híbrido para compensação de correntes harmônicas em uma rede trifásica a 3 fios. Por fim foi feito uma alteração nesses algoritmos de controle que permite eliminar as correntes utilizadas na realimentação do controle PWM. Resultados de simulação são apresentados com objetivo de observar o comportamento desses algoritmos tanto no filtro ativo quanto no híbrido nas condições mencionadas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A extração de regras de associação (ARM - Association Rule Mining) de dados quantitativos tem sido pesquisa de grande interesse na área de mineração de dados. Com o crescente aumento das bases de dados, há um grande investimento na área de pesquisa na criação de algoritmos para melhorar o desempenho relacionado a quantidade de regras, sua relevância e a performance computacional. O algoritmo APRIORI, tradicionalmente usado na extração de regras de associação, foi criado originalmente para trabalhar com atributos categóricos. Geralmente, para usá-lo com atributos contínuos, ou quantitativos, é necessário transformar os atributos contínuos, discretizando-os e, portanto, criando categorias a partir dos intervalos discretos. Os métodos mais tradicionais de discretização produzem intervalos com fronteiras sharp, que podem subestimar ou superestimar elementos próximos dos limites das partições, e portanto levar a uma representação imprecisa de semântica. Uma maneira de tratar este problema é criar partições soft, com limites suavizados. Neste trabalho é utilizada uma partição fuzzy das variáveis contínuas, que baseia-se na teoria dos conjuntos fuzzy e transforma os atributos quantitativos em partições de termos linguísticos. Os algoritmos de mineração de regras de associação fuzzy (FARM - Fuzzy Association Rule Mining) trabalham com este princípio e, neste trabalho, o algoritmo FUZZYAPRIORI, que pertence a esta categoria, é utilizado. As regras extraídas são expressas em termos linguísticos, o que é mais natural e interpretável pelo raciocício humano. Os algoritmos APRIORI tradicional e FUZZYAPRIORI são comparado, através de classificadores associativos, baseados em regras extraídas por estes algoritmos. Estes classificadores foram aplicados em uma base de dados relativa a registros de conexões TCP/IP que destina-se à criação de um Sistema de Detecção de Intrusos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A Inteligência de Enxame foi proposta a partir da observação do comportamento social de espécies de insetos, pássaros e peixes. A ideia central deste comportamento coletivo é executar uma tarefa complexa decompondo-a em tarefas simples, que são facilmente executadas pelos indivíduos do enxame. A realização coordenada destas tarefas simples, respeitando uma proporção pré-definida de execução, permite a realização da tarefa complexa. O problema de alocação de tarefas surge da necessidade de alocar as tarefas aos indivíduos de modo coordenado, permitindo o gerenciamento do enxame. A alocação de tarefas é um processo dinâmico pois precisa ser continuamente ajustado em resposta a alterações no ambiente, na configuração do enxame e/ou no desempenho do mesmo. A robótica de enxame surge deste contexto de cooperação coletiva, ampliada à robôs reais. Nesta abordagem, problemas complexos são resolvidos pela realização de tarefas complexas por enxames de robôs simples, com capacidade de processamento e comunicação limitada. Objetivando obter flexibilidade e confiabilidade, a alocação deve emergir como resultado de um processo distribuído. Com a descentralização do problema e o aumento do número de robôs no enxame, o processo de alocação adquire uma elevada complexidade. Desta forma, o problema de alocação de tarefas pode ser caracterizado como um processo de otimização que aloca as tarefas aos robôs, de modo que a proporção desejada seja atendida no momento em que o processo de otimização encontre a solução desejada. Nesta dissertação, são propostos dois algoritmos que seguem abordagens distintas ao problema de alocação dinâmica de tarefas, sendo uma local e a outra global. O algoritmo para alocação dinâmica de tarefas com abordagem local (ADTL) atualiza a alocação de tarefa de cada robô a partir de uma avaliação determinística do conhecimento atual que este possui sobre as tarefas alocadas aos demais robôs do enxame. O algoritmo para alocação dinâmica de tarefas com abordagem global (ADTG) atualiza a alocação de tarefas do enxame com base no algoritmo de otimização PSO (Particle swarm optimization). No ADTG, cada robô possui uma possível solução para a alocação do enxame que é continuamente atualizada através da troca de informação entre os robôs. As alocações são avaliadas quanto a sua aptidão em atender à proporção-objetivo. Quando é identificada a alocação de maior aptidão no enxame, todos os robôs do enxame são alocados para as tarefas definidas por esta alocação. Os algoritmos propostos foram implementados em enxames com diferentes arranjos de robôs reais demonstrando sua eficiência e eficácia, atestados pelos resultados obtidos.