1000 resultados para Algoritmos genéticos


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Parcela considerável de pacientes com distúrbios de crescimento não têm a causa de seus quadros clínicos estabelecida, incluindo aproximadamente 50% dos pacientes com diagnóstico clínico de síndrome de Silver−Russell (SRS) e 10-20% dos pacientes com síndrome de Beckwith-Wiedemann (BWS). O objetivo deste estudo foi investigar as causas genéticas e epigenéticas de distúrbios de crescimento, de etiologia desconhecida, numa contribuição para o entendimento de mecanismos que regulam o crescimento. O estudo compreendeu: (1) a investigação de microdesequilíbrios cromossômicos, por aCGH; (2) a análise do perfil de expressão alelo-específica de genes sujeitos a imprinting (IG), por pirossequenciamento (PSQ) ou sequenciamento de Sanger; (3) a investigação do padrão de metilação global em pacientes com restrição de crescimento, utilizando microarray de metilação. A casuística constituiu-se de 41 pacientes não aparentados, com distúrbios de crescimento, de etiologia desconhecida: (1) 25, com hipótese diagnóstica de SRS; (2) seis, com restrição de crescimento intrauterino e peso ao nascimento abaixo do 10º percentil, associados a outros sinais clínicos; (3) sete, com hipótese diagnóstica de BWS; e (4) três, com macrossomia pré-natal ou pós-natal, associada a outros sinais. A investigação de microdesequilíbrios cromossômicos foi realizada em 40 pacientes. Foram detectadas 58 variantes raras em 30/40 pacientes (75%): 40 foram consideradas provavelmente benignas (18 pacientes, 45%), 12, com efeito patogênico desconhecido (11 pacientes, 27,5%), duas, provavelmente patogênicas (um paciente, 2,5%) e quatro, patogênicas (três pacientes, 7,5%). Essas frequências são comparáveis àquelas descritas em estudos que investigaram CNV em grupos de pacientes com distúrbios de crescimento e outras alterações congênitas, incluindo SRS, e mostram a importância da investigação de microdesequilíbrios cromossômicos nesses pacientes. A diversidade dos microdesequilíbrios cromossômicos identificados é reflexo da heterogeneidade clínica das casuísticas. Neste estudo, muitos dos pacientes com hipótese diagnóstica de SRS e BWS apresentavam sinais clínicos atípicos, explicando a ausência neles das alterações (epi)genéticas que causam essas síndromes. A identificação de CNV características de outras síndromes reflete a sobreposição de sinais clínicos com BWS e SRS. A análise do perfil de expressão alelo-específica de IG foi realizada em um subgrupo de 18 pacientes com restrição de crescimento. Trinta IG com função em proliferação celular, crescimento fetal ou neurodesenvolvimento foram inicialmente selecionados. Após seleção de SNP transcritos com alta frequência na população, genotipagem de pacientes, genitores e indivíduos controle, determinação da expressão dos IG em sangue periférico e seu padrão de expressão (mono ou bialélico), 13 IG, expressos no sangue, tiveram a expressão alelo-específica avaliada, sete deles por PSQ e seis por sequenciamento de Sanger. Alterações no perfil de expressão de dois genes, de expressão normalmente paterna, foram detectadas em 4/18 pacientes (22%). Este estudo é o primeiro a utilizar pirossequenciamento e sequenciamento de Sanger na avaliação do perfil de expressão alelo-específica de IG, em pacientes com restrição de crescimento. Apesar de terem limitações, ambas as técnicas mostraram-se robustas e revelaram alterações de expressão alélica interessantes; entretanto, a relação dessas alterações com o quadro clínico dos pacientes permanece por esclarecer. A investigação da metilação global do DNA foi realizada em subgrupo de 21 pacientes com restrição de crescimento e em 24 indivíduos controle. Dois tipos de análise foram realizados: (1) análise diferencial de grupo e (2) análise diferencial individual. Na primeira análise, em que foi comparado o padrão de metilação do grupo de pacientes com quadro clínico sugestivo de SRS (n=16) com o do grupo controle (n=24), não houve indicação de hipo ou hipermetilação global no grupo SRS. Na segunda análise, foi comparado o padrão de metilação de cada um dos 21 pacientes com restrição de crescimento e dos 24 indivíduos controle, com o padrão de metilação do grupo controle. O número médio de CpG hipermetilados e de segmentos diferencialmente metilados (SDM) foi significativamente maior nos pacientes. Foram identificados 82 SDM hipermetilados, estando 57 associados a gene(s) (69,5%), em 16 pacientes, e 51 SDM hipometilados, 41 deles associados a gene(s) (80,4%), em 10 pacientes. A análise de ontologia genética dos 61 genes associados aos SDM hipo ou hipermetilados nos pacientes destacou genes que atuam no desenvolvimento e na morfogênese do sistema esquelético e de órgãos fetais, e na regulação da transcrição gênica e de processos metabólicos. Alterações de metilação em genes que atuam em processos de proliferação e diferenciação celulares e crescimento foram identificadas em 9/20 dos pacientes (45%), sugerindo implicação clínica. Não foi detectada alteração epigenética comum aos pacientes com diagnóstico clínico de SRS, explicável provavelmente pela heterogeneidade clínica. A investigação de metilação global, utilizando microarray, produziu novos dados que podem contribuir para a compreensão de mecanismos moleculares que influenciam o crescimento pré- e pós-natal. Na translocação aparentemente equilibrada - t(5;6)(q35.2;p22.3)dn, detectada em paciente com suspeita clínica de SRS, a interrupção de um gene, pela quebra no cromossomo 6, pode ser a causa do quadro clínico; alternativamente, a translocação pode ter impactado a regulação de genes de desenvolvimento localizados próximos aos pontos de quebra. A análise de expressão em sangue periférico mostrou que os níveis de cDNA do gene, interrompido pelo ponto de quebra da translocação, estavam reduzidos à metade. Além de sinais típicos da SRS, a paciente apresentava algumas características clínicas sugestivas de displasia cleidocraniana. Assim, a translocação t(5;6) pode ter alterado a interação de genes de desenvolvimento e seus elementos reguladores, levando à desregulação de sua expressão espaço-temporal, e resultando num fenótipo atípico, com características sobrepostas de mais de uma síndrome genética

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A seleção fenotípica é o método de seleção tradicional utilizado nos estágios iniciais de seleção na maioria dos programas de melhoramento genético de cana-de-açúcar após o desenvolvimento de uma população segregante. A maioria das variedades comerciais utilizadas atualmente deriva deste método. Recentemente tem sido propostas estratégias de seleção baseada na avaliação de famílias em gerações precoces em diversos programas de melhoramento de cana-de-açúcar ao redor do mundo, como o objetivo de melhora a resposta à seleção, bem como reduzir o tempo e custo necessários para o desenvolvimento de novas variedades. No presente estudo foram avaliadas 110 famílias de cana-de-açúcar em um delineamento em blocos ao acaso com duas repetições, no ano agrícola de 2012/2013, na Estação Experimentas da empresa CanaVialis, localizada em Conchal, SP. As parcelas consistiram de um sulco de 50 m, contendo 96 plantas (\"seedlings\"). Os seguintes caracteres foram avaliados no estágio de cana planta: diâmetro do colmo (DIA), altura do colmo (ALT) número de colmos por touceira (NCP), número de colmos por touceira na parcela total (NCT); teor de sólidos solúveis (BRIX), teor de açúcar no laboratório (POL) toneladas de cana por hectare (TCH) e toneladas de açúcar por hectare (TPH). Os resultados indicaram que a população tem grande variabilidade genética entre médias de famílias bem como dentro de famílias. Foram detectadas correlações genotípicas positivas entre TCH e os outros caracteres, bem como entre TPH e os outros caracteres. Com base nestes resultados discute-se uma estratégia de seleção com base na seleção para TPH aplicada nas médias de famílias, seguido da seleção fenotípica para ALT, DIA e NCP dentro das famílias selecionadas, priorizando NCP.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As análises biplot que utilizam os modelos de efeitos principais aditivos com inter- ação multiplicativa (AMMI) requerem matrizes de dados completas, mas, frequentemente os ensaios multiambientais apresentam dados faltantes. Nesta tese são propostas novas metodologias de imputação simples e múltipla que podem ser usadas para analisar da- dos desbalanceados em experimentos com interação genótipo por ambiente (G×E). A primeira, é uma nova extensão do método de validação cruzada por autovetor (Bro et al, 2008). A segunda, corresponde a um novo algoritmo não-paramétrico obtido por meio de modificações no método de imputação simples desenvolvido por Yan (2013). Também é incluído um estudo que considera sistemas de imputação recentemente relatados na literatura e os compara com o procedimento clássico recomendado para imputação em ensaios (G×E), ou seja, a combinação do algoritmo de Esperança-Maximização com os modelos AMMI ou EM-AMMI. Por último, são fornecidas generalizações da imputação simples descrita por Arciniegas-Alarcón et al. (2010) que mistura regressão com aproximação de posto inferior de uma matriz. Todas as metodologias têm como base a decomposição por valores singulares (DVS), portanto, são livres de pressuposições distribucionais ou estruturais. Para determinar o desempenho dos novos esquemas de imputação foram realizadas simulações baseadas em conjuntos de dados reais de diferentes espécies, com valores re- tirados aleatoriamente em diferentes porcentagens e a qualidade das imputações avaliada com distintas estatísticas. Concluiu-se que a DVS constitui uma ferramenta útil e flexível na construção de técnicas eficientes que contornem o problema de perda de informação em matrizes experimentais.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Introdução: A identificação de variantes genéticas que predispõem a maior susceptibilidade à dependência à nicotina pode ser importante para a prevenção e o tratamento do tabagismo. No contexto de medicina personalizada, os principais objetivos do presente estudo foram avaliar se polimorfismos nos genes CHRNA2, CHRNA3, CHRNA5 e CHRNB3 estão associados com o nível de dependência em indivíduos fumantes e com o resultado do tratamento antitabágico. Métodos: Estudo de coorte com 1049 pacientes fumantes que receberam tratamento farmacológico (vareniclina, vareniclina e bupropiona, bupropiona e/ou terapia de reposição nicotínica). O sucesso na cessação tabágica foi considerado para os pacientes que completaram 6 meses de abstinência contínua. O teste de Fagerström para a dependência à nicotina (FTND) e o escore de consumo situacional Issa foram utilizados para avaliar a dependência à nicotina. A escala de conforto PAF foi utilizada para avaliar o conforto do paciente durante o tratamento. Os polimorfismos CHRNA2 rs2472553, CHRNA3 rs1051730, CHRNA5 rs16969968, CHRNA5 rs2036527 e CHRNB3 rs6474413 foram genotipados pela análise da curva de melting. Resultados: As mulheres portadoras dos genótipos GA e AA para os polimorfismos CHRNA5 rs16969968 e rs2036527 obtiveram maior taxa de sucesso no tratamento antitabagismo: 44,0% e 56,3% (rs16969968), 41,5% e 56,5% (rs2036527), respectivamente; em comparação com as mulheres portadoras do genótipo GG: 35,7% (rs16969968) e 34,8% (rs2036527), (P=0,03; n=389; P=0,01; n=391). Os genótipos GA ou AA para os rs16969968 e rs2036527 foram associados com maior OR para o sucesso em mulheres (OR=1,63; IC 95%=1,04-2,54; P=0,03 e OR=1,59; IC 95%=1,02-2,48; P=0,04; respectivamente), em um modelo multivariado. Não foi encontrada associação dos polimorfismos no gene CHRNA5 com o escore de FTND. Para os polimorfismos CHRNA2 rs2472553, CHRNA3 rs1051730 e CHRNB3 rs6474413 não foram encontradas associações significativas com os fenótipos estudados. Conclusão: Os polimorfismos rs16969968 e rs2036527 no gene CHRNA5 foram associados com maior taxa de sucesso no tratamento antitabagismo em mulheres. Estes resultados podem contribuir com avanços na terapêutica baseada em medicina personalizada

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho apresenta uma análise de algoritmos computacionais aplicados à estimação de fasores elétricos em SEPs. A medição dos fasores é realizada por meio da alocação de Unidades de Medição Fasorial nestes sistemas e encontra diversas aplicações nas áreas de operação, controle, proteção e planejamento. Para que os fasores possam ser aplicados, são definidos padrões de medição, sincronização e comunicação, por meio da norma IEEE C37.118.1. A norma apresenta os padrões de mensagens, timetag, fasores, sistema de sincronização, e define testes para avaliar a estimação. Apesar de abranger todos esses critérios, a diretriz não define um algoritmo de estimação padrão, abrindo espaço para uso de diversos métodos, desde que a precisão seja atendida. Nesse contexto, o presente trabalho analisa alguns algoritmos de estimação de fasores definidos na literatura, avaliando o comportamento deles em determinados casos. Foram considerados, dessa forma, os métodos: Transformada Discreta de Fourier, Método dos Mínimos Quadrados e Transformada Wavelet Discreta, nas versões recursivas e não-recursivas. Esses métodos foram submetidos a sinais sintéticos, a fim de verificar o comportamento diante dos testes propostos pela norma, avaliando o Total Vector Error, tempo de resposta e atraso e overshoot. Os algoritmos também foram embarcados em um hardware, denominado PC104, e avaliados de acordo com os sinais medidos pelo equipamento na saída analógica de um simulador em tempo real (Real Time Digital Simulator).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nos eucariotos, a evolução dos sistemas de transporte molecular foi essencial pois seu alto grau de compartimentalização requer mecanismos com maior especificidade para a localização de proteínas. Com o estabelecimento das mitocôndrias e plastídeos como organelas da célula eucariota, grande parte dos genes específicos para sua atividade e manutenção foram transferidos ao núcleo. Após a transferência gênica, a maioria das proteínas passaram a ser codificadas pelo núcleo, sintetizadas no citosol e direcionadas às organelas por uma maquinaria complexa que envolve receptores nas membranas das organelas, sequências de direcionamento nas proteínas e proteínas citossólicas que auxiliam o transporte. A importação depende em grande parte de uma sequência na região N-terminal das proteínas que contém sinais reconhecidos pelas membranas organelares. No entanto, muito ainda não é compreendido sobre o transporte de proteínas organelares e fatores ainda desconhecidos podem influenciar o direcionamento sub-celular. O objetivo deste trabalho foi a caracterização da General Regulatory Factor 9 (GRF9), uma proteína da família 14-3-3 de Arabidopsis thaliana potencialmente envolvida no direcionamento de proteínas organelares, e a geração de um genótipo para ser utilizado na obtenção de uma população mutante para genes que afetam o direcionamento da proteína Tiamina Monofosfato Sintetase (TH-1). Após experimentos in vivo e in planta, foi observado que GRF9 interage com as proteínas duplo-direcionadas Mercaptopyruvate Sulfurtransferase1 (MST1) e a Thiazole Biosynthetic Enzyme (THI1), e com a proteína direcionada aos cloroplastos TH-1. Experimentos de deleção e interação in vivo mostraram que a região Box1 de GRF9 é essencial para a interação com THI1 e MST1. Com a finalidade de dar continuidade a caracterização da GRF9 e para realização de testes com relação a sua função no direcionamento de proteínas organelares foi gerada uma linhagem homozigota que superexpressa GRF9. Plantas expressando o transgene TH-1 fusionado a Green Fluorescent Protein (GFP) em genótipo deficiente na TH-1 (CS3469/TH-1-GFP) foram obtidas para a geração de população mutante que possibilitará a descoberta de componentes genéticos ainda desconhecidos e responsáveis pelo direcionamento de proteínas aos cloroplastos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El virus Herpes simple tipo 1 (HSV-1) infecta a la mayoría de los individuos en edades tempranas, manteniéndose en estado latente en sus ganglios sensitivos durante toda la vida. La primoinfección requiere un contacto directo entre la piel o las mucosas dañadas de un individuo no infectado con viriones infectivos liberados en los fluidos corporales de un sujeto infectado. Esta infección primaria suele pasar desapercibida o causar sintomatología típica de una infección viral leve. Sin embargo, en casos excepcionales, puede ser la causa de enfermedades graves y potencialmente letales como la encefalitis herpética, el síndrome séptico por HSV-1, la infección congénita, el eczema herpeticum o la queratitis herpética (Abel et al, 2010; Chase et al, 1987; Frederick et al, 2002; Leung et al, 2013, Liesegang et al, 2001; Whitley et al, 1991). El paso del virus a través de las barreras anatómicas de un individuo no infectado es seguido por la replicación viral en el sitio de la inoculación. A continuación, los viriones entran en las fibras nerviosas sensitivas y son transportados hacía los cuerpos neuronales en los ganglios sensitivos, donde se mantienen en estado latente…

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En el presente trabajo se propone dar solución a uno de los problemas principales surgido en el campo del análisis de imágenes hiperespectrales. En las últimas décadas este campo está siendo muy activo, por lo que es de vital importancia tratar su problema principal: mezcla espectral. Muchos algoritmos han tratado de solucionar este problema, pero que a través de este trabajo se propone una cadena nueva de desmezclado en paralelo, para ser acelerados bajo el paradigma de programación paralela de OpenCl. Este paradigma nos aporta el modelo de programación unificada para acelerar algoritmos en sistemas heterogéneos. Podemos dividir el proceso de desmezclado espectral en tres etapas. La primera tiene la tarea de encontrar el número de píxeles puros, llamaremos endmembers a los píxeles formados por una única firma espectral, utilizaremos el algoritmo conocido como Geometry-based Estimation of number of endmembers, GENE. La segunda etapa se encarga de identificar los píxel endmembers y extraerlos junto con todas sus bandas espectrales, para esta etapa se utilizará el algoritmo conocido por Simplex Growing Algorithm, SGA. En la última etapa se crean los mapas de abundancia para cada uno de los endmembers encontrados, de esta etapa será encargado el algoritmo conocido por, Sum-to-one Constrained Linear Spectral Unmixing, SCLSU. Las plataformas utilizadas en este proyecto han sido tres: CPU, Intel Xeon E5-2695 v3, GPU, NVidia GeForce GTX 980, Acelerador, Intel Xeon Phi 31S1P. La idea de este proyecto se basa en realizar un análisis exhaustivo de los resultados obtenidos en las diferentes plataformas, con el fin de evaluar cuál se ajusta mejor a nuestras necesidades.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El particionado hardware/software es una tarea fundamental en el co-diseño de sistemas embebidos. En ella se decide, teniendo en cuenta las métricas de diseño, qué componentes se ejecutarán en un procesador de propósito general (software) y cuáles en un hardware específico. En los últimos años se han propuesto diversas soluciones al problema del particionado dirigidas por algoritmos metaheurísticos. Sin embargo, debido a la diversidad de modelos y métricas utilizadas, la elección del algoritmo más apropiado sigue siendo un problema abierto. En este trabajo se presenta una comparación de seis algoritmos metaheurísticos: Búsqueda aleatoria (Random search), Búsqueda tabú (Tabu search), Recocido simulado (Simulated annealing), Escalador de colinas estocástico (Stochastic hill climbing), Algoritmo genético (Genetic algorithm) y Estrategia evolutiva (Evolution strategy). El modelo utilizado en la comparación está dirigido a minimizar el área ocupada y el tiempo de ejecución, las restricciones del modelo son consideradas como penalizaciones para incluir en el espacio de búsqueda otras soluciones. Los resultados muestran que los algoritmos Escalador de colinas estocástico y Estrategia evolutiva son los que mejores resultados obtienen en general, seguidos por el Algoritmo genético.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El documento de esta tesis por compendio de publicaciones se divide en dos partes: la síntesis donde se resume la fundamentación, resultados y conclusiones de esta tesis, y las propias publicaciones en su formato original, que se incluyen como apéndices. Dado que existen acuerdo de confidencialidad (véase "Derechos" más adelante) que impiden su publicación en formato electrónico de forma pública y abierta (como es el repositorio de la UA), y acorde con lo que se dictamina en el punto 6 del artículo 14 del RD 99/2011, de 28 de enero, no se incluyen estos apéndices en el documento electrónico que se presenta en cedé, pero se incluyen las referencias completas y sí se incluyen integramente en el ejemplar encuadernado. Si el CEDIP y el RUA así lo decidiesen más adelante, podría modificarse este documento electrónico para incluir los enlaces a los artículos originales.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El avance en la potencia de cómputo en nuestros días viene dado por la paralelización del procesamiento, dadas las características que disponen las nuevas arquitecturas de hardware. Utilizar convenientemente este hardware impacta en la aceleración de los algoritmos en ejecución (programas). Sin embargo, convertir de forma adecuada el algoritmo en su forma paralela es complejo, y a su vez, esta forma, es específica para cada tipo de hardware paralelo. En la actualidad los procesadores de uso general más comunes son los multicore, procesadores paralelos, también denominados Symmetric Multi-Processors (SMP). Hoy en día es difícil hallar un procesador para computadoras de escritorio que no tengan algún tipo de paralelismo del caracterizado por los SMP, siendo la tendencia de desarrollo, que cada día nos encontremos con procesadores con mayor numero de cores disponibles. Por otro lado, los dispositivos de procesamiento de video (Graphics Processor Units - GPU), a su vez, han ido desarrollando su potencia de cómputo por medio de disponer de múltiples unidades de procesamiento dentro de su composición electrónica, a tal punto que en la actualidad no es difícil encontrar placas de GPU con capacidad de 200 a 400 hilos de procesamiento paralelo. Estos procesadores son muy veloces y específicos para la tarea que fueron desarrollados, principalmente el procesamiento de video. Sin embargo, como este tipo de procesadores tiene muchos puntos en común con el procesamiento científico, estos dispositivos han ido reorientándose con el nombre de General Processing Graphics Processor Unit (GPGPU). A diferencia de los procesadores SMP señalados anteriormente, las GPGPU no son de propósito general y tienen sus complicaciones para uso general debido al límite en la cantidad de memoria que cada placa puede disponer y al tipo de procesamiento paralelo que debe realizar para poder ser productiva su utilización. Los dispositivos de lógica programable, FPGA, son dispositivos capaces de realizar grandes cantidades de operaciones en paralelo, por lo que pueden ser usados para la implementación de algoritmos específicos, aprovechando el paralelismo que estas ofrecen. Su inconveniente viene derivado de la complejidad para la programación y el testing del algoritmo instanciado en el dispositivo. Ante esta diversidad de procesadores paralelos, el objetivo de nuestro trabajo está enfocado en analizar las características especificas que cada uno de estos tienen, y su impacto en la estructura de los algoritmos para que su utilización pueda obtener rendimientos de procesamiento acordes al número de recursos utilizados y combinarlos de forma tal que su complementación sea benéfica. Específicamente, partiendo desde las características del hardware, determinar las propiedades que el algoritmo paralelo debe tener para poder ser acelerado. Las características de los algoritmos paralelos determinará a su vez cuál de estos nuevos tipos de hardware son los mas adecuados para su instanciación. En particular serán tenidos en cuenta el nivel de dependencia de datos, la necesidad de realizar sincronizaciones durante el procesamiento paralelo, el tamaño de datos a procesar y la complejidad de la programación paralela en cada tipo de hardware.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Tese de mestrado, Medicina Legal e Ciências Forenses, Universidade de Lisboa, Faculdade de Medicina, 2016

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Técnicas de otimização conhecidas como as metaheurísticas tem conseguido resolversatisfatoriamente problemas conhecidos, mas desenvolvimento das metaheurísticas écaracterizado por escolha de parâmetros para sua execução, na qual a opção apropriadadestes parâmetros (valores). Onde o ajuste de parâmetro é essencial testa-se os parâmetrosaté que resultados viáveis sejam obtidos, normalmente feita pelo desenvolvedor que estaimplementando a metaheuristica. A qualidade dos resultados de uma instância1 de testenão será transferida para outras instâncias a serem testadas e seu feedback pode requererum processo lento de “tentativa e erro” onde o algoritmo têm que ser ajustado para umaaplicação especifica. Diante deste contexto das metaheurísticas surgiu a Busca Reativaque defende a integração entre o aprendizado de máquina dentro de buscas heurísticaspara solucionar problemas de otimização complexos. A partir da integração que a BuscaReativa propõe entre o aprendizado de máquina e as metaheurísticas, surgiu a ideia dese colocar a Aprendizagem por Reforço mais especificamente o algoritmo Q-learning deforma reativa, para selecionar qual busca local é a mais indicada em determinado instanteda busca, para suceder uma outra busca local que não pode mais melhorar a soluçãocorrente na metaheurística VNS. Assim, neste trabalho propomos uma implementação reativa,utilizando aprendizado por reforço para o auto-tuning do algoritmo implementado,aplicado ao problema do caixeiro viajante simétrico e ao problema escalonamento sondaspara manutenção de poços.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The development of complex diseases such as preeclampsia are determined by both environmental and genetic factors, but there is also interaction among these factors. Preeclampsia is a pregnancy-specific disorder characterized by de-novo hypertension and proteinuria after 20th week of gestation. There is a broad spectrum of clinical presentations related to hypertensive disorders of pregnancy (HDP) that can range from mild preeclampsia to eclampsia (seizures) or HELLP syndrome (Hemolysis, Elevation of Liver enzymes, Low Platelets). Those clinical outcomes might be linked to different pathological mechanisms. Our work aims to identify factors (i.e. genes and environmental) associated with the HDP’s clinical spectrum. Using a case-control approach, we selected a total of 1498 pregnant women for epidemiological and genetic studies, encompassing 755 normotensive (control); 518 preeclampsia; 84 eclampsia; and 141 HELLP. Women were genotyped for 18 SNPs across 5 candidate genes (FLT1, ACVR2A, ERAP1, ERAP2 and LNPEP). For the environmental factors, we found maternal age, parity status and pre-gestational body mass index as important risk factors associated with disease. Genes were associated in a phenotype-specific manner: ACVR2A with early preeclampsia (rs1424954, p=0.002); FLT1 with HELLP syndrome (rs9513095, p=0.003); and ERAP1 with eclampsia (rs30187, p=0.03). Our results suggest that different genetic mechanisms along with specific environmental factors might determine the clinical spectrum of HDP. In addition, phenotype refinement seems to be an essential step in the search for complex disease genes