29 resultados para Cadeias de Markov. Algoritmos genéticos
Resumo:
A Espectrometria de Massa em Tandem (MS/MS) é mundialmente considerada padrão ouro para a Triagem Neonatal (TN) de Erros Inatos do Metabolismo (IEM). Além de apresentar melhor sensibilidade e especificidade possibilita rastrear uma vasta gama de IEM usando um único teste. Atualmente o Programa Nacional de Triagem Neonatal (PNTN) rastreia cinco doenças (Fenilcetonúria, Hipotiroidismo Congênito, Fibrose Cística, Hemoglobinopatias e Deficiência da Biotinidase). Uma das metas do PNTN é o aprimoramento e a incorporação de novas doenças e/ou tecnologias. Com a recente recomendação da CONITEC (Comissão Nacional de Incorporação de Tecnologias) para aquisição do MS/MS para diagnóstico de doenças raras, vislumbra-se o incremento desta tecnologia para ampliação de doenças triadas, melhora da qualidade do teste diagnóstico, corroborando para melhorar qualidade de vida das crianças acometidas pelos EIM. Este trabalho teve como objetivo realizar uma análise de custo efetividade, para incorporação da tecnologia de tandem MS/MS na triagem neonatal, sob a perspectiva do SUS. Desta maneira buscou-se comparar diferentes cenários da TN com a tecnologia atualmente utilizada (Fluorimetria) somente para Fenilcetonúria (PKU), e com MS/MS para rastreio da PKU e da Deficiência de Cadeia Média Acyl-Coenzima Desidrogenase (MCAD). Para tanto construiu-se um modelo matemático de decisão baseados em cadeias de Markov que simulou a TN da PKU e da MCAD, bem como a história natural da MCAD. Foi acompanhada uma coorte hipotética de cem mil recém-nascidos. O horizonte temporal adotado foi a expectativa de vida da população brasileira de 78 anos de acordo com IBGE. Utilizou-se uma taxa de desconto de 5% para os custos e consequências clínicas para ambos os cenários propostos. Quando incorporado o MS/MS para triagem da PKU os ganhos em saúde continuaram os mesmos, pois o desempenho do MS/MS e da Fluorimetria foram praticamente iguais (efetividade), porém o custo incremental foi quatro vezes maior para a mesma efetividade, o que torna o MS/MS somente para PKU não custo efetiva (dominada). No entanto, quando analisado o cenário do MS/MS para triagem da PKU e da MCAD o custo incremental do MS/MS no PNTN foi menor por causa da economia feita uma vez que é possível realizar ambos os testes no mesmo o teste do pezinho atual.
Resumo:
A segmentação dos nomes nas suas partes constitutivas é uma etapa fundamental no processo de integração de bases de dados por meio das técnicas de vinculação de registros. Esta separação dos nomes pode ser realizada de diferentes maneiras. Este estudo teve como objetivo avaliar a utilização do Modelo Escondido de Markov (HMM) na segmentação nomes e endereços de pessoas e a eficiência desta segmentação no processo de vinculação de registros. Foram utilizadas as bases do Sistema de Informações sobre Mortalidade (SIM) e do Subsistema de Informação de Procedimentos de Alta Complexidade (APAC) do estado do Rio de Janeiro no período entre 1999 a 2004. Uma metodologia foi proposta para a segmentação de nome e endereço sendo composta por oito fases, utilizando rotinas implementadas em PL/SQL e a biblioteca JAHMM, implementação na linguagem Java de algoritmos de HMM. Uma amostra aleatória de 100 registros de cada base foi utilizada para verificar a correção do processo de segmentação por meio do modelo HMM.Para verificar o efeito da segmentação do nome por meio do HMM, três processos de vinculação foram aplicados sobre uma amostra das duas bases citadas acima, cada um deles utilizando diferentes estratégias de segmentação, a saber: 1) divisão dos nomes pela primeira parte, última parte e iniciais do nome do meio; 2) divisão do nome em cinco partes; (3) segmentação segundo o HMM. A aplicação do modelo HMM como mecanismo de segmentação obteve boa concordância quando comparado com o observador humano. As diferentes estratégias de segmentação geraram resultados bastante similares na vinculação de registros, tendo a estratégia 1 obtido um desempenho pouco melhor que as demais. Este estudo sugere que a segmentação de nomes brasileiros por meio do modelo escondido de Markov não é mais eficaz do que métodos tradicionais de segmentação.
Resumo:
O retardo mental (RM) é caracterizado por um funcionamento intelectual significantemente abaixo da média (QI<70). A prevalência de RM varia entre estudos epidemiológicos, sendo estimada em 2-3% da população mundial, constituindo assim, um dos mais importantes problemas de saúde pública. Há um consenso geral de que o RM é mais comum no sexo masculino, um achado atribuído às numerosas mutações nos genes encontrados no cromossomo X, levando ao retardo mental ligado ao X (RMLX). Dentre os genes presentes no cromossomo X, o Jumonji AT-rich interactive domain IC (JARID1C) foi recentemente identificado como um potencial candidato etiológico do RM, quando mutado. O JARID1C codifica uma proteína que atua como uma desmetilase da lisina 4 da histona H3 (H3K4), imprescindível para a regulação epigenética. Tão recente como a identificação do gene JARID1C, é a descoberta de que mudanças no número de cópias de sequências de DNA, caracterizadas por microdeleções e microduplicações, poderiam ser consideradas como razões funcionalmente importantes de RMLX. Atualmente, cerca de 5-10% dos casos de RM em homens são reconhecidos por ocorrerem devido a estas variações do número de cópias no cromossomo X. Neste estudo, investigamos mutações no gene JARID1C, através do rastreamento dos éxons 9, 11, 12, 13, 15 e 16, em 121 homens de famílias com RM provavelmente ligado ao X. Paralelamente, realizamos a análise da variação do número de cópias em 16 genes localizados no cromossomo X através da técnica de MLPA no mesmo grupo de pacientes. Esta metodologia consiste em uma amplificação múltipla que detecta variações no número de cópias de até 50 sequências diferentes de DNA genômico, sendo capaz de distinguir sequências que diferem em apenas um nucleotídeo. O DNA genômico foi extraído a partir de sangue periférico e as amostras foram amplificadas pela técnica de PCR, seguida da análise por sequenciamento direto. Foram identificadas três variantes na sequência do gene JARID1C entre os pacientes analisados: a variante intrônica 2243+11 G>T, que esteve presente em 67% dos pacientes, a variante silenciosa c.1794C>G e a mutação inédita nonsense c.2172C>A, ambas presentes em 0,82% dos indivíduos investigados. A análise através do MLPA revelou uma duplicação em um dos pacientes envolvendo as sondas referentes ao gene GDI1 e ao gene HUWE1. Este trabalho expande o estudo de mutações no gene JARID1C para a população brasileira ereforça a importância da triagem de mutações neste gene em homens portadores de RM familiar de origem idiopática, assim como, é primeiro relato científico relativo à investigação de variações no número de cópias de genes localizados no cromossomo X em homens brasileiros com RM, através da técnica de MLPA.
Resumo:
Nesse trabalho, foi desenvolvido um simulador numérico (C/C++) para a resolução de escoamentos de fluidos newtonianos incompressíveis, baseado no método de partículas Lagrangiano, livre de malhas, Smoothed Particle Hydrodynamics (SPH). Tradicionalmente, duas estratégias são utilizadas na determinação do campo de pressões de forma a garantir-se a condição de incompressibilidade do fluido. A primeira delas é a formulação chamada Weak Compressible Smoothed Particle Hydrodynamics (WCSPH), onde uma equação de estado para um fluido quase-incompressível é utilizada na determinação do campo de pressões. A segunda, emprega o Método da Projeção e o campo de pressões é obtido mediante a resolução de uma equação de Poisson. No estudo aqui desenvolvido, propõe-se três métodos iterativos, baseados noMétodo da Projeção, para o cálculo do campo de pressões, Incompressible Smoothed Particle Hydrodynamics (ISPH). A fim de validar os métodos iterativos e o código computacional, foram simulados dois problemas unidimensionais: os escoamentos de Couette entre duas placas planas paralelas infinitas e de Poiseuille em um duto infinito e foram usadas condições de contorno do tipo periódicas e partículas fantasmas. Um problema bidimensional, o escoamento no interior de uma cavidade com a parede superior posta em movimento, também foi considerado. Na resolução deste problema foi utilizado o reposicionamento periódico de partículas e partículas fantasmas.
Resumo:
A chegada dos primeiros habitantes há cerca de 15.000 anos e de colonos portugueses e escravos africanos, desde o século 15, em sucessivas migrações na América do Sul, levaram à formação de populações miscigenadas com raízes consideravelmente diversificadas. É notável a heterogeneidade populacional decorrente dessas migrações e do processo de amalgamento de indígenas a partir dos contatos entre os diferentes grupos étnicos, iniciados com a colonização da América pelos europeus. A despeito da elevada miscigenação, ainda se pode encontrar no Brasil populações que, majoritariamente, mantém a identidade genética dos seus ancestrais mais remotos. O objetivo desse estudo foi caracterizar a ancestralidade da população de Santa Isabel do Rio Negro, Amazonas, com fortes traços fenotípicos ameríndios, e da tribo indígena Terena de Mato Grosso do Sul. Para isto, foram estudados marcadores uniparentais paternos ligados à região não recombinante do cromossomo Y e maternos presentes na região controle do DNA mitocondrial (mtDNA). Em relação à herança paterna, foram genotipados 31 indivíduos de Santa Isabel do Rio Negro, sendo que os Terena já haviam sido estudados sob este aspecto. Quanto ao mtDNA, foram estudados 76 indivíduos de ambos os sexos e 51 Indivíduos do sexo masculino de Santa Isabel do Rio Negro e dos Terena, respectivamente. A análise de marcadores Y-SNPs possibilitou a caracterização de 55% dos cromossomos Y dos indivíduos de Santa Isabel do Rio Negro como pertencentes ao haplogrupo Q1a3a*, característico de ameríndio. Através do mtDNA, foi verificado que o haplogrupo A é o mais frequente nas duas populações, com percentuais de 34% e 42% em Santa Isabel do Rio Negro e na tribo Terena, respectivamente, observando-se no tocante à ancestralidade materna a não ocorrência de diferenciação genética significativa entre as duas populações. Por outro lado, a análise do cromossomo Y revelou a ocorrência de distância genética significativa entre elas, o que pode ser resultante da diferença entre os tamanhos das amostras populacionais ou refletir diferenças entre rotas migratórias dos ameríndios anteriormente à colonização. Os resultados mostram ainda que os genomas mitocondriais autóctones foram melhor preservados, e que novos haplogrupos do cromossomo Y foram introduzidos recentemente na população ameríndia. É, portanto, possível concluir que a população de Santa Isabel do Rio Negro e a tribo indígena Terena apresentam um significativo grau de conservação da ancestralidade ameríndia, apesar do longo histórico de contato com europeus e africanos, os outros povos formadores da população brasileira.
Resumo:
A presente tese revisita uma velha questão: como a língua refere o mundo? Para tanto, apresenta um percurso teórico que vai da referência à referenciação, do referente ao objeto-do-discurso. Trata, assim, de questões relativas a léxico, semântica, sintaxe, pragmática, cognição, para analisar aspectos da textualidade, notadamente a coesão referencial, passeando principalmente por teorias funcionalistas e da Linguística Textual. Buscando um aproveitamento prático das questões teóricas levantadas, propõe-se a leitura e a interpretação de textos literários e não literários cujos modos de organização do discurso variam entre argumentativo, narrativo, descritivo, expositivo, injuntivo através do acompanhamento das cadeias referenciais e do fluxo de informação do texto. Acompanhar as categorizações e recategorizações das expressões referenciais (presentes nos sintagmas nominais), a introdução e reintrodução dos tópicos discursivos possibilita analisar como ocorre, na interação autor-leitor, a construção dos sentidos e do mundo de nossos discursos
Resumo:
A engenharia geotécnica é uma das grandes áreas da engenharia civil que estuda a interação entre as construções realizadas pelo homem ou de fenômenos naturais com o ambiente geológico, que na grande maioria das vezes trata-se de solos parcialmente saturados. Neste sentido, o desempenho de obras como estabilização, contenção de barragens, muros de contenção, fundações e estradas estão condicionados a uma correta predição do fluxo de água no interior dos solos. Porém, como a área das regiões a serem estudas com relação à predição do fluxo de água são comumente da ordem de quilômetros quadrados, as soluções dos modelos matemáticos exigem malhas computacionais de grandes proporções, ocasionando sérias limitações associadas aos requisitos de memória computacional e tempo de processamento. A fim de contornar estas limitações, métodos numéricos eficientes devem ser empregados na solução do problema em análise. Portanto, métodos iterativos para solução de sistemas não lineares e lineares esparsos de grande porte devem ser utilizados neste tipo de aplicação. Em suma, visto a relevância do tema, esta pesquisa aproximou uma solução para a equação diferencial parcial de Richards pelo método dos volumes finitos em duas dimensões, empregando o método de Picard e Newton com maior eficiência computacional. Para tanto, foram utilizadas técnicas iterativas de resolução de sistemas lineares baseados no espaço de Krylov com matrizes pré-condicionadoras com a biblioteca numérica Portable, Extensible Toolkit for Scientific Computation (PETSc). Os resultados indicam que quando se resolve a equação de Richards considerando-se o método de PICARD-KRYLOV, não importando o modelo de avaliação do solo, a melhor combinação para resolução dos sistemas lineares é o método dos gradientes biconjugados estabilizado mais o pré-condicionador SOR. Por outro lado, quando se utiliza as equações de van Genuchten deve ser optar pela combinação do método dos gradientes conjugados em conjunto com pré-condicionador SOR. Quando se adota o método de NEWTON-KRYLOV, o método gradientes biconjugados estabilizado é o mais eficiente na resolução do sistema linear do passo de Newton, com relação ao pré-condicionador deve-se dar preferência ao bloco Jacobi. Por fim, há evidências que apontam que o método PICARD-KRYLOV pode ser mais vantajoso que o método de NEWTON-KRYLOV, quando empregados na resolução da equação diferencial parcial de Richards.
Relação entre fatores genéticos envolvidos em vias metabólicas mitocondriais e a doença de Parkinson
Resumo:
A doença de Parkinson (DP) é uma das desordens neurodegenerativas mais comuns associada ao envelhecimento, alcançando 2% aos 70 anos. É uma doença caracterizada pela degeneração progressiva de neurônios dopaminérgicos nigrais nos gânglios basais e pela presença de inclusões protéicas citoplasmáticas denominadas corpúsculos e neuritos de Lewy nos neurônios sobreviventes. A etiologia da DP é pouco conhecida, sendo considerada, na maioria dos casos, idiopática. Conhecimentos alcançados nos últimos 15 anos sobre a base genética da DP demonstram, claramente, que os fatores genéticos desempenham um importante papel na etiologia desta desordem. Neste trabalho, rastreamos mutações nos genes que codificam proteínas participantes de vias metabólicas mitocondriais (Parkin, PINK1 e DJ-1) em 136 pacientes brasileiros com manifestação precoce da DP, através do sequenciamento automático e da técnica de MLPA. Avaliamos a presença de variantes de sequência por meio do sequenciamento dos exons 1 a 12 do gene Parkin e dos exons 1 a 8 do gene PINK1. Em Parkin foram identificadas três mutações patogênicas ou potencialmente patogênicas, ambas em heterozigose: p.T240M, p.437L e p.S145N. Em PINK1 não encontramos variantes de ponto patogênicas. Através da técnica de MLPA investigamos alterações de dosagem nos genes Parkin, PINK1 e DJ-1. Identificamos cinco alterações no gene Parkin em quatro pacientes: uma duplicação heterozigota do exon 4 no paciente PAR2256, uma deleção heterozigota do exon 4 no probando PAR2099, uma deleção homozigota do exon 4 na paciente PAR3380 e um probando heterozigoto composto (PAR2396) com duas alterações, uma duplicação do exon 3 e uma deleção dos exons 5 e 6. No gene PINK1 identificamos uma deleção heterozigota do exon 1, que nunca foi descrita na literatura, em um paciente (PAR2083). Não encontramos alteração quantitativa no gene DJ-1. Neste estudo obtivemos uma frequência total de mutações patogênicas (pontuais e de dosagem) nos genes estudados de 7,3%, sendo 6,6% no gene Parkin e 0,7% no gene PINK1.
Resumo:
O papel dos polimorfismos genéticos da ECA (PGECA) na insuficiência cardíaca (IC) como preditor de desfechos clínicos e ecocardiográficos ainda não está estabelecido. É necessário identificar o perfil genotípico local para se observar se o impacto clínico desses genótipos é igual entre populações estrangeiras e a brasileira. O objetivo deste trabalho foi determinar a frequência das variantes do PGECA e sua relação com a evolução clínica de pacientes com IC de etiologia não isquêmica de uma população do Rio de Janeiro, utilizando desfechos clínicos, ecocardiográficos e do Seattle Heart Failure Model (SHFM).Para isso, realizou-se análise secundária de prontuários de 111 pacientes, acompanhados de forma prospectiva e retrospectiva, além da análise genética com identificação da variante do PGECA e sua classificação. Os pacientes foram acompanhados em média por 64,93,9 meses, tinham 59,51,3 (26-89) anos, predomínio do sexo masculino (60,4%) e da cor da pele branca (51,4 %), mas com alta prevalência de pretos (36 %). A distribuição do PGECA observada foi: 51,4 % DD, 44,1 % DI e apenas 4,5 % II. Hipertensão arterial foi a comorbidade mais frequentemente observada (70,3 %). O tratamento farmacológico estava bastante otimizado: 98,2 % em uso de betabloqueadores e 89,2 % em uso de inibidores da ECA ou losartana. Nenhuma das características clínicas ou do tratamento medicamentoso variou entre os grupos. Cerca de metade da coorte (49,5 %) apresentou fração de ejeção de VE (FEVE) ≤35 %. O diâmetro sistólico do VE (DSVE) final foi a única variável ecocardiográfica isolada significativamente diferente entre os PGECA: 59,21,8 DD x 52,31,9 DI x 59,25,2 (p=0,029). Quando analisadas de maneira evolutiva, todas as variáveis (FEVE, DSVE e DDVE) diferiram de maneira significativa entre os genótipos: p=0,024 para ∆FE, p=0,002 para ∆DSVE e p=0,021 para ∆DDVE. O genótipo DI se associou ao melhor parâmetro ecocardiográfico (aumento de FEVE e diminuição de diâmetros de VE), enquanto que o DD e II apresentaram padrão inverso. Os valores derivados do SHFM (expectativa de vida, mortalidade em um ano e mortalidade em cinco anos) não variaram de forma significativa entre os genótipos, mas notou-se um padrão com o DD associado a piores estimativas, DI a estimativas intermediárias e II a valores mais benignos. Não houve diferença significativa entre desfechos clínicos isolados (óbitos: p=0,552; internação por IC: p=0,602 e PS por IC: p=0,119) ou combinados (óbitos + internação por IC: p=0,559). Na análise multivariada, o peso alelo D foi preditor independente da variação do DSVE (p=0,023). Em relação aos preditores independentes de óbito + internação por IC, foram identificados classe funcional NYHA final (p=0,018), frequência cardíaca final (p=0,026) e uso de furosemida (p=0,041). Em suma, a frequência alélia e das variantes do PGECA foram diferentes da maioria do estudos internacionais. O alelo D foi associado de forma independente à pior evolução ecocardiográfica. Não houve diferenças significativas em relação aos parâmetros derivados do SHFM, embora o genótipo II pareça estar associado com o melhor perfil clínico. Por último, não houve diferenças em relação aos desfechos clínicos entre os PGECA.
Resumo:
Este trabalho apresenta contribuições para algoritmos de controle utilizados em filtros ativos e híbridos conectados em redes elétricas trifásicas a 3 ou a 4 fios. Em relação aos algoritmos de controle para filtros ativos, a contribuição consiste em estender o conceito da filtragem harmônica seletiva para compensação de correntes harmônicas e desequilibradas em uma rede trifásica a 4 fios. Esses algoritmos derivam dos conceitos utilizados na teoria da potência instantânea (teoria pq), em conjunto com um circuito de sincronismo PLL. É importante ressaltar que estes algoritmos não utilizam as correntes consumidas pelas cargas, ou seja, apenas as tensões no ponto da rede onde o filtro está conectado são utilizadas para determinação das correntes harmônicas de referência. Apenas as correntes na saída do conversor são utilizadas como realimentação do controle PWM. Estes algoritmos também foram utilizados no filtro híbrido para compensação de correntes harmônicas em uma rede trifásica a 3 fios. Por fim foi feito uma alteração nesses algoritmos de controle que permite eliminar as correntes utilizadas na realimentação do controle PWM. Resultados de simulação são apresentados com objetivo de observar o comportamento desses algoritmos tanto no filtro ativo quanto no híbrido nas condições mencionadas.
Resumo:
A extração de regras de associação (ARM - Association Rule Mining) de dados quantitativos tem sido pesquisa de grande interesse na área de mineração de dados. Com o crescente aumento das bases de dados, há um grande investimento na área de pesquisa na criação de algoritmos para melhorar o desempenho relacionado a quantidade de regras, sua relevância e a performance computacional. O algoritmo APRIORI, tradicionalmente usado na extração de regras de associação, foi criado originalmente para trabalhar com atributos categóricos. Geralmente, para usá-lo com atributos contínuos, ou quantitativos, é necessário transformar os atributos contínuos, discretizando-os e, portanto, criando categorias a partir dos intervalos discretos. Os métodos mais tradicionais de discretização produzem intervalos com fronteiras sharp, que podem subestimar ou superestimar elementos próximos dos limites das partições, e portanto levar a uma representação imprecisa de semântica. Uma maneira de tratar este problema é criar partições soft, com limites suavizados. Neste trabalho é utilizada uma partição fuzzy das variáveis contínuas, que baseia-se na teoria dos conjuntos fuzzy e transforma os atributos quantitativos em partições de termos linguísticos. Os algoritmos de mineração de regras de associação fuzzy (FARM - Fuzzy Association Rule Mining) trabalham com este princípio e, neste trabalho, o algoritmo FUZZYAPRIORI, que pertence a esta categoria, é utilizado. As regras extraídas são expressas em termos linguísticos, o que é mais natural e interpretável pelo raciocício humano. Os algoritmos APRIORI tradicional e FUZZYAPRIORI são comparado, através de classificadores associativos, baseados em regras extraídas por estes algoritmos. Estes classificadores foram aplicados em uma base de dados relativa a registros de conexões TCP/IP que destina-se à criação de um Sistema de Detecção de Intrusos.
Resumo:
A Inteligência de Enxame foi proposta a partir da observação do comportamento social de espécies de insetos, pássaros e peixes. A ideia central deste comportamento coletivo é executar uma tarefa complexa decompondo-a em tarefas simples, que são facilmente executadas pelos indivíduos do enxame. A realização coordenada destas tarefas simples, respeitando uma proporção pré-definida de execução, permite a realização da tarefa complexa. O problema de alocação de tarefas surge da necessidade de alocar as tarefas aos indivíduos de modo coordenado, permitindo o gerenciamento do enxame. A alocação de tarefas é um processo dinâmico pois precisa ser continuamente ajustado em resposta a alterações no ambiente, na configuração do enxame e/ou no desempenho do mesmo. A robótica de enxame surge deste contexto de cooperação coletiva, ampliada à robôs reais. Nesta abordagem, problemas complexos são resolvidos pela realização de tarefas complexas por enxames de robôs simples, com capacidade de processamento e comunicação limitada. Objetivando obter flexibilidade e confiabilidade, a alocação deve emergir como resultado de um processo distribuído. Com a descentralização do problema e o aumento do número de robôs no enxame, o processo de alocação adquire uma elevada complexidade. Desta forma, o problema de alocação de tarefas pode ser caracterizado como um processo de otimização que aloca as tarefas aos robôs, de modo que a proporção desejada seja atendida no momento em que o processo de otimização encontre a solução desejada. Nesta dissertação, são propostos dois algoritmos que seguem abordagens distintas ao problema de alocação dinâmica de tarefas, sendo uma local e a outra global. O algoritmo para alocação dinâmica de tarefas com abordagem local (ADTL) atualiza a alocação de tarefa de cada robô a partir de uma avaliação determinística do conhecimento atual que este possui sobre as tarefas alocadas aos demais robôs do enxame. O algoritmo para alocação dinâmica de tarefas com abordagem global (ADTG) atualiza a alocação de tarefas do enxame com base no algoritmo de otimização PSO (Particle swarm optimization). No ADTG, cada robô possui uma possível solução para a alocação do enxame que é continuamente atualizada através da troca de informação entre os robôs. As alocações são avaliadas quanto a sua aptidão em atender à proporção-objetivo. Quando é identificada a alocação de maior aptidão no enxame, todos os robôs do enxame são alocados para as tarefas definidas por esta alocação. Os algoritmos propostos foram implementados em enxames com diferentes arranjos de robôs reais demonstrando sua eficiência e eficácia, atestados pelos resultados obtidos.
Resumo:
As ações de prevenção, diagnóstico e tratamento da hepatite C crônica integram as agendas das políticas de saúde do Brasil e do mundo, pois se trata de uma doença com grande número de acometidos, com alto custo tratamento e que ocasiona graves desfechos e incapacidade, o que acaba por onerar seu custo social. Os protocolos clínicos e diretrizes terapêuticas demonstram os esforços de inúmeras entidades no combate da hepatite C, pois informam aos profissionais de saúde, pacientes e familiares e cidadãos em geral, qual seria a melhor forma, comprovada cientificamente, de se proceder frente a uma infecção desta natureza. Realizouse uma análise de custoefetividade, sob a perspectiva do SUS, das estratégias: tratamento e retratamento com a terapia dupla, tratamento com a terapia dupla e retratamento com a terapia tripla e tratamento com a terapia tripla. Através de modelo de simulação baseado em cadeias Markov foi criada uma coorte hipotética de 1000 indivíduos adultos, acima de 40 anos, de ambos os sexos, sem distinção declasse socioeconômica, com diagnóstico confirmado para hepatite C crônica, monoinfectados pelo genótipo 1 do VHC e com ausência de comorbidades. A simulação foi iniciada com todos os indivíduos portando a forma mais branda da doença, tida como a classificação histológica F0 ou F1 segundo a escala Metavir. Os resultados demonstram que as duas opções, ou seja, a terapia dupla/tripla e a terapia tripla estão abaixo do limiar de aceitabilidade para incorporação de tecnologia proposto pela OMS (2012) que é de 72.195 (R$/QALY) (IBGE, 2013; WHO, 2012). Ambas são custoefetivas, visto que o ICER da terapia dupla/tripla em relação alinha de base foi de 7.186,3 (R$/QALY) e o da terapia tripla foi de 59.053,8 (R$/QALY). Entretanto o custo incremental de terapia tripla em relação à dupla/tripla foi de 31.029 e a efetividade incremental foi de 0,52. Em geral, quando as intervenções analisadas encontramse abaixo do limiar, sugerese a adoção do esquema de maior efetividade. A terapia tripla, apesar de ter apresentado uma efetividade um pouco acima da terapia dupla/tripla, apresentou custo muito superior. Assim, como seria coerente a adoção de uma ou da outra para utilização no SUS, visto que este sistema apresenta recursos limitados, indicase a realização de um estudo de impacto orçamentário para obterse mais um dado de embasamento da decisão e assim poder apoiar o protocolo brasileiro existente ou sugerir a confecção de novo documento.
Resumo:
A genética forense tem grande importância na geração de provas em casos de violência sexual, paternidade criminal, identificação de cadáveres e investigação de evidências de locais de crime. A análise de STRs apresenta grande poder de discriminação, mas é uma metodologia multi-etapas, trabalhosa, cara e em muitos casos a análise genética é prejudicada pela baixa quantidade e qualidade das evidências coletadas. Este estudo teve como objetivo desenvolver e caracterizar uma metodologia de triagem de amostras forenses através da análise de perfis de dissociação em alta resolução (HRM) de regiões do DNA mitocondrial, o qual está presente em maior número de cópias e mais resistente a degradação. Para tanto, foram extraídos DNAs de 68 doadores. Estas amostras foram sequenciadas e analisadas por HRM para sete alvos no DNA mitocondrial. Também foram realizados ensaios para determinar a influência do método de extração, da concentração e nível de degradação do DNA no perfil de HRM obtido para uma amostra. Os resultados demonstraram a capacidade da técnica de excluir indivíduos com sequências diferentes da referência comparativa em cinco regiões amplificadas. Podem ser analisadas em conjunto, amostras de DNA com variação de concentração de até a ordem de 100 vezes e extraídas por diferentes metodologias. Condições de degradação de material genético não prejudicaram a obtenção de perfis de dissociação em alta resolução. A sensibilidade da técnica foi aprimorada com a análise de produtos de amplificação de tamanho reduzido. A fim de otimizar o ensaio foi testada a análise de HRM em reações de PCR duplex. Um dos pares de amplificação forneceu perfis de HRM compatíveis com resultados obtidos de reações com amplificação de apenas um dos alvos. Através da análise conjunta das cinco regiões, esta metodologia visa a identificação de indivíduos não relacionados com as referências comparativas, diminuindo o número de amostras a serem analisadas por STRs, reduzindo gastos e aumentando a eficiência da rotina de laboratórios de genética forense.