15 resultados para Cadeias de Markov Homogêneas e Não-Homogêneas
em Biblioteca Digital de Teses e Dissertações Eletrônicas da UERJ
Resumo:
O presente trabalho apresenta um estudo referente à aplicação da abordagem Bayesiana como técnica de solução do problema inverso de identificação de danos estruturais, onde a integridade da estrutura é continuamente descrita por um parâmetro estrutural denominado parâmetro de coesão. A estrutura escolhida para análise é uma viga simplesmente apoiada do tipo Euler-Bernoulli. A identificação de danos é baseada em alterações na resposta impulsiva da estrutura, provocadas pela presença dos mesmos. O problema direto é resolvido através do Método de Elementos Finitos (MEF), que, por sua vez, é parametrizado pelo parâmetro de coesão da estrutura. O problema de identificação de danos é formulado como um problema inverso, cuja solução, do ponto de vista Bayesiano, é uma distribuição de probabilidade a posteriori para cada parâmetro de coesão da estrutura, obtida utilizando-se a metodologia de amostragem de Monte Carlo com Cadeia de Markov. As incertezas inerentes aos dados medidos serão contempladas na função de verossimilhança. Três estratégias de solução são apresentadas. Na Estratégia 1, os parâmetros de coesão da estrutura são amostrados de funções densidade de probabilidade a posteriori que possuem o mesmo desvio padrão. Na Estratégia 2, após uma análise prévia do processo de identificação de danos, determina-se regiões da viga potencialmente danificadas e os parâmetros de coesão associados à essas regiões são amostrados a partir de funções de densidade de probabilidade a posteriori que possuem desvios diferenciados. Na Estratégia 3, após uma análise prévia do processo de identificação de danos, apenas os parâmetros associados às regiões identificadas como potencialmente danificadas são atualizados. Um conjunto de resultados numéricos é apresentado levando-se em consideração diferentes níveis de ruído para as três estratégias de solução apresentadas.
Resumo:
Estudos multitemporais de dados de sensoriamento remoto dedicam-se ao mapeamento temático de uso da terra em diferentes instâncias de tempo com o objetivo de identificar as mudanças ocorridas em uma região em determinado período. Em sua maioria, os trabalhos de classificação automática supervisionada de imagens de sensoriamento remoto não utilizam um modelo de transformação temporal no processo de classificação. Pesquisas realizadas na última década abriram um importante precedente ao comprovarem que a utilização de um modelo de conhecimento sobre a dinâmica da região (modelo de transformação temporal), baseado em Cadeias de Markov Fuzzy (CMF), possibilita resultados superiores aos produzidos pelos classificadores supervisionados monotemporais. Desta forma, o presente trabalho enfoca um dos aspectos desta abordagem pouco investigados: a combinação de CMF de intervalos de tempo curtos para classificar imagens de períodos longos. A área de estudo utilizada nos experimentos é um remanescente florestal situado no município de Londrina-PR e que abrange todo o limite do Parque Estadual Mata dos Godoy. Como dados de entrada, são utilizadas cinco imagens do satélite Landsat 5 TM com intervalo temporal de cinco anos. De uma forma geral, verificou-se, a partir dos resultados experimentais, que o uso das Cadeias de Markov Fuzzy contribuiu significativamente para a melhoria do desempenho do processo de classificação automática em imagens orbitais multitemporais, quando comparado com uma classificação monotemporal. Ainda, pôde-se observar que as classificações com base em matrizes estimadas para períodos curtos sempre apresentaram resultados superiores aos das classificações com base em matrizes estimadas para períodos longos. Também, que a superioridade da estimação direta frente à extrapolação se reduz com o aumento da distância temporal. Os resultados do presente trabalho poderão servir de motivação para a criação de sistemas automáticos de classificação de imagens multitemporais. O potencial de sua aplicação se justifica pela aceleração do processo de monitoramento do uso e cobertura da terra, considerando a melhoria obtida frente a classificações supervisionadas tradicionais.
Resumo:
No mundo, as hepatites decorrentes de infecções virais têm sido uma das grandes preocupações em saúde pública devido a seu caráter crônico, curso assintomático e pela sua capacidade de determinar a perda da função hepática. Com o uso em larga escala de medicamentos antirretrovirais, a doença hepática relacionada à infecção pelo vírus da hepatite C (VHC) contribuiu para uma mudança radical na história natural da infecção pelo vírus da imunodeficiência humana (HIV). Não se sabe ao certo o peso da coinfecção VHC/HIV no Brasil, mas evidências apontam que independentemente da região geográfica, esses indivíduos apresentam maiores dificuldades em eliminar o VHC após o tratamento farmacológico, quando comparados a monoinfectados. No âmbito do SUS, o tratamento antiviral padrão para portadores do genótipo 1 do VHC e do HIV é a administração de peguinterferon associado à Ribavirina. Quanto ao período de tratamento e aos indivíduos que devem ser incluídos, os dois protocolos terapêuticos mais recentes possuem divergências. A diretriz mais atual preconiza o tratamento de indivíduos respondedores precoces somados a respondedores virológicos lentos, enquanto a diretriz imediatamente anterior exclui na 12 semana indivíduos que não respondem completamente. Com base nessa divergência, esse estudo objetivou avaliar o custo-efetividade do tratamento contra o VHC em indivíduos portadores do genótipo 1, coinfectados com o HIV, virgens de tratamento antiviral, não cirróticos e imunologicamente estabilizados, submetidos às regras de tratamento antiviral estabelecidos pelas duas mais recentes diretrizes terapêuticas direcionadas ao atendimento pelo SUS. Para tal, foi elaborado um modelo matemático de decisão, baseado em cadeias de Markov, que simulou a progressão da doença hepática mediante o tratamento e não tratamento. Foi acompanhada uma coorte hipotética de mil indivíduos homens, maiores de 40 anos. Adotou-se a perspectiva do Sistema Único de Saúde, horizonte temporal de 30 anos e taxa de desconto de 5% para os custos e consequências clínicas. A extensão do tratamento para respondedores lentos proporcionou incremento de 0,28 anos de vida ajustados por qualidade (QALY), de 7% de sobrevida e aumento de 60% no número de indivíduos que eliminaram o VHC. Além dos esperados benefícios em eficácia, a inclusão de respondedores virológicos lentos mostrou-se uma estratégia custo-efetiva ao alcançar um incremental de custo efetividade de R$ 44.171/QALY, valor abaixo do limiar de aceitabilidade proposto pela Organização Mundial da Saúde OMS - (R$ 63.756,00/QALY). A análise de sensibilidade demonstrou que as possíveis incertezas contidas no modelo são incapazes de alterar o resultado final, evidenciando, assim, a robustez da análise. A inclusão de indivíduos coinfectados VHC/HIV respondedores virológicos lentos no protocolo de tratamento apresenta-se, do ponto de vista fármaco-econômico, como uma estratégia com relação de custoefetividade favorável para o Sistema Único de Saúde. Sua adoção é perfeitamente compatível com a perspectiva do sistema, ao retornar melhores resultados em saúdeassociados a custos abaixo de um teto orçamentário aceitável, e com o da sociedade, ao evitar em maior grau, complicações e internações quando comparado à não inclusão.
Resumo:
A Espectrometria de Massa em Tandem (MS/MS) é mundialmente considerada padrão ouro para a Triagem Neonatal (TN) de Erros Inatos do Metabolismo (IEM). Além de apresentar melhor sensibilidade e especificidade possibilita rastrear uma vasta gama de IEM usando um único teste. Atualmente o Programa Nacional de Triagem Neonatal (PNTN) rastreia cinco doenças (Fenilcetonúria, Hipotiroidismo Congênito, Fibrose Cística, Hemoglobinopatias e Deficiência da Biotinidase). Uma das metas do PNTN é o aprimoramento e a incorporação de novas doenças e/ou tecnologias. Com a recente recomendação da CONITEC (Comissão Nacional de Incorporação de Tecnologias) para aquisição do MS/MS para diagnóstico de doenças raras, vislumbra-se o incremento desta tecnologia para ampliação de doenças triadas, melhora da qualidade do teste diagnóstico, corroborando para melhorar qualidade de vida das crianças acometidas pelos EIM. Este trabalho teve como objetivo realizar uma análise de custo efetividade, para incorporação da tecnologia de tandem MS/MS na triagem neonatal, sob a perspectiva do SUS. Desta maneira buscou-se comparar diferentes cenários da TN com a tecnologia atualmente utilizada (Fluorimetria) somente para Fenilcetonúria (PKU), e com MS/MS para rastreio da PKU e da Deficiência de Cadeia Média Acyl-Coenzima Desidrogenase (MCAD). Para tanto construiu-se um modelo matemático de decisão baseados em cadeias de Markov que simulou a TN da PKU e da MCAD, bem como a história natural da MCAD. Foi acompanhada uma coorte hipotética de cem mil recém-nascidos. O horizonte temporal adotado foi a expectativa de vida da população brasileira de 78 anos de acordo com IBGE. Utilizou-se uma taxa de desconto de 5% para os custos e consequências clínicas para ambos os cenários propostos. Quando incorporado o MS/MS para triagem da PKU os ganhos em saúde continuaram os mesmos, pois o desempenho do MS/MS e da Fluorimetria foram praticamente iguais (efetividade), porém o custo incremental foi quatro vezes maior para a mesma efetividade, o que torna o MS/MS somente para PKU não custo efetiva (dominada). No entanto, quando analisado o cenário do MS/MS para triagem da PKU e da MCAD o custo incremental do MS/MS no PNTN foi menor por causa da economia feita uma vez que é possível realizar ambos os testes no mesmo o teste do pezinho atual.
Resumo:
O objetivo deste trabalho é tratar da simulação do fenômeno de propagação de ondas em uma haste heterogênea elástico, composta por dois materiais distintos (um linear e um não-linear), cada um deles com a sua própria velocidade de propagação da onda. Na interface entre estes materiais existe uma descontinuidade, um choque estacionário, devido ao salto das propriedades físicas. Empregando uma abordagem na configuração de referência, um sistema não-linear hiperbólico de equações diferenciais parciais, cujas incógnitas são a velocidade e a deformação, descrevendo a resposta dinâmica da haste heterogénea. A solução analítica completa do problema de Riemann associado são apresentados e discutidos.
Resumo:
Neste trabalho foram sintetizados nanocompósitos à base de poliuretanos em dispersão aquosa (NWPUs) e argilas hidrofílicas do tipo montimorilonita (MMT) de natureza sódica e cálcica. Os monômeros empregados na síntese foram: poli(glicol propilênico) (PPG); copolímero em bloco à base de poli(glicol etilênico) e poli(glicol propilênico) (EG-b-PG), com teor de 7% de EG; ácido dimetilolpropiônico (DMPA) e diisocianato de isoforona (IPDI). Os NWPUs tiveram as argilas, previamente deslaminadas em água e incorporadas à formulação no momento da dispersão do prepolímero. Dispersões aquosas (WPUs), sem a presença de argila, foram sintetizadas como base, nas quais foram variadas a razão NCO/OH e a proporção de copolímero em relação ao PPG. Nas formulações NWPUs, foram variados também o teor de argila em relação à massa de prepolímero e o tipo de argila sódica e cálcica. As dispersões foram avaliadas, quanto ao teor de sólidos totais, tamanho médio de partícula e viscosidade. Os filmes vazados a partir das dispersões foram caracterizados por espectrometria na região do infravermelho (FTIR), difração de raios-x (XRD) e microscopia eletrônica de varredura (SEM). A resistência térmica dos filmes foi determinada por termogravimetria (TG) e a resistência mecânica dos filmes foi avaliada por ensaios mecânicos em dinamômetro. O grau de absorção de água dos filmes também foi determinado. A formação de nanocompósitos à base de água foi confirmada pela ausência do pico de XRD, característico das argilas empregadas na maioria dos filmes analisados. As micrografias obtidas por SEM confirmam uma dispersão homogênea das argilas na matriz poliuretânica. Os filmes à base de nanocompósitos (NWPUs) apresentaram propriedades superiores às apresentadas por aqueles obtidos a partir das dispersões sem argilas (WPUs). Os revestimentos formados a partir da aplicação das dispersões aderiram à maioria dos substratos testados (metal, vidro, madeira e papel) formando superfícies homogêneas
Resumo:
Neste trabalho, três técnicas para resolver numericamente problemas inversos de transporte de partículas neutras a uma velocidade para aplicações em engenharia nuclear são desenvolvidas. É fato conhecido que problemas diretos estacionários e monoenergéticos de transporte são caracterizados por estimar o fluxo de partículas como uma função-distribuição das variáveis independentes de espaço e de direção de movimento, quando os parâmetros materiais (seções de choque macroscópicas), a geometria, e o fluxo incidente nos contornos do domínio (condições de contorno), bem como a distribuição de fonte interior são conhecidos. Por outro lado, problemas inversos, neste trabalho, buscam estimativas para o fluxo incidente no contorno, ou a fonte interior, ou frações vazio em barras homogêneas. O modelo matemático usado tanto para os problemas diretos como para os problemas inversos é a equação de transporte independente do tempo, a uma velocidade, em geometria unidimensional e com o espalhamento linearmente anisotrópico na formulação de ordenadas discretas (SN). Nos problemas inversos de valor de contorno, dado o fluxo emergente em um extremo da barra, medido por um detector de nêutrons, por exemplo, buscamos uma estimativa precisa para o fluxo incidente no extremo oposto. Por outro lado, nos problemas inversos SN de fonte interior, buscamos uma estimativa precisa para a fonte armazenada no interior do domínio para fins de blindagem, sendo dado o fluxo emergente no contorno da barra. Além disso, nos problemas inversos SN de fração de vazio, dado o fluxo emergente em uma fronteira da barra devido ao fluxo incidente prescrito no extremo oposto, procuramos por uma estimativa precisa da fração de vazio no interior da barra, no contexto de ensaios não-destrutivos para aplicações na indústria. O código computacional desenvolvido neste trabalho apresenta o método espectronodal de malha grossa spectral Greens function (SGF) para os problemas diretos SN em geometria unidimensional para gerar soluções numéricas precisas para os três problemas inversos SN descritos acima. Para os problemas inversos SN de valor de contorno e de fonte interior, usamos a propriedade da proporcionalidade da fuga de partículas; ademais, para os problemas inversos SN de fração de vazio, oferecemos a técnica a qual nos referimos como o método físico da bissecção. Apresentamos resultados numéricos para ilustrar a precisão das três técnicas, conforme descrito nesta tese.
Resumo:
Na natureza há vários fenômenos envolvendo transições de fase com quebra ou restauração de simetrias. Tipicamente, mudanças de fase, são associadas com uma quebra ou restauração de simetria, que acontecem quando um determinado parâmetro de controle é variado, como por exemplo temperatura, densidade, campos externos, ou de forma dinâmica. Essas mudanças que os sistemas sofrem podem levar a formação de defeitos topológicos, tais como paredes de domínios, vórtices ou monopolos magnéticos. Nesse trabalho estudamos particularmente mudanças de fase associadas com quebras ou restaurações dinâmicas de simetria que estão associadas com formação ou destruição de defeitos do tipo paredes de domínio em modelos de campos escalares com simetria discreta. Nesses processos dinâmicos com formação ou destruição de domínios, estudamos a possibilidade de formação de estruturas do tipo oscillons, que são soluções não homogêneas e instáveis de campo, mas que podem concentrar nelas uma quantidade apreciável de energia e terem uma vida (duração) suficientemente grande para serem de importância física. Estudamos a possibilidade de formação dessas soluções em modelos de dois campos escalares interagentes em que o sistema é preparado em diferentes situações, com a dinâmica resultante nesses sistemas estudada numa rede discreta.
Resumo:
Atualmente, o material utilizado para o tratamento endoscópico é o Deflux, porém este é um material não-biológico. Sabe-se que a substância ideal deve ser atóxica, biocompatível, não-migratória, não-antigênica e deve causar o mínimo possível de inflamação no local do implante. A bactéria Zoogloea sp. produz um exopolissacarídeo celulósico (CEP) com baixa citotoxicidade e alto biocompatibilidade. O objetivo deste estudo é investigar, na bexiga de coelho, a biocompatibilidade de implantes de exopolissacarídeo de celulose, produzidos pela Zooglea sp. Foram utilizados como modelo experimental, 20 coelhos adultos da raça Califórnia, com média de seis meses de idade. Os animais foram divididos em dois grupos, sendo o grupo G1, composto por animais mortos três dias após a aplicação do implante (n=9), e o grupo G2, composto por animais mortos três meses após a aplicação do implante (n=11). Cada animal recebeu, no total, quatro implantes, sendo dois de gel de biopolímero e dois de gel Deflux. Foram realizadas as técnicas imunohistoquímicas para marcação de colágeno tipos I e III, alfa-actina de músculo liso, PCNA e reação química TUNEL. Nas amostras de três dias, os implantes de CEP e deflux, eram estruturalmente homogêneos e livres de células inflamatórias ou vasos sanguíneos. Por outro lado, nas amostras de três meses, com exceção de algumas áreas, o CEP estava organizado como feixes curtos que eram sugestivos de um tecido fibroso. Apesar disso, o implante de CEP corou negativamente para colágenos tipos I e III, fibras elásticas, enquanto que o tricrômico de masson, não indicou a presença de colágeno. Em contraste as áreas de implante de deflux nas amostras de três meses estavam fragmentadas, mas ainda eram homogêneas, e ainda não havia nenhuma célula nem vaso sanguíneo em seu interior. As células positivas para PCNA podiam ser claramente percebidas dentro dessas ilhotas, dessa forma indicando um processo inflamatórioproliferativo, em curso. No grupo sacrificado aos três meses, os implantes de deflux ainda estavam negativos, mas em torno das áreas de CEP algumas células positivas para a técnica do TUNEL eram perceptíveis. Nos implantes de CEP de três meses, muitos vasos sanguíneos eram visualizados, e a sua densidade era de 23.865.48. A densidade de microvasos na lâmina própria (41.5111.19) foi significativamente diferente (p<0.001) daquela no implante de CEP. Nossos resultados mostraram que o CEP possui pouca imunogenicidade e se integra melhor no tecido hospedeiro quando comparado ao deflux. Portanto o CEP deve ser um material eficiente em casos em que a incorporação ao tecido é desejada como por exemplo em estruturas de suporte na cirurgia de reconstrução
Resumo:
A presente tese revisita uma velha questão: como a língua refere o mundo? Para tanto, apresenta um percurso teórico que vai da referência à referenciação, do referente ao objeto-do-discurso. Trata, assim, de questões relativas a léxico, semântica, sintaxe, pragmática, cognição, para analisar aspectos da textualidade, notadamente a coesão referencial, passeando principalmente por teorias funcionalistas e da Linguística Textual. Buscando um aproveitamento prático das questões teóricas levantadas, propõe-se a leitura e a interpretação de textos literários e não literários cujos modos de organização do discurso variam entre argumentativo, narrativo, descritivo, expositivo, injuntivo através do acompanhamento das cadeias referenciais e do fluxo de informação do texto. Acompanhar as categorizações e recategorizações das expressões referenciais (presentes nos sintagmas nominais), a introdução e reintrodução dos tópicos discursivos possibilita analisar como ocorre, na interação autor-leitor, a construção dos sentidos e do mundo de nossos discursos
Resumo:
Objetivando avaliar o comportamento das emissões de CO2 do solo em áreas mineradas do município de Santo Antônio de Pádua-RJ e sua correlação com a rizosfera, este presente estudo utilizou uma câmara fechada com sensor de infravermelho em três diferentes paisagens, a saber: A-1 (área reflorestada há 10 anos), A-2 (área desmatada) e A-3 (área em processo de recuperação). Em cada área foi instalada três cilindros para efeitos de repetição. O monitoramento foi realizado durante os meses representativos de cada estação do ano de 2013, sendo a análise realizada durante dois dias consecutivos. Concomitantemente as coletas de CO2 foram realizadas coletas de dados de temperatura e umidade do solo, sendo também avaliadas informações pedológicas através das análises de granulometria, porosidade, pH, carbono orgânico e matéria orgânica. Informações meteorológicas e microclimatológicas também foram extraídas através de uma estação meteorológica automática e através de sensores portáteis. Os resultados permitem concluir que existe uma variação sazonal dos fluxos de CO2, havendo uma tendência de máximos de emissão durante o verão e de mínimas durante o inverno, sendo o outono e a primavera marcados por valores medianos. A correlação das áreas entre os dois dias monitoramento indicam que as emissões foram semelhantes ao da análise em dia anterior, apresentando uma correlação significativa a 5% para A-1 e A-2 e de 1% para A-3. A-1 e A-2 apresentaram emissões de CO2 mais homogêneas que A-3, havendo, entretanto, um maior fluxo de CO2 durante o verão para todas as áreas. Os dados de MOS, COS e pH demonstraram não haver uma correlação direta com as emissões de CO2. Os dados de porosidade e densidade, porém, apontam para uma possível correlação com as menores emissões de CO2 em A-3 devido a menor porosidade e maior densidade de seus solos. A temperatura do solo foi a variável que mais se correlacionou com as emissões de CO2, havendo um índice igual a r =0,68 para A-1 e de r =0,74 para A-2, sendo que em A-3 esta correlação não foi significativa. A temperatura do ar demonstrou uma correlação somente na área descampada de A-2. No que se refere à correlação da umidade do solo não houve correlações diretas significativas, sendo que somente houve uma correlação negativa (r=-0,50) significativa a 5% em A-3 com a umidade do ar. O diagnóstico ambiental das áreas de monitoramento revela que estas possuem baixos indicadores de qualidade, sendo afetados também pela escassez hídrica da região durante oito meses do ano. A-1 apresenta os melhores indicadores biológicos, químicos e microclimáticos, seguidos por A-2 e A-3 que apresentam diversas deficiências e problemas em termos de estrutura e atividade biológica dos solos. Neste estudo permite-se concluir que áreas próximas, porém com características distintas podem produzir diferentes padrões de emissão de CO2, dificultando, portanto, estimativas globais de emissão de CO2. Os elementos mais associados às emissões de CO2 parecem estar relacionados à temperatura do solo e do ar, umidade do ar e estrutura do solo, havendo, entretanto, outros fatores que podem estar indiretamente relacionados e que exercem diferentes influências de acordo com o ambiente analisado.
Resumo:
A segmentação dos nomes nas suas partes constitutivas é uma etapa fundamental no processo de integração de bases de dados por meio das técnicas de vinculação de registros. Esta separação dos nomes pode ser realizada de diferentes maneiras. Este estudo teve como objetivo avaliar a utilização do Modelo Escondido de Markov (HMM) na segmentação nomes e endereços de pessoas e a eficiência desta segmentação no processo de vinculação de registros. Foram utilizadas as bases do Sistema de Informações sobre Mortalidade (SIM) e do Subsistema de Informação de Procedimentos de Alta Complexidade (APAC) do estado do Rio de Janeiro no período entre 1999 a 2004. Uma metodologia foi proposta para a segmentação de nome e endereço sendo composta por oito fases, utilizando rotinas implementadas em PL/SQL e a biblioteca JAHMM, implementação na linguagem Java de algoritmos de HMM. Uma amostra aleatória de 100 registros de cada base foi utilizada para verificar a correção do processo de segmentação por meio do modelo HMM.Para verificar o efeito da segmentação do nome por meio do HMM, três processos de vinculação foram aplicados sobre uma amostra das duas bases citadas acima, cada um deles utilizando diferentes estratégias de segmentação, a saber: 1) divisão dos nomes pela primeira parte, última parte e iniciais do nome do meio; 2) divisão do nome em cinco partes; (3) segmentação segundo o HMM. A aplicação do modelo HMM como mecanismo de segmentação obteve boa concordância quando comparado com o observador humano. As diferentes estratégias de segmentação geraram resultados bastante similares na vinculação de registros, tendo a estratégia 1 obtido um desempenho pouco melhor que as demais. Este estudo sugere que a segmentação de nomes brasileiros por meio do modelo escondido de Markov não é mais eficaz do que métodos tradicionais de segmentação.
Resumo:
A presente dissertação estuda com detalhes a evolução temporal fora do equilíbrio de um condensado de Bose-Einstein homogêneo diluído imerso em um reservatório térmico. Nós modelamos o sistema através de um campo de Bose escalar complexo. É apropriado descrever o comportamento microscópico desse sistema por meio da teoria quântica de campos através do formalismo de Schwinger-Keldysh. Usando esse formalismo, de tempo real a dinâmica do condensado é solucionada por um grupo de equações integro-diferencial auto consistente, essas são solucionadas numericamente. Estudamos também o cenário quench, e como a densidade do gás e as interações entre as flutuações tem o efeito de provocar as instabilidades nesse sistema. Aplicamos esse desenvolvimento para estudar o comportamento de duas espécies homogêneas de um gás de Bose diluído imerso em um reservatório térmico.
Resumo:
As ações de prevenção, diagnóstico e tratamento da hepatite C crônica integram as agendas das políticas de saúde do Brasil e do mundo, pois se trata de uma doença com grande número de acometidos, com alto custo tratamento e que ocasiona graves desfechos e incapacidade, o que acaba por onerar seu custo social. Os protocolos clínicos e diretrizes terapêuticas demonstram os esforços de inúmeras entidades no combate da hepatite C, pois informam aos profissionais de saúde, pacientes e familiares e cidadãos em geral, qual seria a melhor forma, comprovada cientificamente, de se proceder frente a uma infecção desta natureza. Realizouse uma análise de custoefetividade, sob a perspectiva do SUS, das estratégias: tratamento e retratamento com a terapia dupla, tratamento com a terapia dupla e retratamento com a terapia tripla e tratamento com a terapia tripla. Através de modelo de simulação baseado em cadeias Markov foi criada uma coorte hipotética de 1000 indivíduos adultos, acima de 40 anos, de ambos os sexos, sem distinção declasse socioeconômica, com diagnóstico confirmado para hepatite C crônica, monoinfectados pelo genótipo 1 do VHC e com ausência de comorbidades. A simulação foi iniciada com todos os indivíduos portando a forma mais branda da doença, tida como a classificação histológica F0 ou F1 segundo a escala Metavir. Os resultados demonstram que as duas opções, ou seja, a terapia dupla/tripla e a terapia tripla estão abaixo do limiar de aceitabilidade para incorporação de tecnologia proposto pela OMS (2012) que é de 72.195 (R$/QALY) (IBGE, 2013; WHO, 2012). Ambas são custoefetivas, visto que o ICER da terapia dupla/tripla em relação alinha de base foi de 7.186,3 (R$/QALY) e o da terapia tripla foi de 59.053,8 (R$/QALY). Entretanto o custo incremental de terapia tripla em relação à dupla/tripla foi de 31.029 e a efetividade incremental foi de 0,52. Em geral, quando as intervenções analisadas encontramse abaixo do limiar, sugerese a adoção do esquema de maior efetividade. A terapia tripla, apesar de ter apresentado uma efetividade um pouco acima da terapia dupla/tripla, apresentou custo muito superior. Assim, como seria coerente a adoção de uma ou da outra para utilização no SUS, visto que este sistema apresenta recursos limitados, indicase a realização de um estudo de impacto orçamentário para obterse mais um dado de embasamento da decisão e assim poder apoiar o protocolo brasileiro existente ou sugerir a confecção de novo documento.
Resumo:
Ao considerar a disciplina História da Educação na circunstância e na experiência do ensino emergiu a pergunta Que História é essa?, um disparador que provocou a proposta da pesquisa apresentada no doutorado em educação. Procurou-se analisar o arranjo disciplinar, considerando as circunstâncias na composição do currículo de formação dos professores. Foi elaborado um conjunto de interrogações-guia, a saber: Como a História da Educação foi constituída em saber escolar? Quais referências implicaram sua composição? Como a disciplina foi desenvolvida? Que tipos de práticas foram favorecidas no seu desenvolvimento? Que sujeitos foram responsáveis por sua oferta? O problema da constituição histórica da disciplina História da Educação configurou a arquitetura do trabalho de tese, que assumiu a experiência particular de organização da disciplina História da Educação na Universidade Estadual de Londrina, entre 1962 e 1998, assumida aqui, como referência para uma análise local e geral desse dispositivo no campo da Historiografia da Educação. A trama tecida nessa pesquisa se entrelaça na rede de reflexões e debates sobre o tema em âmbito local e nacional. Como chave para análise do problema, operou-se com uma tripla dimensão, a saber; a dimensão institucional, a dimensão dos sujeitos e a dimensão dos saberes. Essa chave se configurou como recurso metodológico, entendendo que tais dimensões não encontram-se separadas e sim implicadas, configurando trama histórica a ser considerada e interrogada, integrantes de uma rede, interdependentes. A investigação particularizada de cada dimensão visou facilitar o tratamento das séries documentais e a análise dos discursos e fontes selecionados. Ao mesmo tempo possibilitou o tratamento das articulações, das regularidades e das variações no período estabelecido. Postas em relação, tornaram possível delinear a constituição da formação docente como desafio institucional, as soluções locais e principalmente o modo como se deu o processo de disciplinarização da História da Educação no âmbito do projeto em análise, considerando a própria genealogia do saber e as soluções marcadas pelas configurações institucionais e agenciamento dos professores que ministraram a disciplina em situações bem determinadas. O conjunto documental organizado em séries homogêneas, a partir do qual pôde-se definir relações, foi constituído da experiência histórica representada, ou seja, registrada. O trabalho se deu considerando então a História Serial, sendo organizado e recortado temporalmente pela e na circunstância dos documentos localizados e selecionados. As séries foram constituídas por programas e diários de classe da UEL, UEPG e UEM, depoimentos de professores, registros e documentos institucionais, material didático, catálogos de curso, propostas curriculares, trabalhos acadêmicos. No movimento de aproximação aos questionamentos apresentados, uma trama narrativa foi tecida no conjunto de quatro capítulos. Este estudo incidiu sobre uma problemática ainda marginal no campo da história da educação, o ensino de História da Educação. A análise das séries documentais apontou para a rede de relações tecidas na configuração da disciplina HE: com experiências internacionais (Europa e Estados Unidos), com a elaboração de bibliografia na área, com os círculos acadêmicos e de formação dos professores colocando à vista a relação entre a tradição e o exercício de criação das formas, recortes e conteúdos da(s) História(s) da Educação ensinada(s). Deste modo, ao examinar o aparato institucional, a ordem dos saberes que instaura a história da educação e o modo como determinados professores conduziram a disciplina, investiu-se no estudo do ordinário da história da educação visibilizando elementos para os quais ainda não se confere a legitimidade e importância que a disciplina e seu ensino podem vir a ter.