139 resultados para Tolerância a falha (Computação)
Resumo:
O Ensino à distância (EaD) procura utilizar propostas pedagógicas para desenvolver sistemas inclusivos de ensino e aprendizagem. Estas propostas tem colaborado no sucesso que a EaD tem alcançado no meio empresarial corporativo. Neste meio, a demanda por cursos de formação técnica tem sido tão alta, que as empresas envolvidas no design instrucional de EaD criaram a noção de cursos à distância expressos, ou seja, cursos cuja a concepção e elaboração devem atender as tradicionais necessidades de rapidez do mercado de trabalho. Esta dissertação procura soluções para um tipo de ensino à distância ainda pouco explorado. O cenário que procuramos equacionar é o do ensino de ferramentas (softwares) para desenho vetorial, onde a metodologia de ensino é parte do processo de ensino corporativo. No processo atual de ensino de ferramentas de computação gráfica, o aluno submete ao professor, normalmente pela internet, o seu trabalho para que uma avaliação seja feita. Nesta dissertação sugerimos que este processo seja modificado de duas formas. Primeiro, no design instrucional para esta situação, trabalhamos constantemente a questão de avaliação não só na sua forma tradicional (atribuição de graus e valores) mas também como aperfeiçoamento do processo de ensino. A hipermídia adaptativa entra nesta proposta como facilitador da relação alunoprofessor-conhecimento, permitindo individualização de um ensino voltado para as massas. Em segundo lugar, propomos que a avaliação das tarefas sejam automatizada. O aluno oferece as partes (objetos) da solução que são avaliadas individualmente através de algoritmos computacionais. Isto permite uma menor participação do professor, o que é compatível com a proposta de cursos expressos. Para que isto seja possível a tarefa proposta pelo professor é dividida em objetos componentes, sendo o aluno estimulado a criar cada objeto segundo o modelo padrão oferecido. A comparaçào de cada objeto criado pelo aluno com o padrão a ser alcançado pode ser feita por diversos algoritmos computacionais existentes ou criados especificamente pelo autor do curso. Neste trabalho apresentamos exemplos desta abordagem e um protótipo que demonstra a viabilidade da proposta.
Resumo:
Tendo em vista o pluralismo religioso e a importância política que as tradições religiosas e as comunidades de fé assumiram nos últimos anos, essa dissertação se dedica ao estudo do conceito moderno de tolerância a partir da interpretação pós-secular de Jürgen Habermas, a qual toma como base a concepção enunciada por Rainer Forst. Tal conceito tem papel de destaque na formação deliberativa da vontade de cidadãos que desejam reconhecer-se como iguais em sociedades marcadas por uma profunda diversidade cultural. O desafio foi, diante do multiculturalismo das sociedades modernas pluralizadas e secularizadas, identificar um procedimento capaz de atender à exigência que se impõe com o fato do pluralismo - um conceito de justiça eticamente neutro - sem, contudo, que isto se desse à custa do desrespeito às minorias religiosas e culturais. A reflexão acerca da tolerância e das dificuldades de sua realização nas sociedades contemporâneas tomou, em grande parte do estudo, o ponto de vista da diversidade religiosa e do crescente papel que a religião desempenha na esfera pública.
Resumo:
A Física das Radiações é um ramo da Física que está presente em diversas áreas de estudo e se relaciona ao conceito de espectrometria. Dentre as inúmeras técnicas espectrométricas existentes, destaca-se a espectrometria por fluorescência de raios X. Esta também possui uma gama de variações da qual pode-se dar ênfase a um determinado subconjunto de técnicas. A produção de fluorescência de raios X permite (em certos casos) a análise das propriedades físico-químicas de uma amostra específica, possibilitando a determinação de sua constituiçõa química e abrindo um leque de aplicações. Porém, o estudo experimental pode exigir uma grande carga de trabalho, tanto em termos do aparato físico quanto em relação conhecimento técnico. Assim, a técnica de simulação entra em cena como um caminho viável, entre a teoria e a experimentação. Através do método de Monte Carlo, que se utiliza da manipulação de números aleatórios, a simulação se mostra como uma espécie de alternativa ao trabalho experimental.Ela desenvolve este papel por meio de um processo de modelagem, dentro de um ambiente seguro e livre de riscos. E ainda pode contar com a computação de alto desempenho, de forma a otimizar todo o trabalho por meio da arquitetura distribuída. O objetivo central deste trabalho é a elaboração de um simulador computacional para análise e estudo de sistemas de fluorescência de raios X desenvolvido numa plataforma de computação distribuída de forma nativa com o intuito de gerar dados otimizados. Como resultados deste trabalho, mostra-se a viabilidade da construção do simulador através da linguagem CHARM++, uma linguagem baseada em C++ que incorpora rotinas para processamento distribuído, o valor da metodologia para a modelagem de sistemas e a aplicação desta na construção de um simulador para espectrometria por fluorescência de raios X. O simulador foi construído com a capacidade de reproduzir uma fonte de radiação eletromagnética, amostras complexas e um conjunto de detectores. A modelagem dos detectores incorpora a capacidade de geração de imagens baseadas nas contagens registradas. Para validação do simulador, comparou-se os resultados espectrométricos com os resultados gerados por outro simulador já validado: o MCNP.
Resumo:
Esse trabalho está baseado na investigação dos detectores de falhas aplicando classificadores de classe única. As falhas a serem detectadas são relativas ao estado de funcionamento de cada componente do circuito, especificamente de suas tolerâncias (falha paramétrica). Usando a função de transferência de cada um dos circuitos são gerados e analisados os sinais de saída com os componentes dentro e fora da tolerância. Uma função degrau é aplicada à entrada do circuito, o sinal de saída desse circuito passa por uma função diferenciadora e um filtro. O sinal de saída do filtro passa por um processo de redução de atributos e finalmente, o sinal segue simultaneamente para os classificadores multiclasse e classe única. Na análise são empregados ferramentas de reconhecimento de padrões e de classificação de classe única. Os classficadores multiclasse são capazes de classificar o sinal de saída do circuito em uma das classes de falha para o qual foram treinados. Eles apresentam um bom desempenho quando as classes de falha não possuem superposição e quando eles não são apresentados a classes de falhas para os quais não foram treinados. Comitê de classificadores de classe única podem classificar o sinal de saída em uma ou mais classes de falha e também podem classificá-lo em nenhuma classe. Eles apresentam desempenho comparável ao classificador multiclasse, mas também são capazes detectar casos de sobreposição de classes de falhas e indicar situações de falhas para os quais não foram treinados (falhas desconhecidas). Os resultados obtidos nesse trabalho mostraram que os classificadores de classe única, além de ser compatível com o desempenho do classificador multiclasse quando não há sobreposição, também detectou todas as sobreposições existentes sugerindo as possíveis falhas.
Resumo:
Esta dissertação investiga a aplicação dos algoritmos evolucionários inspirados na computação quântica na síntese de circuitos sequenciais. Os sistemas digitais sequenciais representam uma classe de circuitos que é capaz de executar operações em uma determinada sequência. Nos circuitos sequenciais, os valores dos sinais de saída dependem não só dos valores dos sinais de entrada como também do estado atual do sistema. Os requisitos cada vez mais exigentes quanto à funcionalidade e ao desempenho dos sistemas digitais exigem projetos cada vez mais eficientes. O projeto destes circuitos, quando executado de forma manual, se tornou demorado e, com isso, a importância das ferramentas para a síntese automática de circuitos cresceu rapidamente. Estas ferramentas conhecidas como ECAD (Electronic Computer-Aided Design) são programas de computador normalmente baseados em heurísticas. Recentemente, os algoritmos evolucionários também começaram a ser utilizados como base para as ferramentas ECAD. Estas aplicações são referenciadas na literatura como eletrônica evolucionária. Os algoritmos mais comumente utilizados na eletrônica evolucionária são os algoritmos genéticos e a programação genética. Este trabalho apresenta um estudo da aplicação dos algoritmos evolucionários inspirados na computação quântica como uma ferramenta para a síntese automática de circuitos sequenciais. Esta classe de algoritmos utiliza os princípios da computação quântica para melhorar o desempenho dos algoritmos evolucionários. Tradicionalmente, o projeto dos circuitos sequenciais é dividido em cinco etapas principais: (i) Especificação da máquina de estados; (ii) Redução de estados; (iii) Atribuição de estados; (iv) Síntese da lógica de controle e (v) Implementação da máquina de estados. O Algoritmo Evolucionário Inspirado na Computação Quântica (AEICQ) proposto neste trabalho é utilizado na etapa de atribuição de estados. A escolha de uma atribuição de estados ótima é tratada na literatura como um problema ainda sem solução. A atribuição de estados escolhida para uma determinada máquina de estados tem um impacto direto na complexidade da sua lógica de controle. Os resultados mostram que as atribuições de estados obtidas pelo AEICQ de fato conduzem à implementação de circuitos de menor complexidade quando comparados com os circuitos gerados a partir de atribuições obtidas por outros métodos. O AEICQ e utilizado também na etapa de síntese da lógica de controle das máquinas de estados. Os circuitos evoluídos pelo AEICQ são otimizados segundo a área ocupada e o atraso de propagação. Estes circuitos são compatíveis com os circuitos obtidos por outros métodos e em alguns casos até mesmo superior em termos de área e de desempenho, sugerindo que existe um potencial de aplicação desta classe de algoritmos no projeto de circuitos eletrônicos.
Resumo:
A propriedade de auto-cura, em redes inteligente de distribuição de energia elétrica, consiste em encontrar uma proposta de reconfiguração do sistema de distribuição com o objetivo de recuperar parcial ou totalmente o fornecimento de energia aos clientes da rede, na ocorrência de uma falha na rede que comprometa o fornecimento. A busca por uma solução satisfatória é um problema combinacional cuja complexidade está ligada ao tamanho da rede. Um método de busca exaustiva se torna um processo muito demorado e muitas vezes computacionalmente inviável. Para superar essa dificuldade, pode-se basear nas técnicas de geração de árvores de extensão mínima do grafo, representando a rede de distribuição. Porém, a maioria dos estudos encontrados nesta área são implementações centralizadas, onde proposta de reconfiguração é obtida por um sistema de supervisão central. Nesta dissertação, propõe-se uma implementação distribuída, onde cada chave da rede colabora na elaboração da proposta de reconfiguração. A solução descentralizada busca uma redução no tempo de reconfiguração da rede em caso de falhas simples ou múltiplas, aumentando assim a inteligência da rede. Para isso, o algoritmo distribuído GHS é utilizado como base na elaboração de uma solução de auto-cura a ser embarcada nos elementos processadores que compõem as chaves de comutação das linhas da rede inteligente de distribuição. A solução proposta é implementada utilizando robôs como unidades de processamento que se comunicam via uma mesma rede, constituindo assim um ambiente de processamento distribuído. Os diferentes estudos de casos testados mostram que, para redes inteligentes de distribuição compostas por um único alimentador, a solução proposta obteve sucesso na reconfiguração da rede, indiferentemente do número de falhas simultâneas. Na implementação proposta, o tempo de reconfiguração da rede não depende do número de linhas nela incluídas. A implementação apresentou resultados de custo de comunicação e tempo dentro dos limites teóricos estabelecidos pelo algoritmo GHS.
Resumo:
O objetivo deste trabalho é avaliar os riscos de ocorrências de intrusos em um sistema de computação em nuvem para sistemas distribuídos utilizando lógica nebulosa. A computação em nuvem é um tema que vem sendo bastante abordado e vem alavancando discussões calorosas, tanto na comunidade acadêmica quanto em palestras profissionais. Embora essa tecnologia esteja ganhando mercado, alguns estudiosos encontram-se céticos afirmando que ainda é cedo para se tirar conclusões. Isto se deve principalmente por causa de um fator crítico, que é a segurança dos dados armazenados na nuvem. Para esta dissertação, foi elaborado um sistema distribuído escrito em Java com a finalidade de controlar um processo de desenvolvimento colaborativo de software na nuvem, o qual serviu de estudo de caso para avaliar a abordagem de detecção de intrusos proposta. Este ambiente foi construído com cinco máquinas (sendo quatro máquinas virtuais e uma máquina real). Foram criados dois sistemas de inferência nebulosos, para análise de problemas na rede de segurança implementados em Java, no ambiente distribuído. Foram realizados diversos testes com o intuito de verificar o funcionamento da aplicação, apresentando um resultado satisfatório dentro dessa metodologia.
Resumo:
Os Sistemas Multi-Robôs proporcionam vantagens sobre um robô individual, quando da realização de uma tarefa com maiores velocidade, precisão e tolerância a falhas. Os estudos dos comportamentos sociais na natureza têm permitido desenvolver algoritmos bio-inspirados úteis na área da robótica de enxame. Seguindo instruções simples e repetitivas, grupos de robôs, fisicamente limitados, conseguem solucionar problemas complexos. Quando existem duas ou mais tarefas a serem realizadas e o conjunto de robôs é heterogêneo, é possível agrupá-los de acordo com as funcionalidades neles disponíveis. No caso em que o conjunto de robôs é homogêneo, o agrupamento pode ser realizado considerando a posição relativa do robô em relação a uma tarefa ou acrescentando alguma característica distintiva. Nesta dissertação, é proposta uma técnica de clusterização espacial baseada simplesmente na comunicação local de robôs. Por meio de troca de mensagens entre os robôs vizinhos, esta técnica permite formar grupos de robôs espacialmente próximos sem precisar movimentar os robôs. Baseando-se nos métodos de clusterização de fichas, a técnica proposta emprega a noção de fichas virtuais, que são chamadas de cargas, sendo que uma carga pode ser estática ou dinâmica. Se uma carga é estática permite determinar a classe à qual um robô pertence. Dependendo da quantidade e do peso das cargas disponíveis no sistema, os robôs intercambiam informações até alcançar uma disposição homogênea de cargas. Quando as cargas se tornam estacionárias, é calculada uma densidade que permite guiar aquelas que estão ainda em movimento. Durante as experiências, foi observado visualmente que as cargas com maior peso acabam se agrupando primeiro enquanto aquelas com menor peso continuam se deslocando no enxame, até que estas cargas formem faixas de densidades diferenciadas para cada classe, alcançando assim o objetivo final que é a clusterização dos robôs.
Resumo:
A esquistossomose acomete 207 milhões de pessoas, com mais de 200 mil mortes anuais. Seu principal agente etiológico é o helminto Schistosoma e o principal modelo experimental, o camundongo. Linhagens de camundongos selecionadas geneticamente para susceptibilidade (TS) e resistência (TR) a tolerância imunológica constituem bons modelos para o estudo da resposta imunológica específica e inespecífica nas infecções. O objetivo deste trabalho foi caracterizar a infecção experimental por S. mansoni nestes camundongos, evidenciando a imunopatologia por diversos parâmetros na fase aguda da infecção. TR e TS não diferiram quanto a penetração de cercárias, recuperação de vermes adultos, fecundidade/produtividade de ovos das fêmeas de S. mansoni, mas predominaram ovos mortos em TS. Quanto maior o número de casais, maior a probabilidade de troca de casais e regressão sexual da fêmea, além de pequena redução da produtividade de ovos. Análise ultraestrutural dos parasitos machos recuperados de TS apresentaram tubérculos edemaciados, espinhos encurtados e em menor densidade que os parasitos dos TR. O tegumento dos parasitos recuperados de TS apresentou-se desorganizado, intensamente vacuolizado e com tendência a se desprender da superfície e espinhos internalizados e células vitelínicas desorganizadas. TS desenvolveram granulomas hepáticos grandes, com fibras radiais e predomínio do estágio exsudativo-produtivo com características de fase produtiva (EP/P), enquanto camundongos TR desenvolveram granulomas menores, com fibras concêntricas e predomínio de granulomas exsudativo-produtivos. TS desenvolveu hepatomegalia mais acentuada na fase aguda da infecção e exacerbada esplenomegalia na fase crônica. A aspartato aminotransferase mais elevada nos TR foi coerente com a acentuada histólise nos granulomas iniciais dos TR. É possível que a histólise menor em TS tenha contribuído para sua intensa hepatomegalia na fase aguda. Leucócitos totais séricos aumentaram em TS, nas fases aguda e crônica, mas não em TR. TS apresentaram anemia durante a fase crônica da infecção, possivelmente devido ao desvio na hematopoiese medular para a produção de leucócitos ou apoptose das hemácias. A mieloperoxidase neutrofílica hepática e no íleo foi maior em TS e a peroxidase de eosinófilos foi mais elevada no íleo do TS. Ambas as linhagens produziram IFN-γ, mas os níveis funcionais de IFN-γ foram diferentes nas duas linhagens em cultura de células. É possível que a imunopatologia hepática grave na linhagem TS possa estar relacionada aos altos títulos IFN-γ. TS produziu IL-10 em maior quantidade, entretanto esta citocina não foi capaz de regular o crescimento exacerbado dos granulomas hepáticos. Altos títulos de IL-4 na linhagem TS também são coerentes com a exacerbação dos granulomas, pois, como a IL-13, a IL-4 induz síntese de colágeno e está relacionada ao desenvolvimento da fibrose no granuloma esquistossomótico. Observamos redução do percentual relativo de células T CD4+ hepáticas de animais infectados em ambas as linhagens e redução percentual nas subpopulações de linfócitos B na medula óssea (precursores, linfócitos B imaturos, maduros e plasmócitos) mais acentuada em TS que em TR, possivelmente devido a extensa mobilização de B imaturos induzida pela inflamação ou desvio da hematopoiese para síntese de granulócitos em TS. Quantitativamente, TR não alterou suas subpopulações de linfócitos B. TS e TR são bons modelos para estudo da resposta imunológica na infecção esquistossomótica experimental. Novos estudos são necessários para confirmar nossas propostas e compreender os mecanismos envolvidos na diferença da resposta imunológica dessas linhagens na relação schistosoma-hospedeiro.
Resumo:
O objetivo do presente trabalho é comparar, do ponto de vista elétrico, a membrana do neurônio ganglionar com a da célula de neuroblastoma, analisando os efeitos das cargas fixas sobre o potencial elétrico nas superfícies da bicamada lipídica e também sobre o comportamento do perfil de potencial através da membrana, considerando as condiçõesfísico-químicas do estado de repouso e do estado de potencial de ação. As condições para a ocorrência dos referidos estados foram baseadas em valores numéricos de parâmetros elétricos e químicos, característicos dessas células, obtidos na literatura. O neurônio ganglionar exemplifica um neurônio sadio, e a célula de neuroblastoma, que é uma célula tumoral, exemplifica um neurônio patológico, alterado por esta condição. O neuroblastoma é um tumor que se origina das células da crista neural (neuroblastos), que é uma estrutura embrionária que dá origem a muitas partes do sistema nervoso, podendo surgir em diversos locais do organismo, desde a região do crânio até a área mais inferior da coluna. O modelo adotado para simular a membrana de neurônio inclui: (a) as distribuições espaciais de cargas elétricas fixas no glicocálix e na rede de proteínas citoplasmáticas; (b) as distribuições de cargas na solução eletrolítica dos meios externo e interno; e (c) as cargas superficiais da bicamada lipídica. Os resultados que obtivemos mostraram que, nos estados de repouso e de ação, os potenciais superficiais da bicamada interno (ÁSbc) e externo (ÁSgb) da célula de neuroblastoma não sofrem alteração mensurável, quando a densidade de carga na superfície interna (QSbc) torna-se 50 vezes mais negativa, tanto para uma densidade de carga na superfície externa da bicamada nula (QSgb = 0), como para um valor de QSgb 6= 0. Porém, no estado de repouso, uma leve queda em ÁSbc do neur^onio ganglionar pode ser observada com este nível de variação de carga, sendo que ÁSgb do neurônio ganglionar é mais negativo quando QSgb = 1=1100 e/A2. No estado de ação, para QSgb = 0, o aumento da negatividade de QSbc não provoca alteração detectável de ÁSbc e ÁSgb para os dois neurônios. Quando consideramos QSgb = 1=1100 e/A2, ÁSgb do neurônio ganglionar se torna mais negativo, não se observando variações detectáveis nos potenciais superficiais da célula de neuroblastoma. Tanto no repouso quanto no estado de ação, ÁSgb das duas células não sofre variação sensível com o aumento da negatividade da carga fixa distribuída espacialmente no citoplasma. Já a ÁSbc sofre uma queda gradativa nos dois tipos celulares; porém, no estado de ação, esta queda é mais rápida. Descobrimos diferenças importantes nos perfis de potencial das duas células, especialmente na região do glicocálix.
Resumo:
O objetivo deste trabalho é determinar o tempo decorrido e fatores relacionados a sobrevida, a partir do diagnóstico da AIDS dos pacientes atendidos no Centro de Pesquisa Hospital Evandro Chagas (CPqHEC). Comparar a sobrevida segundo os critérios definição de caso de AIDS estabelecidos pelo Centro de controle de doenças e prevenção dos EUA (CDC) em 1987 e 1993 e pelo Ministério da Saúde Brasil em 1998. De um total de 1591 indivíduos com sorologia positiva para HIV, cadastrados entre 1986 a 1999, foi selecionada uma amostra aleatória sistemática com 392 indivíduos, sendo identificados 193 casos de AIDS pelo critério CDC 1993. A sobrevida foi considerada como o tempo decorrido da data do diagnóstico da AIDS ao óbito (falha), sendo a censura definida para os pacientes com perda de seguimento ou que permaneceram vivos até dezembro de 2000, com a data da censura igual a data do último atendimento. A duração da sobrevida foi descrita através do método de Kaplan-Meier, sendo comparadas as funções de sobrevida das categorias das variáveis pelo teste log-rank. Um modelo com os co-fatores de maior relevância na sobrevida foi ajustado, utilizando-se o modelo dos riscos proporcionais de Cox. Dos 193 pacientes com AIDS, 92 (47,7%) morreram, 21 (10,9%) abandonaram o tratamento, e 80 (41,7%) permaneceram vivos até o fim do estudo. Encontramos sobrevida relativamente alta nos três critérios de definição de caso avaliados, em parte explicada pelos casos serem procedentes de um único hospital de pesquisa, com alto grau de conhecimento na condução da doença. A profilaxia primária para PPC foi preditor de melhor sobrevida. Casos com AIDS definida por herpes zoster apresentaram melhor prognóstico e os definidos por duas doenças o pior prognóstico.
Resumo:
A presente dissertação tem por objetivo analisar a solidariedade social e sua projeção no sistema constitucional brasileiro, buscando definir seus contornos, fundamentos e limites na efetivação de políticas públicas e decisões judiciais. Ademais, busca-se na presente dissertação demarcar os limites e possibilidades da solidariedade enquanto valor que norteia o campo da política, notadamente na prática democrática. O estudo parte de uma análise histórica e filosófica para contextualizar a solidariedade como princípio jurídico que fundamenta direitos e deveres e que encontra nas demandas por reconhecimento das diferenças seu maior campo de incidência. Na política, a solidariedade se abre à opção de uma democracia anti-elitista que tem no conflito, na tolerância e nas divergências as pedras de toque que proporcionam uma dinâmica que respeita as diferenças e geram cooperação social por conta dessa estima intersubjetiva. Os deveres de reconhecimento intersubjetivo e de estima social possibilitam uma construção social dialógica e interacional, na qual seus sujeitos são respeitados como seres livres e iguais, dignos de igual respeito e consideração. Tal afirmativa é colocada a prova quando da viabilidade constitucional da cota racial nas Universidades Públicas brasileiras. Da mesma forma, a solidariedade se projeta para o campo jurídico devido a sua positivação na Constituição brasileira de 1988 como princípio/objetivo fundamental da República Federativa do Brasil. Deste modo, a jurisprudência do Supremo Tribunal Federal vem lançando mão do princípio fundamental da solidariedade para fundamentar decisões que envolvam deveres fundamentais de redistribuição e reconhecimento. Tais decisões nos permitem traçar um conteúdo mínimo desse princípio à luz da ordem social e cultural brasileira que, aliás, não foi deixada de lado em nenhum momento no decorrer do estudo. Esse conteúdo material encontra nos deveres de redistribuição e reconhecimento, principalmente neste último, seu suporte de eficácia jurídica, viabilizando, em certos momentos, até uma aplicação direta da solidariedade por meio dos deveres.
Resumo:
Nesta dissertação é apresentada uma modelagem analítica para o processo evolucionário formulado pela Teoria da Evolução por Endossimbiose representado através de uma sucessão de estágios envolvendo diferentes interações ecológicas e metábolicas entre populações de bactérias considerando tanto a dinâmica populacional como os processos produtivos dessas populações. Para tal abordagem é feito uso do sistema de equações diferenciais conhecido como sistema de Volterra-Hamilton bem como de determinados conceitos geométricos envolvendo a Teoria KCC e a Geometria Projetiva. Os principais cálculos foram realizados pelo pacote de programação algébrica FINSLER, aplicado sobre o MAPLE.
Resumo:
O objetivo deste estudo foi avaliar a influência do tipo de sistema de cimentação (condicionamento ácido total ou autoadesivo), do modo de ativação (autoativado ou dual), do terço do conduto radicular (cervical, médio ou apical) e da espessura do filme de cimento sobre a resistência de união de pinos de fibra de vidro cimentados em dentes humanos. Quarenta raízes foram incluídas em resina epóxi, submetidas a tratamento endodôntico e obturadas com guta percha e cimento endodôntico sem eugenol. Decorridos sete dias, os condutos foram preparados a uma profundidade de 10mm com brocas padronizadas do sistema dos pinos de fibra (WhitePost DC #2) e aleatoriamente divididos em 4 grupos, conforme o sistema de cimentação e o modo de ativação: (G1) RelyX ARC/Adper Scotchbond Multi-Purpose Plus (condicionamento ácido total), ativação dual, (G2) RelyX ARC/Adper Scotchbond Multi-Purpose Plus, autoativado, (G3) RelyX U100 (autoadesivo), dual e (G4) RelyX U100, autoativado. Após uma semana, cada raiz foi seccionada em máquina de corte, originando 6 fatias de 1 mm de espessura (n=60). Antes do ensaio de push-out cada fatia foi fotografada em ambas as faces, para determinação do raio dos pinos e da espessura do filme de cimento. Após o ensaio mecânico, novas imagens foram capturadas para determinação do modo de falha. Para automatizar a determinação da espessura de cimento, foi desenvolvida uma macro no software KS 400. Os dados foram estatisticamente analisados com ANOVA 3 fatores (resistência de união) e teste de Kruskall-Wallis (espessura do cimento). Comparações múltiplas foram realizadas com o teste Student-Newman-Keuls. Análise de regressão, modelo linear, foi empregada para verificar a correlação entre espessura do cimento e resistência de união. Todos os testes foram aplicados com α = 0,05. O fator cimento exerceu influência significativa para a resistência de união (p = 0,0402): o RelyX U100 apresentou a maior média. A ativação dual elevou os valores de resistência de união em comparação ao modo quimicamente ativado (p < 0,0001). Houve diferenças significantes entre os grupos, sendo G1 (22,4 4,0 MPa) > G3 (20,4 3,6 MPa) > G4 (17,8 5,2 MPa) > G2 (13,5 4,3 MPa). O terço do conduto não exerceu influência significativa sobre a resistência adesiva (p = 0,4749). As espessuras dos filmes de cimento foram estatisticamente diferentes nos diferentes terços: cervical (102 45 m) > médio (75 29 m) > apical (52 28m). Não foi observada forte correlação entre os valores de espessura e os de resistência ao push-out (r = - 0,2016, p = 0,0033). O tipo de falha predominante foi a mista, exceto para o G2, que apresentou 74% das falhas na interface cimento-pino. Dessa forma, o cimento autoadesivo apresentou melhor desempenho que o convencional, e ambos os sistemas duais, sobretudo o RelyX ARC, apresentaram dependência da fotoativação para atingirem maiores valores de resistência de união.
Resumo:
Onicomicose é um termo geral usado para definir infecção fúngica da unha. Seus agentes podem ser dermatófitos, leveduras ou fungos filamentosos não dermatófitos - FFNDs. Estes são comumente encontrados na natureza como saprófitas do solo e de restos vegetais e patógenos de plantas e têm sido considerados fungos patógenos primários de lesões cutâneas. Não existe até o momento terapêutica padrão para o tratamento de onicomicoses por Scytalidium spp., sendo escassos os dados na literatura pesquisada. Este trabalho tem como objetivo avaliar e comparar a resposta terapêutica a três abordagens diferentes de tratamento combinado para onicomicose por Scytalidium spp., todos associados à onicoabrasão. Foram selecionados 30 pacientes com diagnóstico de onicomicose provocada por Scytalidium spp., divididos em três grupos de dez, recebendo cada um os seguintes tratamentos, além da onicoabrasão: Grupo I: Terbinafina oral e esmalte de ciclopiroxolamina 8%, duas vezes por semana por 12 meses; Grupos II e III: Esmalte de ciclopiroxolamina 8%, duas e 5 vezes por semana, respectivamente, por 12 meses. Os parâmetros de avaliação da eficácia foram clínico e micológico ao término do tratamento e seis meses após. Foram utilizados os critérios de cura total, cura parcial, falha terapêutica aos 12 meses e recidiva/reinfecção no acompanhamento de seis meses. Vinte e cinto pacientes completaram o estudo. Não houve diferença estatística entre os grupos nos diversos parâmetros utilizados para avaliação da resposta terapêutica. A avaliação do resultado terapêutico mostra que ao final de 12 meses de tratamento apenas um paciente preencheu os critérios para cura total, e que 32% dos pacientes de todos os grupos apresentaram cura parcial. Todos os pacientes que completaram o estudo obtiveram melhora clínica, que se manteve no período de acompanhamento. A presença dos fungos na lâmina ungueal foi constante, mesmo com a melhora clínica. Embora não se possa afirmar qual a melhor forma de intervenção entre as três terapêuticas propostas devido ao pequeno número de pacientes do estudo, deduz-se, deste trabalho, que não houve vantagem na administração de terapia sistêmica concomitante. É possível considerar que a terapia tópica exclusiva, seja duas ou cinco vezes por semana, possa constituir opção mais adequada para o tratamento da onicomicose por Scytalidium spp.