27 resultados para PROCESAMIENTO DE SEÑALES - TÉCNICAS DIGITALES

em Biblioteca Digital de Teses e Dissertações Eletrônicas da UERJ


Relevância:

20.00% 20.00%

Publicador:

Resumo:

A correção de deformidades esqueléticas da face por meio de um tratamento ortodôntico-cirúrgico tornou-se uma opção segura e previsível. Os movimentos ósseos são milimetricamente calculados e executados cirurgicamente, assim como a oclusão é meticulosamente engrenada através dos movimentos ortodônticos. Os efeitos que os tecidos moles sofrem com as cirurgias ortognáticas são, no entanto, menos previsíveis, e apesar do principal objetivo da cirurgia ortognática ser uma melhora funcional, o componente estético é sem dúvida de extrema importância. Em especial, a região de base alar apresenta resultados muito variáveis, a despeito dos bons resultados esqueléticos atingidos. O objetivo deste estudo foi comparar 2 diferentes tipos de sutura utilizados na região de base do nariz, e observar qual tipo apresenta um resultado que melhor acompanhe os movimentos realizados pelo tecido esquelético. Trinta e cinco pacientes foram aleatoriamente distribuídos em 2 grupos. O grupo 1 funcionou como controle e os pacientes receberam a plicatura nasal intra-oral, que é o tipo de plicatura nasal mais descrito na literatura. Já os pacientes do grupo 2 receberam plicatura nasal extra-oral. Para análise estatística foram calculadas as médias e desvios padrões dos grupos, e a hipótese nula de que não havia diferença entre os 2 grupos foi testata com o teste T de Student. Em ambos os grupos ocorreu um alargamento da base do nariz, porém a média de alargamento do grupo 1 foi de 2,50 milímetros (mm), enquanto que a média de alargamento do grupo 2 foi de 1,26 mm. Além disso, o desvio padrão foi menor para o grupo 2, e a hipótese nula foi rejeitada (p<0,05), demonstrando que a diferença entre os grupos foi estatisticamente significativa. Pôde-se concluir que quando objetiva-se um controle mais previsível e rigoroso da base do nariz, a plicatura nasal extra-oral cumprirá melhor esta função.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho, é proposta uma nova família de métodos a ser aplicada à otimização de problemas multimodais. Nestas técnicas, primeiramente são geradas soluções iniciais com o intuito de explorar o espaço de busca. Em seguida, com a finalidade de encontrar mais de um ótimo, estas soluções são agrupadas em subespaços utilizando um algoritmo de clusterização nebulosa. Finalmente, são feitas buscas locais através de métodos determinísticos de otimização dentro de cada subespaço gerado na fase anterior com a finalidade de encontrar-se o ótimo local. A família de métodos é formada por seis variantes, combinando três esquemas de inicialização das soluções na primeira fase e dois algoritmos de busca local na terceira. A fim de que esta nova família de métodos possa ser avaliada, seus constituintes são comparados com outras metodologias utilizando problemas da literatura e os resultados alcançados são promissores.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O propósito desse trabalho foi verificar a retenção de pinos fibro resinosos cimentados em canais radiculares alargados simulando raízes extensamente comprometidas, fabricados por duas técnicas usadas para diminuir sua desadaptação; comparando-as ao pino fixado somente com cimento. Foram utilizados vinte e quatro raízes de dentes humanos unirradiculares, padronizadas com 15.0 mm de comprimento e 5.0 0.3 mm de diâmetro. As raízes foram incluídas em resina acrílica e divididas em grupos de acordo com a técnica usada: grupo I - pino DC White Post no2 cimentado com sistema adesivo quimicamente ativado e com cimento resinoso dual; grupo II mesmo pino reanatomizado com resina composta para copiar a anatomia do canal radicular, cimentado da mesma forma; e grupo III mesmo pino associado a três pinos acessórios, cimentados do mesmo modo. O canal radicular teve seu diâmetro padronizado pela broca no2 para o pino DC em uma profundidade de 12.0 mm e alargado com uma broca tronco cônica em uma profundidade de 10.0 mm. As oito raízes de cada grupo foram seccionadas transversalmente em três discos de 3.0 mm, a partir da cervical para a execução de um ensaio de extrusão, descartando-se os últimos 2.0 mm, que serviram somente para centralizar o pino. Os valores de retenção foram registrados e tratados estatisticamente por ANOVA e pelo teste SNK (p<0.05). Diferenças significativas foram observadas entre três porções radiculares investigadas em todos os grupos, com os valores de retenção diminuindo da cervical para apical. A retenção na porção apical do grupo com pinos customizado com resina foi estatisticamente maior que na mesma região dos demais grupos. Nenhuma diferença foi encontrada entre o grupo com pinos acessórios e o grupo somente com pino e cimento nessa parte da raiz. Nenhuma diferença foi observada comparando as porções cervical e média dos diferentes grupos. Os tipos de falha após o teste de extrusão foram observados em microscópio eletrônico de varredura com aumento de 200, 600 e 1000 vezes. Elas ocorreram exclusivamente entre o pino e o cimento ou a resina composta. A camada de adesão (camada híbrida) foi mais facilmente observada nas porções cervical e média de todos os grupos. Isso sugere que a retenção nas porções apicais da raiz é predominantemente friccional. Uma vez que pinos acessórios somente alcançam até a porção média do canal radicular, a retenção do pino não é aumentada com essa técnica.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo deste estudo foi avaliar a espessura mínima radicular remanescente e o desgaste porcentual do terço cervical em raízes mesiais de molares inferiores, após a instrumentação com as técnicas ProTaper Universal e Lima única F2. Foram obtidos 100 primeiros molares inferiores com raízes completamente separadas. Desse total, foram selecionados e incluídos no estudo somente 22 que possuíam dois canais distintos na raiz mesial, comprimento entre 20 e 22 mm e grau de curvatura da raiz mesial com angulação variando entre 10 e 20. Destes, 8 foram eliminados por possuírem uma anatomia muito discrepante, o que limitava o processamento e análise digital das imagens (PADI). Os dentes foram acessados e a patência apical foi realizada em todos os canais determinando o comprimento de trabalho. Em cada dente, cada canal mesial foi instrumentado por uma técnica diferente. As amostras foram posicionadas em um dispositivo de montagem e digitalizadas através de microtomografia computadorizada antes e depois de serem completamente instrumentadas. O volume de interesse, correspondente à região de zona de risco, com uma grande margem de tolerância, tanto em direção apical quanto em direção cervical, foi determinado por 234 fatias, totalizando um comprimento vertical de 3,5 mm, para avaliação quantitativa comparativa. Através de PADI mediu-se, de forma automática, a espessura mínima radicular nos dois canais mesiais, antes e após a instrumentação, para todas as fatias de todos os dentes. A partir destes dados foi calculado o desgaste porcentual. Após o tratamento estatístico das mais de 6500 medidas obtidas, pôde-se concluir que não existiu diferença no desgaste da zona de risco produzido pelas duas técnicas de instrumentação testadas. Em todos os casos a espessura radicular remanescente permaneceu dentro de uma margem de segurança, não havendo, portanto, nenhum caso de rasgo ou perfuração. Dessa forma, ambas as técnicas estudadas foram consideradas seguras quanto ao desgaste da zona de risco da raiz mesial dos molares inferiores.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho de pesquisa descreve dois estudos de caso de métodos quimiométricos empregados para a quantificação de hidrocarbonetos policíclicos aromáticos HPAs (naftaleno, fluoreno, fenantreno e fluoranteno) em água potável usando espectroscopia de fluorescência molecular e a classificação e caracterização de sucos de uva e seus parâmetros de qualidade através de espectroscopia de infravermelho próximo. O objetivo do primeiro estudo é a aplicação combinada de métodos quimiométricos de segunda ordem (N-PLS, U-PLS, U-PLS/RBL e PARAFAC) e espectrofluorimetria para determinação direta de HPAs em água potável, visando contribuir para o conhecimento do potencial destas metodologias como alternativa viável para a determinação tradicional por cromatografia univariada. O segundo estudo de caso destinado à classificação e determinação de parâmetros de qualidade de sucos de uva, densidade relativa e teor de sólidos solúveis totais, foi medida por espectroscopia de infravermelho próximo e métodos quimiométricos. Diversos métodos quimiométricos, tais como HCA, PLS-DA, SVM-DA e SIMCA foram investigados para a classificação amostras de sucos de uva ao mesmo tempo que métodos de calibração multivariada de primeira ordem, tais como PLS, iPLS e SVM-LS foram usadas para a predição dos parâmetros de qualidade. O princípio orientador para o desenvolvimento dos estudos aqui descritos foi a necessidade de metodologias analíticas com custo, tempo de execução e facilidade de operação melhores e menor produção de resíduos do que os métodos atualmente utilizados para a quantificação de HPAs, em água de torneira, e classificação e caracterização das amostras de suco de uva e seus parâmetros de qualidade

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho de pesquisa descreve três estudos de utilização de métodos quimiométricos para a classificação e caracterização de óleos comestíveis vegetais e seus parâmetros de qualidade através das técnicas de espectrometria de absorção molecular no infravermelho médio com transformada de Fourier e de espectrometria no infravermelho próximo, e o monitoramento da qualidade e estabilidade oxidativa do iogurte usando espectrometria de fluorescência molecular. O primeiro e segundo estudos visam à classificação e caracterização de parâmetros de qualidade de óleos comestíveis vegetais utilizando espectrometria no infravermelho médio com transformada de Fourier (FT-MIR) e no infravermelho próximo (NIR). O algoritmo de Kennard-Stone foi usado para a seleção do conjunto de validação após análise de componentes principais (PCA). A discriminação entre os óleos de canola, girassol, milho e soja foi investigada usando SVM-DA, SIMCA e PLS-DA. A predição dos parâmetros de qualidade, índice de refração e densidade relativa dos óleos, foi investigada usando os métodos de calibração multivariada dos mínimos quadrados parciais (PLS), iPLS e SVM para os dados de FT-MIR e NIR. Vários tipos de pré-processamentos, primeira derivada, correção do sinal multiplicativo (MSC), dados centrados na média, correção do sinal ortogonal (OSC) e variação normal padrão (SNV) foram utilizados, usando a raiz quadrada do erro médio quadrático de validação cruzada (RMSECV) e de predição (RMSEP) como parâmetros de avaliação. A metodologia desenvolvida para determinação de índice de refração e densidade relativa e classificação dos óleos vegetais é rápida e direta. O terceiro estudo visa à avaliação da estabilidade oxidativa e qualidade do iogurte armazenado a 4C submetido à luz direta e mantido no escuro, usando a análise dos fatores paralelos (PARAFAC) na luminescência exibida por três fluoróforos presentes no iogurte, onde pelo menos um deles está fortemente relacionado com as condições de armazenamento. O sinal fluorescente foi identificado pelo espectro de emissão e excitação das substâncias fluorescentes puras, que foram sugeridas serem vitamina A, triptofano e riboflavina. Modelos de regressão baseados nos escores do PARAFAC para a riboflavina foram desenvolvidos usando os escores obtidos no primeiro dia como variável dependente e os escores obtidos durante o armazenamento como variável independente. Foi visível o decaimento da curva analítica com o decurso do tempo da experimentação. Portanto, o teor de riboflavina pode ser considerado um bom indicador para a estabilidade do iogurte. Assim, é possível concluir que a espectroscopia de fluorescência combinada com métodos quimiométricos é um método rápido para monitorar a estabilidade oxidativa e a qualidade do iogurte

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho, três técnicas para resolver numericamente problemas inversos de transporte de partículas neutras a uma velocidade para aplicações em engenharia nuclear são desenvolvidas. É fato conhecido que problemas diretos estacionários e monoenergéticos de transporte são caracterizados por estimar o fluxo de partículas como uma função-distribuição das variáveis independentes de espaço e de direção de movimento, quando os parâmetros materiais (seções de choque macroscópicas), a geometria, e o fluxo incidente nos contornos do domínio (condições de contorno), bem como a distribuição de fonte interior são conhecidos. Por outro lado, problemas inversos, neste trabalho, buscam estimativas para o fluxo incidente no contorno, ou a fonte interior, ou frações vazio em barras homogêneas. O modelo matemático usado tanto para os problemas diretos como para os problemas inversos é a equação de transporte independente do tempo, a uma velocidade, em geometria unidimensional e com o espalhamento linearmente anisotrópico na formulação de ordenadas discretas (SN). Nos problemas inversos de valor de contorno, dado o fluxo emergente em um extremo da barra, medido por um detector de nêutrons, por exemplo, buscamos uma estimativa precisa para o fluxo incidente no extremo oposto. Por outro lado, nos problemas inversos SN de fonte interior, buscamos uma estimativa precisa para a fonte armazenada no interior do domínio para fins de blindagem, sendo dado o fluxo emergente no contorno da barra. Além disso, nos problemas inversos SN de fração de vazio, dado o fluxo emergente em uma fronteira da barra devido ao fluxo incidente prescrito no extremo oposto, procuramos por uma estimativa precisa da fração de vazio no interior da barra, no contexto de ensaios não-destrutivos para aplicações na indústria. O código computacional desenvolvido neste trabalho apresenta o método espectronodal de malha grossa spectral Greens function (SGF) para os problemas diretos SN em geometria unidimensional para gerar soluções numéricas precisas para os três problemas inversos SN descritos acima. Para os problemas inversos SN de valor de contorno e de fonte interior, usamos a propriedade da proporcionalidade da fuga de partículas; ademais, para os problemas inversos SN de fração de vazio, oferecemos a técnica a qual nos referimos como o método físico da bissecção. Apresentamos resultados numéricos para ilustrar a precisão das três técnicas, conforme descrito nesta tese.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta tese tem como objetivo apresentar uma nova atitude diante do ensino de produção de textos. Trata-se do resultado de uma experiência didático-pedagógica cuja meta é deflagrar nos discentes a competência em produção textual. Então, são descritas técnicas que, explorando as várias linguagens e códigos, estimulam os discentes à expressão verbal, em especial, à produção de textos escritos. Baseadas em pressupostos semiótico-linguísticos, as dinâmicas utilizadas nas aulas criam um espaço no qual a produção de textos se dá de forma lúdica, atraente, longe dos bloqueios que normalmente impedem que os alunos sejam proficientes na interação sociocomunicativa e, especificamente, na produção textual escrita em diferentes gêneros textuais. As três técnicas que originaram esta tese integram um conjunto de quinze propostas de atividades reunidas sob o título de Técnicas de Comunicação e Expressão TCE. Tais técnicas buscam desinibir e promover a expressão verbal escrita, em especial. TCE (ou a eletiva Semiótica & Linguagem) surge como um novo paradigma no ensino de produção de textos, trazendo, para os futuros professores, elementos motivadores para a prática textual, de forma a dinamizar esse momento que, quase sempre, é sinônimo de tortura, medo, insegurança e, consequentemente, fracasso

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esse trabalho compreende dois diferentes estudos de caso: o primeiro foi a respeito de um medicamento para o qual foi desenvolvida uma metodologia para determinar norfloxacino (NOR) por espectrofluorimetria molecular e validação por HPLC. Primeiramente foi desenvolvida uma metodologia por espectrofluorimetria onde foram feitos alguns testes preliminares a fim de estabelecer qual valor de pH iria fornecer a maior intensidade de emissão. Após fixar o pH foi feita a determinação de NOR em padrões aquosos e soluções do medicamento usando calibração univariada. A faixa de concentração trabalhada foi de 0500 μg.L-1. O limite de detecção para o medicamento foi de 6,9 μg.L-1 enquanto que o de quantificação foi de 24,6 μg.L-1. Além dessas, outras figuras de mérito também foram estimadas para desenvolvimento da metodologia e obtiveram resultados muito satisfatórios, como por exemplo, os testes de recuperação no qual a recuperação do analito foi de 99.5 a 103.8%. Para identificação e quantificação do NOR da urina foi necessário diluir a amostra de urina (estudada em dois diferentes níveis de diluição: 500 e 1000 x) e também uso do método da adição de padrão (na mesma faixa de concentração usada para medicamento). Após a aquisição do espectro, todos foram usados para construção do tensor que seria usado no PARAFAC. Foi possível estimar as figuras de mérito como limite de detecção de 11.4 μg.L-1 and 8.4 μg.L-1 (diluição de 500 e 1000 x respectivamente) e limite de quantificação de 34 μg.L-1 e 25.6 μg.L-1 (diluição de 500 x e 1000 x respectivamente). O segundo estudo de caso foi na área alimentícia no qual se usou espectroscopia NIR e FT MIR acopladas a quimiometria para discriminar óleo de soja transgênica e não transgênica. Os espectros dos óleos não mostraram diferença significativa em termos visuais, sendo necessário usar ferramentas quimiométricas capazes de fazer essa distinção. Tanto para espectroscopia NIR quanto FT MIR foi feito o PCA a fim de identificar amostras discrepantes e que influenciariam o modelo de forma negativa. Após efetuar o PCA, foram usadas três diferentes técnicas para discriminar os óleos: SIMCA, SVM-DA e PLS-DA, sendo que para cada técnica foram usados também diferentes pré processamento. No NIR, apenas para um pré processamento se obteve resultados satisfatórios nas três técnicas, enquanto que para FT-MIR ao se usar PLS-DA se obteve 100% de acerto na classificação para todos os pré processamentos

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este estudo abordou o contexto de uma engrenagem macropolítica, na qual o poder dominante (representado pela indústria farmacêutica) se articula à indústria do conhecimento, condicionando construção e divulgação de conhecimento biomédico à mesma lógica da produção e distribuição capitalista de mercadorias. A indústria farmacêutica tem investido em projetos de pesquisas clínicas, com o objetivo de legitimar, cientificamente, seus produtos. A investigação deste papel financiador de ensaios clínicos baseou-se nos depoimentos de quatro médicos, professores de Medicina, coparticipantes de projetos da indústria farmacêutica. Os resultados evidenciaram que os protocolos das pesquisas são elaborados pela própria indústria, sem participação do médico colaborador; o acesso à íntegra dos dados coletados é de exclusividade dos coordenadores centrais da pesquisa; e, os resultados dos ensaios, apresentados através de resumos, são previamente submetidos a critérios de seleção de dados. Com o objetivo de articular saber médico a expectativas de mercado, o poder dominante se exerce através de técnicas de poder (estratégias de marketing), atribuindo aos médicos o papel de técnicos de poder, a serviço de seus interesses. Essa relativização de valores clama por uma crítica revisão ética.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Somente no ano de 2011 foram adquiridos mais de 1.000TB de novos registros digitais de imagem advindos de Sensoriamento Remoto orbital. Tal gama de registros, que possui uma progressão geométrica crescente, é adicionada, anualmente, a incrível e extraordinária massa de dados de imagens orbitais já existentes da superfície da Terra (adquiridos desde a década de 70 do século passado). Esta quantidade maciça de registros, onde a grande maioria sequer foi processada, requer ferramentas computacionais que permitam o reconhecimento automático de padrões de imagem desejados, de modo a permitir a extração dos objetos geográficos e de alvos de interesse, de forma mais rápida e concisa. A proposta de tal reconhecimento ser realizado automaticamente por meio da integração de técnicas de Análise Espectral e de Inteligência Computacional com base no Conhecimento adquirido por especialista em imagem foi implementada na forma de um integrador com base nas técnicas de Redes Neurais Computacionais (ou Artificiais) (através do Mapa de Características Auto- Organizáveis de Kohonen SOFM) e de Lógica Difusa ou Fuzzy (através de Mamdani). Estas foram aplicadas às assinaturas espectrais de cada padrão de interesse, formadas pelos níveis de quantização ou níveis de cinza do respectivo padrão em cada uma das bandas espectrais, de forma que a classificação dos padrões irá depender, de forma indissociável, da correlação das assinaturas espectrais nas seis bandas do sensor, tal qual o trabalho dos especialistas em imagens. Foram utilizadas as bandas 1 a 5 e 7 do satélite LANDSAT-5 para a determinação de cinco classes/alvos de interesse da cobertura e ocupação terrestre em três recortes da área-teste, situados no Estado do Rio de Janeiro (Guaratiba, Mangaratiba e Magé) nesta integração, com confrontação dos resultados obtidos com aqueles derivados da interpretação da especialista em imagens, a qual foi corroborada através de verificação da verdade terrestre. Houve também a comparação dos resultados obtidos no integrador com dois sistemas computacionais comerciais (IDRISI Taiga e ENVI 4.8), no que tange a qualidade da classificação (índice Kappa) e tempo de resposta. O integrador, com classificações híbridas (supervisionadas e não supervisionadas) em sua implementação, provou ser eficaz no reconhecimento automático (não supervisionado) de padrões multiespectrais e no aprendizado destes padrões, pois para cada uma das entradas dos recortes da área-teste, menor foi o aprendizado necessário para sua classificação alcançar um acerto médio final de 87%, frente às classificações da especialista em imagem. A sua eficácia também foi comprovada frente aos sistemas computacionais testados, com índice Kappa médio de 0,86.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Sistemas estruturais em suas variadas aplicações incluindo-se veículos espaciais, automóveis e estruturas de engenharia civil tais como prédios, pontes e plataformas off-shore, acumulam dano durante suas vidas úteis. Em muitas situações, tal dano pode não ser visualmente observado. Do ponto de vista da segurança e da performance da estrutura, é desejável monitorar esta possível ocorrência, localizá-la e quantificá-la. Métodos de identificação de sistemas, que em geral, são classificados numa categoria de Técnicas de Avaliação Não-Destrutivas, podem ser utilizados para esta finalidade. Usando dados experimentais tais como frequências naturais, modos de vibração e deslocamentos estáticos, e um modelo analítico estrutural, parâmetros da estrutura podem ser identificados. As propriedades estruturais do modelo analítico são modificadas de modo a minimizar a diferença entre os dados obtidos por aquele modelo e a resposta medida. Isto pode ser definido como um problema inverso onde os parâmetros da estrutura são identificados. O problema inverso, descrito acima, foi resolvido usando métodos globais de otimização devido à provável presença de inúmeros mínimos locais e a não convexidade do espaço de projeto. Neste trabalho o método da Evolução Diferencial (Differential Evolution, DE) foi utilizado como ferramenta principal de otimização. Trata-se de uma meta-heurística inspirada numa população de soluções sucessivamente atualizada por operações aritméticas como mutações, recombinações e critérios de seleção dos melhores indivíduos até que um critério de convergência seja alcançado. O método da Evolução Diferencial foi desenvolvido como uma heurística para minimizar funções não diferenciáveis e foi aplicado a estruturas planas de treliças com diferentes níveis de danos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Trocadores de calor são equipamentos muito utilizados na indústria de processos com o objetivo de modificar a temperatura e/ou o estado físico de correntes materiais. Uma rede de trocadores de calor pode ser definida como um grupo de trocadores de calor interligados, a fim de reduzir as necessidades de energia de um sistema. No entanto, durante a operação de uma rede, a eficiência térmica dos trocadores de calor diminui devido à deposição. Esse efeito promove o aumento dos custos de combustível e das emissões de carbono. Uma alternativa para mitigar este problema baseia-se no estabelecimento de uma programação das limpezas dos trocadores de calor durante a operação de rede. Este tipo de abordagem ocasiona uma situação na qual ocorre um conflito de escolha: a limpeza de um trocador de calor pode recuperar a sua eficiência térmica, mas implica custos adicionais, tais como, mão-de-obra, produtos químicos, etc. Além disso, durante a limpeza, o trocador de calor tem de ser contornado por uma corrente de by-pass, o que aumenta temporariamente o consumo de energia. Neste contexto, o presente trabalho tem como objetivo explorar diferentes técnicas de otimização envolvendo métodos estocásticos e heurísticos. Com este objetivo foi desenvolvido um conjunto de códigos computacionais integrados que envolvem a simulação pseudo-estacionária do comportamento da rede relacionado com incrustações e a otimização da programação das limpezas deste tipo de sistema. A solução do problema indica os períodos de tempo para a limpeza de cada trocador de calor. Na abordagem estocástica empregada, os parâmetros do algoritmo genético, como probabilidade de crossover e probabilidade de mutação, foram calibrados para o presente problema. A abordagem heurística desenvolvida se deu através da sequência do conjunto de movimentos zero, um e dois. De forma alternativa, desenvolveu-se a metodologia heurística recursiva na qual os conjuntos de movimentos um e dois foram empregados recursivamente. Também foi desenvolvida a abordagem híbrida que consistiu em diferentes combinações da metodologia estocástica e heurística. A análise comparativa entre as metodologias empregadas teve como objetivo avaliar a abordagem mais adequada para o presente problema da programação das limpezas em termos de função objetivo e esforço computacional. O desempenho da abordagem proposta foi explorado através de uma série de exemplos, incluindo uma refinaria real brasileira. Os resultados foram promissores, indicando que as técnicas de otimização analisadas neste trabalho podem ser abordagens interessantes para operações que envolvam redes de trocadores de calor. Dentre as abordagens de otimização analisadas, a metodologia heurística desenvolvida no presente trabalho apresentou os melhores resultados se mostrando competitiva frente às abordagens comparadas da literatura

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo deste estudo in vivo foi avaliar comparativamente três técnicas de clareamento de dentes polpados quanto ao grau de cor final alcançado, sensibilidade dental e satisfação pessoal de operadores e pacientes. Indivíduos jovens de mesma faixa etária e padrão de higiene bucal foram selecionados e divididos aleatoriamente entre os grupos (G1; n=7) caseiro, com regime de uso de 8 h/dia/4 semanas; (G2; n=7) consultório, com regime de clareamento de 4 sessões semanais de 2 aplicações de 15 min cada e; (G3; n=6) associado, com caseiro e consultório combinados. Para as técnicas caseira e de consultório foram utilizados peróxido de carbamida a 16% (WhitegoldHome/Dentsply) e peróxido de hidrogênio a 35% (Whitegold Office/Dentsply), respectivamente. Os registros de cor foram obtidos por um único operador antes e após o emprego da cada técnica utilizando escala de cores Vita Bleachedguide 3D-Master e máquina fotográfica digital profissional (EOS Rebel XT Canon), com ajustes de iluminação, flash e distância focal padronizados. O nível de clareamento foi avaliado por unidades de mudança de cor (luminosidade) na escala de cores, além do número de tons alcançados nas imagens digitais e mudança de cor no sistema CIE L*a*b* por meio do software ScanWhite. Os dados foram tratados estatisticamente pelos testes não paramétricos de Kruskal Wallis e dos sinais (p≤0,05). Os registros de sensibilidade dental trans e pós operatória e da satisfação pessoal dos operadores e pacientes foram preenchidos individualmente em questionário unidimensional ao final de cada sessão. Foram atribuídos escores para a avaliação final da sensibilidade dental, conforme: 0=ausente; 1=leve; 2=moderada e; 3=severa. Os dados foram tratados estatisticamente pelo teste Kruskal Wallis. As médias das variações de unidades de mudança de cor da escala Vita e do software foram, respectivamente: G1) 4,57 (IC1,34), 27,14 (IC12,03); G2) 2,86 (IC0,99), 21,29 (IC14,27); G3) 4 (IC1,82), 25,33 (IC10,70). Na comparação entre os métodos de avaliação de cor, os p-valores do teste dos sinais foram 0,453, 0,453 e 0,687 para os grupos 1, 2 e 3, respectivamente. As médias da variação total de cor (∆E) foram, respectivamente: G1) 8,79(IC4,18), G2) 7,10(IC3,53) e G3) 9,74 (IC4,07). Não foi determinada diferença estatisticamente significante entre os grupos. Os postos médios do nível de sensibilidade foram: G1 = 9,64; G2 = 11,58; e G3 = 10,43, e o p-valor = 0,807. Não houve diferença estatisticamente significante entre grupos. Conclui-se que as técnicas caseiro, consultório e associada foram igualmente eficazes quanto ao nível de cor final, de acordo com os métodos objetivos e subjetivos utilizados. O nível de sensibilidade dental foi o mesmo independentemente da técnica utilizada. Todos os indivíduos registraram satisfação ao final do clareamento.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A detecção de clusters de doenças é um desafio para a saúde pública e principalmente para elucidação da ocorrência de surtos, visto que surtos epidemiológicos são usualmente definidos como aglomeração de casos. As revisões da literatura disponíveis sobre a indicação de qual técnica de análise espacial (TAE) é apropriada para essa tarega se limitam a indicar a escolha das técnicas considerando os tipos de dados, o tipo de cluster e a medida da doença. São raras as diretrizes que sugerem o uso de TAE em investigações de surtos . É um estudo metodológico exploratório, com avaliação de métodos em duas etapas: (i) uma revisão narrativa do objeto da pesquisa e (ii) descrição e revisão crítica da aplicação das técnicas selecionadas na revisão narrativa. As técnicas consideradas de maior importância para investigação de surtos forma revisadas e descritas, incluindo técnicas dos tipos global, loca e focal. treze técnicas foram submetidas à revisão crítica e 14 perguntas relevantes para investigação de surtos foram apreciadas. A análise da capacidade de responta das técnicas selecionadas baseou-se nas características das técnicas e natureza das perguntas da investigação de surtos, buscando-se a equivalência da responta dada pelas técnicas de análise espacial em relação à responta que se pretende alcançar na pergunta da investigação. As técnicas forma classificadas quanto a quantidade de informação que elas fornecem para que a perunca seja respondida, indicando assim, a sua capacidade de responder , ou de responsividade. concluiu-se que as TAE podem contribuir para a investigação de surtos, uma vez que são capazes de responder algumas das perguntas de uma investigação. Todas as catorze perguntas estudadas forma respondidas em algum nível pelas treze técnicas revisadas. Técnicas espaço-temporais e puramente espaciais locais respondem ao maior número de perguntas. Já as espaço-temporais apresentam maior nível de responsividade às perguntas. As técnicas com menor número de perguntas respondidas forma as puramente espaciais focais.