999 resultados para Pt superficial steps


Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo deste estudo foi avaliar in vitro por meio da Fluorescência de Raios X por Dispersão de Energia (XRF), Microdureza Vickers (MV) e Microscopia Eletrônica de Varredura (MEV) o efeito remineralizante de diferentes princípios bioativos, tais quais, nanopartículas de hidroxiapatita de cálcio (nanoHAp) associadas ou não a fluoreto, fosfopeptídeos de caseína do leite e fosfato de cálcio amorfo (CPP-ACP) associados ou não a fluoreto, fluoreto de sódio e saliva no esmalte dental bovino submetido a ciclagem des-remineralizante simulando lesão erosiva por alto desafio ácido. Foram obtidos 58 corpos de prova (CP) a partir de 58 incisivos bovinos que foram divididos aleatoriamente em 8 grupos, com 7 CP cada um e 2 CP para obtenção de imagem em MEV do esmalte hígido. Cada grupo foi denominado conforme os respectivos tratamentos a serem utilizados. Grupo 1 (G1) Controle; Grupo 2 (G2) Desensibilize Nano P experimental (nanopartículas de hidroxiapatita de cálcio); Grupo 3 (G3) Desensibilize Nano P (nanopartículas de hidroxiapatita de cálcio e flúor); Grupo4 (G4) GC Tooth Mousse (CPP-ACP, fosfopeptídios de caseína e fosfato de cálcio amorfo Recaldent ); Grupo 5 (G5) GC Tooth Mousse Plus (CPP-ACP, fosfopeptídios de caseína e fosfato de cálcio amorfo Recaldent + 900 ppm de flúor); Grupo 6 (G6) solução aquosa de fluoreto de sódio (0,05%); Grupo 7 (G7) solução aquosa de nanopartículas de hidroxiapatita de cálcio (0,375%) e Grupo 8 (G8) solução aquosa de nanopartículas de hidroxiapatita de cálcio (0,375%) + flúor (0,05%). Foram obtidos os valores de XRF e MV antes e depois do tratamento. Durante um período experimental de 10 dias, os CPs foram submetidos a um processo cíclico de des-remineralização incluindo vários ataques diários com ácido cítrico 0,05M (pH 2,3), 6 vezes de 2 minutos ao dia, bem como as aplicações das soluções teste e períodos de remineralização em saliva artificial. O tempo entre os ciclos era de 1,5 h. Foram obtidas imagens em MEV para análise da superfície após o tratamento. Através da análise estatística pelo teste t student (p = 0,05), foram encontrados os seguintes resultados: o grupo controle teve uma desmineralização considerada severa; houve aumento na contagem de P em todos os grupos que receberam tratamento, exceto o G1, igualando ou até mesmo aumentando no caso do G5, em relação a contagem inicial; houve aumento na contagem de Ca em todos os grupos que receberam tratamento, exceto no G1, igualando ou até mesmo aumentando no caso do G4, em relação a contagem inicial; houve perda de microdureza superficial em todos os grupos; o G7 teve comportamento similar ao G1 e o G3 teve comportamento inferior ao G5 em relação ao P. E todos os outros grupos tiveram comportamento superior ao controle; o G4 e o G5 tiveram um comportamento superior ao G2 em relação ao Ca. O G5 teve comportamento superior ao G3 também em relação ao Ca e todos os grupos foram superiores ao controle; o G7 teve comportamento similar ao controle em relação a microdureza superficial e todos os outros grupos foram superiores ao controle.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho tem por objetivo apresentar a evolução da indústria do refino de petróleo no Brasil desde suas origens, sua evolução ao longo dos anos, explicitando as mudanças no perfil de produção, na matéria prima processada e na complexidade das nossas refinarias. Busca, também, apresentar os próximos passos para o refino de petróleo nacional, seus desafios face a produção de petróleos pesados e ácidos, bem como os impactos provocados pela necessidade de produção de derivados com especificações cada vez mais restritivas e com menor impacto ambiental. Optou-se pelo hidrorrefino como o primeiro grande passo para os próximos anos concluindo-se que unidades para o hidrotratamento de correntes intermediárias ou mesmo produto final assumirão um papel fundamental nos futuros esquemas de refino. Outra vertente importante analisada foi a necessidade de aumento de conversão, ressaltando-se que o caminho hoje escolhido de implantação de Unidades de Coqueamento Retardado se esgota no início da próxima década abrindo caminho para a tecnologia de hidroconversão de resíduo. Com relação à qualidade da gasolina e do óleo diesel foi apresentada uma proposta de esquema de refino para permitir o atendimento de especificações mais rígidas

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Investigou-se pelo presente estudo se a concepção presente na Teoria de Replicadores, expressa através do conceito de meme (DAWKINS, 1979), poderia ser um modelo compatível para explicar a propagação de memes no substrato das mídias sociais. No âmbito dos estudos locais, Recuero (2006) sugeriu uma transdução desse modelo, baseando-se nas concepções de Dawkins (1979). Refletindo sobre o posicionamento epistemológico de Recuero (2006), o presente trabalho, baseando-se em Dennett (1995), Blackmore (2002) e Tyler (2011b; 2013b), procedeu às instâncias de Análise Conceitual e Composicional dessa transdução. A partir do conceito de memeplexo (BLACKMORE, 2002), esta pesquisa de base linguística (HALLIDAY, 1987) entende os memes, no substrato das mídias digitais/sociais, como práticas de produção e distribuição linguístico-midiáticas, propaladas a partir de diversas unidades de propagação e das relações criadas pelos internautas nesse processo de transmissão. Investigando tais relações, a partir da instância de Análise Relacional, propõe-se examinar duas unidades de propagação. Expressões meméticas (Que deselegante e #Tenso) e imagens meméticas (oriundas do fenômeno memético Nana em desastres). Integram este estudo dois corpora de expressões meméticas (5275 postagens oriundas ou redirecionadas para o Twitter.com total de 83.655 palavras/tokens) e um corpus bilíngue (Português/Inglês) de imagens meméticas (um total de 134 imagens oriundas do Tumblr.com e Facebook.com). Para analisar os corpora de expressões meméticas utilizou-se a metodologia de Linguística de Corpus (BERBER-SARDINHA, 2004; SHEPHERD, 2009; SOUZA JÚNIOR, 2012, 2013b, 2013c). Para a análise do corpus multimodal de imagens meméticas, utilizou-se a metodologia que chamamos de Análise Propagatória. Objetivamos verificar se essas unidades de propagação e as práticas linguístico-midiáticas que estas transmitem, evoluiriam somente devido a aspectos memético-midiáticos, conforme Recuero (2006) apontara, e com padrão de propagação internalista (DAWKINS, 1979; 1982). Após análise dos dados, revelou-se que, ao nível do propósito, os fenômenos locais investigados não evoluíram por padrão internalista (ou homogêneo) de propagação. Tais padrões revelam ser de natureza externalista (ou heterogênea). Ademais, constatou-se que princípios constitutivos meméticos de evolução como os de fecundidade, longevidade (DAWKINS 1979; 1982) e o de design (DENNETT, 1995), junto com o princípio midiático de evolução de alcance (RECUERO, 2006) mantiveram-se presentes com alto grau de influencia nas propagações de natureza externalista. Por outro lado, o princípio memético da fidelidade (DAWKINS, 1979; 1982) foi o que menos influenciou esses padrões de propagação. Neutralizando a fidelidade, e impulsionados pelo princípio de design, destacaram-se nesse processo evolutivo os princípios linguísticos sistematizadores revelados por este estudo. Isto é: o princípio da funcionalidade (memes evoluem porque podem indicar propósitos diferentes) e o princípio do alcance linguístico (memes podem ser direcionados a itens animados/ inanimados; para internautas em idioma nativo/ estrangeiro)

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The present work is focused on the measurement of workers exposure to nano-TiO2 in the life cycle steps of depollutant mortars. It has been done in the framework of the SCAFFOLD project, which aims at the management of potential risks arising from the use of manufactured nanomaterials in construction. Main findings can be summarized as follows: (1) The occupational exposure to nano-TiO2 is below 0.3 mg/m(3) for all measured scenarios. The highest concentrations were measured during the cleaning task (in the nano-TiO2 manufacturing process) and during the application (spraying) of depollutant coatings on a wall. (2) It was found a high release of particles above the background in several tasks as expected due to the nature of the activities performed. The maximum concentration was measured during drilling and during adding powder materials (mean total particle concentration up to 5.591E+04 particles/cm(3) and 5.69E+04 particles/cm(3)). However, considering data on total particle concentration released, no striking differences have been observed when tasks have been performed using conventional materials in the sector (control) and when using materials doped with nano-objects.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A partir das dimensões dos indivíduos pode-se definir dimensionamentos adequados para os produtos e postos de trabalho, proporcionando segurança e conforto aos usuários. Com o avanço da tecnologia de digitalização de imagens (escaneamento) 3D, é possível tirar algumas medidas de maneira mais rápida e com a redução da presença do entrevistado durante o processo. No entanto, faltam estudos que avaliem estas tecnologias no Brasil, sendo necessária a realização de uma comparação das tecnologias e das respectivas precisões para que seu uso em pesquisas. Com o objetivo de oferecer métodos comparativos para escolha dos marcadores e equipamentos a serem utilizados em uma pesquisa antropométrica tridimensional da população brasileira, no presente estudo estão comparadas duas tecnologias de escaneamento: o sistema a laser WBX da empresa norte americana Cyberware e o sistema MHT da empresa russa Artec Group. O método para avaliação da precisão dimensional dos dados advindos desses equipamentos de digitalização de imagens 3D teve cinco etapas: Estudo dos processos de escaneamento; Escaneamento dos marcadores de pontos anatômicos; Escaneamento utilizando um corpo de prova cilíndrico; Escaneamento de um manequim; Escaneamento de um voluntário que teve seus pontos anatômicos marcados para a retirada de medidas. Foi feita uma comparação entre as medidas retiradas manualmente, por meio de antropômetro e virtualmente, com o auxílio do software de modelagem tridimensional Rhinoceros. Em relação aos resultados obtidos na avaliação do manequim e do voluntário, concluiu-se que a magnitude do erro absoluto é semelhante para ambos os scanners, e permanece constante independentemente das dimensões sob análise. As principais diferenças são em relação às funcionalidades dos equipamentos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A partir de 2002 o Estado assume o esforço de normatizar a atenção às urgências com edição de Portarias e documentos. O SAMU foi o primeiro componente da política implantado. Ele opera com ambulâncias com ou sem médico e com recursos tecnológicos diversos. Este estudo teve como objetivo analisar o potencial de prática de integralidade no SAMU. Para tal, foram realizadas três etapas de trabalho. Analisou-se a política de urgência a partir dos documentos e Portarias que a compõem. No trabalho de campo foram entrevistados seis gestores dos três níveis de governo e avaliadas as práticas de regulação nos SAMU do Estado do Rio de Janeiro. A metodologia utilizou o referencial da análise da conduta estratégica da Teoria da Estruturação de Giddens (1984) relacionando as capacidades cognitivas dos agentes e suas estratégias de ação, com as dimensões estruturais. Para o campo, além da teoria de Giddens, busquei no referencial da avaliação, indicadores (incluindo os da política), dialogando com a análise d situação do serviço. A Política de Urgência tece como marcos os financiamento federal, a regionalização, a capacitação dos profissionais, a função do SAMU de observatório da rede; e a gestão por comitês de urgência. A integralidade é proposta como valor, na indicação de utilizar o conceito ampliado de urgência, através da regionalização e da comunicação entre os serviços. A capacitação não foi instituída no estado e os vínculos empregatícios eram precários. Foi constatada a inoperância do Comitê Gestor Nacional de Urgências e a ausência do Comitê Estadual. Não há assistência integrada tendo entre as causas a insuficiência estrutural da rede, representada pela ausência da atenção básica e pela precariedade nos hospitais de referência. Não há produção e utilização de informação e o SAMU não cumpre a função de observatório de saúde. Os três SAMUs têm estruturas diferenciadas. Foram analisados 206 atendimentos e sua categirazação destacou: o SAMU bem sucedido, com práticas de integralidade no seu componente individual e de acesso aos serviços; sua função de observatório de rede, que refletiu o vazio assistencial do PSF e média complexidade e a restrição do acesso hospitalar; a insuficiência de recursos, com uso inadequado de ambulâncias; e demandas não reconhecidas, onde casos de urgência não reconhecida foram recusados. Destaca-se a prevalência da urgência clínica. Conclusão: a legitimação da regulação esteve presente na atitude dos entrevistados e de alguns profissionais nos casos do SAMU bem sucedido. A densidade das propostas documentais foi a vertente facilitadora do recurso estrutural. A mobilização de recursos autoritativos e alocativos mostrou fragilidades. Não houve mudança significativa nas práticas tipicamente excludentes do SUS, mas acreditamos no efeito cumulativo dos pequenos desvios que têm na ética e na solidariedade a base da aplicação do conhecimento técnico.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A atividade de pesquisa em saúde é uma área de interesse e importância para o desenvolvimento de uma sociedade. Ela pode contribuir no processo de redução das desigualdades na saúde. A constituição de agendas de prioridades em pesquisa, enquanto um instrumento técnico-político indutor de financiamentos de pesquisas alinhadas às necessidade sociais e sanitárias, seria uma das estratégias a serem utilizadas na busca dessa redução. O objetivo deste trabalho foi mapear a aplicação dos recursos financeiros aplicados em pesquisa e desenvolvimento em saúde pelo Ministério da Saúde (MS) durante o período 2003-2005, conforme Agenda Nacional de Prioridades de pesquisa em Saúde (ANPPS), estabelecida em 2004. Utilizaram-se os dados procedentes de pesquisa realizada com a finalidade primária de mensurar os fluxos de recursos investidos em P&D/S no país no período, sendo considerados apenas os investimentos oriundos do próprio MS. Foi computado apenas o financiamento direto em pesquisa e efetivamente pago, excluindo-se dispêndios com salários. As pesquisas forma categorizadas segundo as 24 Subagendas da ANPPS por dois pesquisadores, independentemente, com as discordâncias sendo resolvidas por consenso. O volume de recursos aplicados pelo MS no período foi cerca de R$ 409,7 milhões. Em termos da distribuição dos recursos, segundo as Subagendas componentes da ANPPS, os dado apontaram para uma concentração de fomento em cinco Subagendas principais: Doenças Transmissíveis, Complexo produtivo da Saúde, Pesquisa clínica, Assistência farmacêutica e Doenças não transmissíveis. Somadas, elas representaram investimentos da ordem de R$ 324 milhões para o período 2003-2005. Todas as 24 Subagendas receberam algum tipo de financiamento no período, embora alguns tenham sido de pequena monta. No período sob análise, ocorreram os passos iniciais para a construção e institucionalização da Agenda. Dessa maneira, o estudo realizado pode servir para estabelecer um ponto inicial (como um marco zero) para posteriores estudos sobre o potencial indutor deste instrumento, contribuindo para avaliações acerca da aproximação entre os investimentos em P&D/S no país e as necessidades sanitárias da população e, para o desenvolvimento do SUS.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Essa dissertação de mestrado avaliou os fatores associados à recaída do tabagismo de pacientes assistidos em unidades básicas de saúde. Avaliou-se o índice de recaída do tratamento do fumante no Programa Nacional de Controle de Tabagismo, e a associação entre tempo de recaída e preocupação com peso, depressão e/ou ansiedade. Trata-se de um estudo de coorte prospectivo, composta por 135 pacientes, sendo 95 mulheres e 40 homens, que pararam de fumar após 4 semanas de adesão ao tratamento, sendo acompanhados até 6 meses. O índice de recaída encontrado foi semelhantes em ambos os sexos, sendo próximo de 30% aos 3 meses e 50% aos 6 meses. O tempo de sobrevivência mediano também foi semelhante, em torno de 130 dias. A média de ganho de peso foi maior entre os homens aos 3 e 6 meses. Para avaliar os fatores associados ao tempo de recaída foram calculadas as Hazard Ratios (HR) e respectivos intervalos de confiança de 95% (IC 95%), através do modelo semiparamétrico de riscos proporcionais de Cox. Na análise bivariada, as mulheres que achavam que fumar emagrece ou que faziam dieta apresentaram um risco maior de recaída, porém não estatisticamente significante. Entre as que referiram fazer acompanhamento psicológico e/ou psiquiátrico, o tempo de recaída foi 2,62 vezes menor se comparado àquelas que não o faziam. O risco também mostrou-se aumentado com o uso de álcool (HR=2,11, IC 95%1,15-3,89). Entre os homens, os dois pacientes que faziam uso de medicamentos para depressão e/ou ansiedade tiveram recaída. As demais variáveis analisadas não se mostraram associadas ao risco de recaída por apresentarem HR com intervalos não estatisticamente significativos. Os fumantes poderiam se beneficiar de tratamentos que oferecessem de forma complementar atendimentos para nutrição e saúde mental. O aprimoramento das estratégias de cessação do tabagismo devem levar em conta as diferenças de gênero, a necessidade de assistência a problemas psicológicos e psiquiátricos e o controle de peso para os pacientes com maior dificuldade; passos essenciais para o sucesso das políticas públicas de controle do tabagismo no país.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo deste trabalho é apresentar o contemporâneo movimento sociopolítico do Decrescimento, partindo das ideias inaugurais de Serge Latouche, economista e filósofo francês responsável pela criação deste termo, sua historicidade, premissas de análise, e novas formas de subjetivação que propõe, cuja argumentação se sustenta e deriva também, dentre outros autores - como Castoriadis, Gorz e Mészáros - da tese de David Harvey que estabelece que desenvolvimento não é o mesmo que crescimento, e que é possível promover desenvolvimento nas dimensões das relações pessoais, sociais do cotidiano e das relações com o meio ambiente sem as orientações que favoreçam o capital e sua máxima de acumulação. Trata-se, segundo os autores, de um movimento anticapitalista que busca denunciar questões críticas contemporâneas e contradições e crises do capitalismo, apontando um conjunto de passos a serem dados para o lado de fora desta lógica que valoriza e incentiva o desejo e a necessidade do excesso. Em diálogo pleno com a Ética e seus mais recentes estudos, nos quais desponta a autora Victoria Camps, o Decrescimento se preocupa com as escolhas do indivíduo, com o que as mobiliza e com as maneiras pelas quais devemos viver. Segundo esta autora o reconhecimento em torno de nossa não autossuficiência faz com que nos percebamos vulneráveis e o espírito do que a maioria dos autores do Decrescimento chama de espírito do Dom do Decrescimento e de a Economia da Felicidade dialoga diretamente com a busca do homem por governar estas vulnerabilidades, compreender suas virtudes, desenvolvê-las e praticar o bem e seu senso coletivo. Sua contribuição por sua vez para a construção contínua e transformadora de uma Psicologia Social Crítica deve-se à busca por um novo sujeito, e cuja subjetividade possa ser ressignificada e emancipada, neste exercício alguns conceitos nos foram muito caros, como por exemplo, o conceito de liberdade. Discutiu-se o Decrescimento destacando suas viabilidades práticas, importância, dimensões planetárias e aquilo que particularmente mais me chamou atenção em relação ao movimento a partir de minha própria experiência na 3 Conferência Internacional do Decrescimento que ocorreu em Veneza em setembro de 2012. A espinha dorsal deste trabalho foi o próprio discurso do Decrescimento e o discurso construído em torno dele, e suas vozes que foram dispostas e organizadas em análise nesta pesquisa em forma de interlocução e diálogos abertos, interdisciplinares, teóricos e práticos. A interlocução foi exercício metodológico capaz de reunir as vozes do Decrescimento e transportá-las para dentro do texto desta pesquisa, sendo a própria pesquisa em si, pelo dar a conhecer deste sujeito e que pode ser outro e mediar sua existência com o mundo de outras maneiras, e pelo dar a conhecer em torno do próprio movimento, e sobre o qual não se pretende conclusões, pois não se trata de encerrar a discussão trata-se de valorizá-la por ela mesma e potencializar possibilidades dialéticas, críticas e reflexivas, ficando, portanto ao leitor o convite a problematizar-se diante das questões aqui destacadas, em busca de si, para si e pelas alternativas existenciais mais diversas, dentre elas, o Decrescimento.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O efeito de dois óleos vegetais, óleo de linhaça e óleo de amendoim, em composições de borracha natural (NR) foi avaliado. Um sistema de vulcanização convencional foi escolhido e, após a mistura, os parâmetros reométricos (Sℓ, Sh, ts1 e t90) foram analisados. A cinética de vulcanização foi estudada através de dois modelos cinéticos um modelo simplificado e o modelo proposto por Coran. Os resultados experimentais permitem concluir que os óleos vegetais sozinhos ou combinados são capazes de atuar como ativadores e, juntamente com os demais ingredientes da composição, de vulcanizar a borracha. No entanto, uma densidade de ligações cruzadas satisfatória só é atingida quando o ácido esteárico está presente. O modelo cinético de Coran permitiu também estudar os diferentes estágios da vulcanização e verificar que a etapa crítica do processo é a formação do precursor de ligações cruzadas (A → B). Provavelmente, a presença significativa de ácidos graxos insaturados na composição dos óleos vegetais (principalmente, os ácidos oléico e linolênico) permita reações laterais não esperadas, o que diminui o rendimento final em ligações cruzadas dos vulcanizados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O Brasil é produtor de argilas e conta com grandes reservas deste recurso natural. Porém, grande parte da sua produção é comercializada seca e moída. O desenvolvimento de argilas para seu uso como reforço em nanocompósitos poliméricos constitui uma opção para os produtores desta matéria prima que teriam assim um produto com maior valor agregado. Este trabalho visa avaliar o potencial uso como nanocarga de duas argilas nacionais provenientes da Bacia de Taubaté, São Paulo, denominadas ALIGRA e SANTA FÉ. As frações de tamanho de partícula médio menor de 0,02 mm, obtidas por peneiramento á úmido da argila homogeneizada e seca, foram utilizadas no desenvolvimento do trabalho experimental. Os estudos de caracterização, envolvendo análise granulométrica, química, mineralógica, morfológica, térmica e textural, revelaram características muito semelhantes em ambas às argilas. Fração argila, maior de 70% em massa. Composição química conforme a definição química de uma argila e os teores de seus componentes mostram valores intermédios entre as apresentadas pelas bentonitas e argila caulinítica usadas com fins de comparação. Ressaltamse boas propriedades adsorventes. Área superficial específica BET ao redor de 120 m2/g, valor maior do que o apresentado por muitas bentonitas naturais (74,5 m2/g). Predominantemente mesoporosas, com poros, maiormente em forma de fenda, característicos da estrutura em camadas das argilas. Baixa capacidade de troca catiônica, 12 meq/100g. Difratogramas de raios-X revelaram a predominância do estratificado ilita/esmectita, caulinita e quartzo na argila ALIGRA, e de ilita, caulinita e quartzo na argila SANTA FÉ. Prosseguiu-se com a argila ALIGRA a preparação da argila organofílica. A argila organofílica foi obtida por troca catiônica com o sal quaternário de amônio: cloro cetril trimetil amônio, depois de homogeneizada em sódio com cloreto de sódio. Análises FTIR e TGA indicaram que houve inserção dos cátions orgânicos. Testes preliminares foram feitas, preparando misturas das argilas com matriz de polipropileno e usando como agente compatibilizante polipropileno enxertado com anidrido maleico. Resultados de ensaios de tração reportam algumas melhoras nas propriedades testadas com as composições preparadas com as argilas purificadas. Com as composições com argilas organofílicas somente foi melhorado o alongamento na rotura. Estudos ais aprofundados são recomendados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Apresenta-se neste trabalho um estudo da produção de eventos de dijatos com alto momentum transverso separados por uma lacuna de rapidez, na topologia de jato+lacuna+jato, nos primeiro período de coleta de dados do CMS a √s = 7 TeV, isto é, para baixa luminosidade (1034cm-2s-1). A escala dura do evento é apresentada na forma dos dois jatos e da lacuna de rapidez no estado final. No contexto de BFKL, uma escada de glúons é trocada no canal t do espalhamento partônico. O processo acima foi simulado com o gerador HARDCOL (1), onde é implementado o cálculo de BFKL até ordem dominante de logaritmo ln s. As amostras foram simuladas e reconstruídas pelo software do CMS. Como evento de fundo dominante, temos a combinação de um evento de QCD com eventos de empilhamento na mesma colisão de feixe no LHC, onde observamos o excesso de dados sobre os eventos de fundo. Através do estudo dos jatos e da baixa atividade na região da lacuna, mostra-se a possibilidade de se observar os eventos com lacuna de rapidez a √s = 7 TeV.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Amostras de DNA são encontradas em fragmentos, obtidos em vestígios de uma cena de crime, ou coletados de amostras de cabelo ou sangue, para testes genéticos ou de paternidade. Para identificar se esse fragmento pertence ou não a uma sequência de DNA, é necessário compará-los com uma sequência determinada, que pode estar armazenada em um banco de dados para, por exemplo, apontar um suspeito. Para tal, é preciso uma ferramenta eficiente para realizar o alinhamento da sequência de DNA encontrada com a armazenada no banco de dados. O alinhamento de sequências de DNA, em inglês DNA matching, é o campo da bioinformática que tenta entender a relação entre as sequências genéticas e suas relações funcionais e parentais. Essa tarefa é frequentemente realizada através de softwares que varrem clusters de base de dados, demandando alto poder computacional, o que encarece o custo de um projeto de alinhamento de sequências de DNA. Esta dissertação apresenta uma arquitetura de hardware paralela, para o algoritmo BLAST, que permite o alinhamento de um par de sequências de DNA. O algoritmo BLAST é um método heurístico e atualmente é o mais rápido. A estratégia do BLAST é dividir as sequências originais em subsequências menores de tamanho w. Após realizar as comparações nessas pequenas subsequências, as etapas do BLAST analisam apenas as subsequências que forem idênticas. Com isso, o algoritmo diminui o número de testes e combinações necessárias para realizar o alinhamento. Para cada sequência idêntica há três etapas, a serem realizadas pelo algoritmo: semeadura, extensão e avaliação. A solução proposta se inspira nas características do algoritmo para implementar um hardware totalmente paralelo e com pipeline entre as etapas básicas do BLAST. A arquitetura de hardware proposta foi implementada em FPGA e os resultados obtidos mostram a comparação entre área ocupada, número de ciclos e máxima frequência de operação permitida, em função dos parâmetros de alinhamento. O resultado é uma arquitetura de hardware em lógica reconfigurável, escalável, eficiente e de baixo custo, capaz de alinhar pares de sequências utilizando o algoritmo BLAST.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho apresenta o desenvolvimento de sistemas inteligentes aplicados ao monitoramento de estruturas aeronáuticas abordando dois modelos distintos: o primeiro é a análise e classificação de imagens de ultrassom de estruturas aeronáuticas com objetivo de apoiar decisões em reparo de estruturas aeronáuticas. Foi definido como escopo do trabalho uma seção transversal da asa da aeronave modelo Boeing 707. Após a remoção de material superficial em áreas comprometidas por corrosão, é realizada a medição da espessura ao longo da área da peça. Com base nestas medições, a Engenharia realiza a análise estrutural, observando os limites determinados pelo manual de manutenção e determina a necessidade ou não de reparo. O segundo modelo compreende o método de impedância eletromecânica. É proposto o desenvolvimento de um sistema de monitoramento de baixo custo aplicado em uma barra de alumínio aeronáutico com 10 posições de fixação de porcas e parafusos. O objetivo do sistema é avaliar, a partir das curvas de impedância extraídas do transdutor PZT fixado na barra, sua capacidade de classificar a existência ou não de um dano na estrutura e, em caso de existência do dano, indicar sua localização e seu grau de severidade. Foram utilizados os seguintes classificadores neste trabalho: máquina de vetor de suporte, redes neurais artificiais e K vizinhos mais próximos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação investiga a aplicação dos algoritmos evolucionários inspirados na computação quântica na síntese de circuitos sequenciais. Os sistemas digitais sequenciais representam uma classe de circuitos que é capaz de executar operações em uma determinada sequência. Nos circuitos sequenciais, os valores dos sinais de saída dependem não só dos valores dos sinais de entrada como também do estado atual do sistema. Os requisitos cada vez mais exigentes quanto à funcionalidade e ao desempenho dos sistemas digitais exigem projetos cada vez mais eficientes. O projeto destes circuitos, quando executado de forma manual, se tornou demorado e, com isso, a importância das ferramentas para a síntese automática de circuitos cresceu rapidamente. Estas ferramentas conhecidas como ECAD (Electronic Computer-Aided Design) são programas de computador normalmente baseados em heurísticas. Recentemente, os algoritmos evolucionários também começaram a ser utilizados como base para as ferramentas ECAD. Estas aplicações são referenciadas na literatura como eletrônica evolucionária. Os algoritmos mais comumente utilizados na eletrônica evolucionária são os algoritmos genéticos e a programação genética. Este trabalho apresenta um estudo da aplicação dos algoritmos evolucionários inspirados na computação quântica como uma ferramenta para a síntese automática de circuitos sequenciais. Esta classe de algoritmos utiliza os princípios da computação quântica para melhorar o desempenho dos algoritmos evolucionários. Tradicionalmente, o projeto dos circuitos sequenciais é dividido em cinco etapas principais: (i) Especificação da máquina de estados; (ii) Redução de estados; (iii) Atribuição de estados; (iv) Síntese da lógica de controle e (v) Implementação da máquina de estados. O Algoritmo Evolucionário Inspirado na Computação Quântica (AEICQ) proposto neste trabalho é utilizado na etapa de atribuição de estados. A escolha de uma atribuição de estados ótima é tratada na literatura como um problema ainda sem solução. A atribuição de estados escolhida para uma determinada máquina de estados tem um impacto direto na complexidade da sua lógica de controle. Os resultados mostram que as atribuições de estados obtidas pelo AEICQ de fato conduzem à implementação de circuitos de menor complexidade quando comparados com os circuitos gerados a partir de atribuições obtidas por outros métodos. O AEICQ e utilizado também na etapa de síntese da lógica de controle das máquinas de estados. Os circuitos evoluídos pelo AEICQ são otimizados segundo a área ocupada e o atraso de propagação. Estes circuitos são compatíveis com os circuitos obtidos por outros métodos e em alguns casos até mesmo superior em termos de área e de desempenho, sugerindo que existe um potencial de aplicação desta classe de algoritmos no projeto de circuitos eletrônicos.