864 resultados para Quinolonas: Aplicações biomédicas


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Diversas aplicações industriais relevantes envolvem os processos de adsorção, citando como exemplos a purificação de produtos, separação de substâncias, controle de poluição e umidade entre outros. O interesse crescente pelos processos de purificação de biomoléculas deve-se principalmente ao desenvolvimento da biotecnologia e à demanda das indústrias farmacêutica e química por produtos com alto grau de pureza. O leito móvel simulado (LMS) é um processo cromatográfico contínuo que tem sido aplicado para simular o movimento do leito de adsorvente, de forma contracorrente ao movimento do líquido, através da troca periódica das posições das correntes de entrada e saída, sendo operado de forma contínua, sem prejuízo da pureza das correntes de saída. Esta consiste no extrato, rico no componente mais fortemente adsorvido, e no rafinado, rico no componente mais fracamente adsorvido, sendo o processo particularmente adequado a separações binárias. O objetivo desta tese é estudar e avaliar diferentes abordagens utilizando métodos estocásticos de otimização para o problema inverso dos fenômenos envolvidos no processo de separação em LMS. Foram utilizados modelos discretos com diferentes abordagens de transferência de massa, com a vantagem da utilização de um grande número de pratos teóricos em uma coluna de comprimento moderado, neste processo a separação cresce à medida que os solutos fluem através do leito, isto é, ao maior número de vezes que as moléculas interagem entre a fase móvel e a fase estacionária alcançando assim o equilíbrio. A modelagem e a simulação verificadas nestas abordagens permitiram a avaliação e a identificação das principais características de uma unidade de separação do LMS. A aplicação em estudo refere-se à simulação de processos de separação do Baclofen e da Cetamina. Estes compostos foram escolhidos por estarem bem caracterizados na literatura, estando disponíveis em estudos de cinética e de equilíbrio de adsorção nos resultados experimentais. De posse de resultados experimentais avaliou-se o comportamento do problema direto e inverso de uma unidade de separação LMS visando comparar os resultados obtidos com os experimentais, sempre se baseando em critérios de eficiência de separação entre as fases móvel e estacionária. Os métodos estudados foram o GA (Genetic Algorithm) e o PCA (Particle Collision Algorithm) e também foi feita uma hibridização entre o GA e o PCA. Como resultado desta tese analisouse e comparou-se os métodos de otimização em diferentes aspectos relacionados com o mecanismo cinético de transferência de massa por adsorção e dessorção entre as fases sólidas do adsorvente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os materiais ferroelétricos têm sido utilizados em muitas áreas da tecnologia e da ciência, pois possuem um grande número de aplicações, como: sensores; transdutores; capacitores; dispositivos ópticos; dentre outras. A busca por novos materiais cerâmicos ferroelétricos tem sido grande. Um dos materiais cerâmicos ferroelétricos mais estudados é o titanato de bário (BT). São vários os métodos de produção e caracterização do titanato de bário. Neste trabalho, pós cerâmicos de titanato de bário foram obtidos por reação do estado sólido a partir de misturas reacionais calcinadas em diferentes temperaturas entre 400C e 900C. Foram três as misturas reacionais: não dopadas; dopadas com 1%; e dopadas com 5% de dióxido de cério (CeO2). A identificação da formação do BT, nos pós cerâmicos produzidos, foi feita a partir de três técnicas de caracterização: difração de raios X (DRX); espectroscopia fotoacústica (PAS); e técnicas de análise térmica. Com a técnica DRX, difratogramas mostraram que a plena formação do titanato de bário ocorreu a partir da temperatura de calcinação de 700C. Para a amostra não dopada com cério e calcinada a 800C, houve deslocamento de todos os picos de difração. Nas amostras dopadas com dióxido de cério houve deslocamento de todos os picos de difração, em relação as amostras não dopadas. Observou-se também que nas amostras dopadas com 5% de CeO2, e calcinadas a 700C e 800C, resíduos de dióxido de cério foram observados nos difratogramas. Com a técnica PAS, espectros de absorção foram obtidos. Foi possível observar uma grande diferença de absorção da amostra calcinada a 600 e 630C, indicando a formação do titanato de bário a partir da temperatura de 630C, nas amostras sem a dopagem dióxido de cério. Houve um alargamento nas bandas de absorção a partir da temperatura de 600C, quando o dióxido de cério entrou na matriz. Foi também possível determinar as energias de band-gap das amostras utilizando o método de Tauc. Com as técnicas de análise térmica, em especial através da técnica termogravimétrica (TG/DTG), foi comprovado que até 400C não havia formação de titanato de bário. Visto que nesta temperatura de calcinação houve a maior perda de massa durante a rampa de aquecimento. O início da formação do titanato de bário foi observado a partir da temperatura de calcinação de 500C, assim como nas técnicas DRX e PAS. Portanto, com os resultados apresentados, foi demonstrada a identificação da formação do titanato de bário nas misturas reacionais calcinadas, com auxílio das potencialidades das três técnicas utilizadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste estudo foi avaliar in vitro por meio da Fluorescência de Raios X por Dispersão de Energia (XRF), Microdureza Vickers (MV) e Microscopia Eletrônica de Varredura (MEV) o efeito remineralizante de diferentes princípios bioativos, tais quais, nanopartículas de hidroxiapatita de cálcio (nanoHAp) associadas ou não a fluoreto, fosfopeptídeos de caseína do leite e fosfato de cálcio amorfo (CPP-ACP) associados ou não a fluoreto, fluoreto de sódio e saliva no esmalte dental bovino submetido a ciclagem des-remineralizante simulando lesão erosiva por alto desafio ácido. Foram obtidos 58 corpos de prova (CP) a partir de 58 incisivos bovinos que foram divididos aleatoriamente em 8 grupos, com 7 CP cada um e 2 CP para obtenção de imagem em MEV do esmalte hígido. Cada grupo foi denominado conforme os respectivos tratamentos a serem utilizados. Grupo 1 (G1) Controle; Grupo 2 (G2) Desensibilize Nano P experimental (nanopartículas de hidroxiapatita de cálcio); Grupo 3 (G3) Desensibilize Nano P (nanopartículas de hidroxiapatita de cálcio e flúor); Grupo4 (G4) GC Tooth Mousse (CPP-ACP, fosfopeptídios de caseína e fosfato de cálcio amorfo Recaldent ); Grupo 5 (G5) GC Tooth Mousse Plus (CPP-ACP, fosfopeptídios de caseína e fosfato de cálcio amorfo Recaldent + 900 ppm de flúor); Grupo 6 (G6) solução aquosa de fluoreto de sódio (0,05%); Grupo 7 (G7) solução aquosa de nanopartículas de hidroxiapatita de cálcio (0,375%) e Grupo 8 (G8) solução aquosa de nanopartículas de hidroxiapatita de cálcio (0,375%) + flúor (0,05%). Foram obtidos os valores de XRF e MV antes e depois do tratamento. Durante um período experimental de 10 dias, os CPs foram submetidos a um processo cíclico de des-remineralização incluindo vários ataques diários com ácido cítrico 0,05M (pH 2,3), 6 vezes de 2 minutos ao dia, bem como as aplicações das soluções teste e períodos de remineralização em saliva artificial. O tempo entre os ciclos era de 1,5 h. Foram obtidas imagens em MEV para análise da superfície após o tratamento. Através da análise estatística pelo teste t student (p = 0,05), foram encontrados os seguintes resultados: o grupo controle teve uma desmineralização considerada severa; houve aumento na contagem de P em todos os grupos que receberam tratamento, exceto o G1, igualando ou até mesmo aumentando no caso do G5, em relação a contagem inicial; houve aumento na contagem de Ca em todos os grupos que receberam tratamento, exceto no G1, igualando ou até mesmo aumentando no caso do G4, em relação a contagem inicial; houve perda de microdureza superficial em todos os grupos; o G7 teve comportamento similar ao G1 e o G3 teve comportamento inferior ao G5 em relação ao P. E todos os outros grupos tiveram comportamento superior ao controle; o G4 e o G5 tiveram um comportamento superior ao G2 em relação ao Ca. O G5 teve comportamento superior ao G3 também em relação ao Ca e todos os grupos foram superiores ao controle; o G7 teve comportamento similar ao controle em relação a microdureza superficial e todos os outros grupos foram superiores ao controle.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste estudo in vivo foi avaliar comparativamente três técnicas de clareamento de dentes polpados quanto ao grau de cor final alcançado, sensibilidade dental e satisfação pessoal de operadores e pacientes. Indivíduos jovens de mesma faixa etária e padrão de higiene bucal foram selecionados e divididos aleatoriamente entre os grupos (G1; n=7) caseiro, com regime de uso de 8 h/dia/4 semanas; (G2; n=7) consultório, com regime de clareamento de 4 sessões semanais de 2 aplicações de 15 min cada e; (G3; n=6) associado, com caseiro e consultório combinados. Para as técnicas caseira e de consultório foram utilizados peróxido de carbamida a 16% (WhitegoldHome/Dentsply) e peróxido de hidrogênio a 35% (Whitegold Office/Dentsply), respectivamente. Os registros de cor foram obtidos por um único operador antes e após o emprego da cada técnica utilizando escala de cores Vita Bleachedguide 3D-Master e máquina fotográfica digital profissional (EOS Rebel XT Canon), com ajustes de iluminação, flash e distância focal padronizados. O nível de clareamento foi avaliado por unidades de mudança de cor (luminosidade) na escala de cores, além do número de tons alcançados nas imagens digitais e mudança de cor no sistema CIE L*a*b* por meio do software ScanWhite. Os dados foram tratados estatisticamente pelos testes não paramétricos de Kruskal Wallis e dos sinais (p≤0,05). Os registros de sensibilidade dental trans e pós operatória e da satisfação pessoal dos operadores e pacientes foram preenchidos individualmente em questionário unidimensional ao final de cada sessão. Foram atribuídos escores para a avaliação final da sensibilidade dental, conforme: 0=ausente; 1=leve; 2=moderada e; 3=severa. Os dados foram tratados estatisticamente pelo teste Kruskal Wallis. As médias das variações de unidades de mudança de cor da escala Vita e do software foram, respectivamente: G1) 4,57 (IC1,34), 27,14 (IC12,03); G2) 2,86 (IC0,99), 21,29 (IC14,27); G3) 4 (IC1,82), 25,33 (IC10,70). Na comparação entre os métodos de avaliação de cor, os p-valores do teste dos sinais foram 0,453, 0,453 e 0,687 para os grupos 1, 2 e 3, respectivamente. As médias da variação total de cor (∆E) foram, respectivamente: G1) 8,79(IC4,18), G2) 7,10(IC3,53) e G3) 9,74 (IC4,07). Não foi determinada diferença estatisticamente significante entre os grupos. Os postos médios do nível de sensibilidade foram: G1 = 9,64; G2 = 11,58; e G3 = 10,43, e o p-valor = 0,807. Não houve diferença estatisticamente significante entre grupos. Conclui-se que as técnicas caseiro, consultório e associada foram igualmente eficazes quanto ao nível de cor final, de acordo com os métodos objetivos e subjetivos utilizados. O nível de sensibilidade dental foi o mesmo independentemente da técnica utilizada. Todos os indivíduos registraram satisfação ao final do clareamento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Copolímeros à base de estireno e anidrido maleico (SMA) são materiais sintéticos comercialmente disponíveis, obtidos pela reação dos dois monômeros citados em diferentes proporções, resultando em materiais versáteis, e disponíveis em diferentes graus de massas e porcentagens molares de anidrido maleico. São considerados polímeros funcionais devido à reatividade do grupamento anidrido maleico presente na cadeia polimérica. Por este motivo, esses materiais possuem vasta gama de aplicações, e elevada importância em diversas áreas, principalmente por terem baixa toxicidade, boa resistência térmica e boa estabilidade dimensional. Dessa forma, para melhor aplicação desses copolímeros, é muito importante o conhecimento dos parâmetros relativos ao seu comportamento em solução. A viscosimetria, em especial, é um método simples, útil e apropriado para fornecer essas informações. Os parâmetros viscosimétricos podem ser matematicamente calculados por extrapolação gráfica, entretanto a geração dos dados experimentais é mais demorada. Em contrapartida, é possível que a determinação experimental seja feita de forma mais rápida, por um único ponto, procedimento esse que desperta tanto o interesse acadêmico quanto o industrial. Neste trabalho, foram empregados os dois métodos de cálculo, utilizando solventes puros, misturas de solventes e três amostras de copolímeros à base de SMA. As determinações foram conduzidas a 40C. Os copolímeros utilizados possuiam teores de anidrido maleico de 50%, 45% e 40%, sendo os dois últimos esterificados com butil-metil-éster e sec-butil-metil-éster, respectivamente. Os solventes utilizados foram: N-metil-pirrolidona (NMP), tetrahidrofurano (THF) e suas respectivas misturas 1:1 com metil-etil-cetona (MEK), ou seja, (NMP:MEK) e THF:MEK, sendo a MEK um não solvente para o copolímero não esterificado. As equações utilizadas para extrapolação gráfica foram as de Huggins, Kraemer e Schulz-Blaschke. As equações empregadas em um único ponto foram as de Solomon-Ciuta, Deb-Chanterjee e novamente Schulz-Blaschke. Os resultados obtidos foram comparados e avaliou-se a possibilidade da utilização do método mais rápido, por um único ponto, para os sistemas estudados através dos desvios percentuais tendo como padrão os resultados da equação de Huggins. A equação de Deb-Chanterjee foi a mais adequada aos sistemas em NMP, que foi também o melhor solvente para as amostras. Os resultados obtidos na mistura NMP:MEK sugeriram que a viscosimetria pode ter sido um método sensível às pequenas diferenças estruturais entre os grupos pendentes nas amostras esterificadas. Paralelamente, realizou-se análises de espectroscopia na região do infravermelho (FTIR), análise termogravimétrica (TGA) e ensaios dinâmico-mecânicos (DMA) para a caracterização estrutural e térmica das amostras. Somente os resultados obtidos a partir de DMA indicaram diferenças entre as amostras esterificadas

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os métodos tradicionais de estimular a produção de petróleo, envolvendo a injeção de água, vapor, gás ou outros produtos, estabeleceram a base conceitual para novos métodos de extração de óleo, utilizando micro-organismos e processos biológicos. As tecnologias que empregam os processos de bioestimulação e bioaumentação já são amplamente utilizadas em inúmeras aplicações industriais, farmacêuticas e agroindustriais, e mais recentemente, na indústria do petróleo. Dada a enorme dimensão econômica da indústria do petróleo, qualquer tecnologia que possa aumentar a produção ou o fator de recuperação de um campo petrolífero gera a expectativa de grandes benefícios técnicos, econômicos e estratégicos. Buscando avaliar o possível impacto de MEOR (microbial enhanced oil recovery) no fator de recuperação das reservas de óleo e gás no Brasil, e quais técnicas poderiam ser mais indicadas, foi feito um amplo estudo dessas técnicas e de diversos aspectos da geologia no Brasil. Também foram realizados estudos preliminares de uma técnica de MEOR (bioacidificação) com possível aplicabilidade em reservatórios brasileiros. Os resultados demonstram que as técnicas de MEOR podem ser eficazes na produção, solubilização, emulsificação ou transformação de diversos compostos, e que podem promover outros efeitos físicos no óleo ou na matriz da rocha reservatório. Também foram identificadas bacias petrolíferas brasileiras e recursos não convencionais com maior potencial para utilização de determinadas técnicas de MEOR. Finalmente, foram identificadas algumas técnicas de MEOR que merecem maiores estudos, entre as técnicas mais consolidadas (como a produção de biossurfatantes e biopolímeros, e o controle da biocorrosão), e as que ainda não foram completamente viabilizadas (como a gaseificação de carvão, óleo e matéria orgânica; a dissociação microbiana de hidratos de gás; a bioconversão de CO2 em metano; e a bioacidificação). Apesar de seu potencial ainda não ser amplamente reconhecido, as técnicas de MEOR representam o limiar de uma nova era na estimulação da produção de recursos petrolíferos existentes, e até mesmo para os planos de desenvolvimento de novas áreas petrolíferas e recursos energéticos. Este trabalho fornece o embasamento técnico para sugerir novas iniciativas, reconhecer o potencial estratégico de MEOR, e para ajudar a realizar seu pleno potencial e seus benefícios.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os polimorfismos denominados Indels são variações de comprimento geradas por inserção ou deleção de um ou mais nucleotídeos em uma sequência de DNA. Estes marcadores genéticos vêm apresentando um grande potencial para fins forenses e populacionais por combinar características dos marcadores SNPs, tais como a capacidade de analisar fragmentos curtos (menores que 250pb) e baixas taxas de mutação, com a facilidade da genotipagem dos STR em uma única PCR, seguida de detecção dos fragmentos amplificados por eletroforese. Com o objetivo de avaliar a eficiência dos Indels em aplicações forenses e esclarecer os detalhes da formação de diferentes populações brasileiras através de dados genéticos, amostras populacionais de diferentes estados brasileiros foram genotipadas através de dois sistemas multiplex. O primeiro (indelplex-HID) foi otimizado para fins de Identificação Humana (HID) e inclui um grupo de 38 marcadores Indels selecionados por apresentarem altos valores de diversidade genética dentro das principais populações continentais. Já o segundo (46-AI-indels), foi selecionado para estudos de ancestralidade e é composto por um conjunto de 46 marcadores informativos de ancestralidade (AIMs). Nesse último caso, ao contrário do anterior, o sistema multiplex inclui marcadores com alta divergência nas frequências alélicas entre populações continentais. Na primeira etapa, o multiplex HID foi aplicado em uma amostra populacional do Rio de Janeiro e em uma amostra populacional dos índios Terena. Um banco de dados de frequências alélicas foi construído para essas duas amostras populacionais. Os valores das frequências alélicas foram utilizados nas comparações estatísticas e parâmetros de vínculos genéticos e forenses foram calculados. O Poder de Discriminação acumulado na população do Rio de Janeiro para os 38 loci testados foi de 0,9999999999999990 e na população dos índios Terena de 0,9999999999997, validando o uso desse sistema numa população heterogênea como a brasileira. A eficiência do indelplex-HID também mostrou-se elevada nas amostras de casos forenses comprometidas, apresentando melhor resultados que marcadores STR em termos de número de loci genotipados e de qualidade de amplificação. Na segunda etapa, o multiplex 46-AI-indels foi aplicado com objetivo de avaliar a ancestralidade em amostras de diferentes estados do Brasil por permitir a identificação de diferenças entre frequências alélicas de grupos populacionais separados geograficamente. A maioria das populações analisadas apresentou elevada herança européia. As populações do Rio de Janeiro, Pernambuco, Mato Grosso do Sul, Amazonas, Alagoas, Minas Gerais e São Paulo apresentaram cerca de 50% de ancestralidade européia, enquanto que nas populações que formam o sul do país e o Espírito Santo este percentual girou em torno de 70%. De uma maneira geral, as contribuições ameríndias e africanas variaram um pouco de acordo com a região. As amostras de Santa Isabel do Rio Negro e dos índios Terena (amostras indicadas como ameríndio-descendentes) de fato mostraram majoritariamente ancestralidade ameríndia (>70%). Os resultados obtidos indicaram que os dados gerados a partir da tipagem dos AIMs estão em estreita concordância com os registros históricos e com outros estudos genéticos acerca da formação da população brasileira e os loci do sistema HID evidenciaram que os são altamente informativos, constituindo uma ferramenta importante em estudos de identificação humana e de relações de parentesco.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Processos de produção precisam ser avaliados continuamente para que funcionem de modo mais eficaz e eficiente possível. Um conjunto de ferramentas utilizado para tal finalidade é denominado controle estatístico de processos (CEP). Através de ferramentas do CEP, o monitoramento pode ser realizado periodicamente. A ferramenta mais importante do CEP é o gráfico de controle. Nesta tese, foca-se no monitoramento de uma variável resposta, por meio dos parâmetros ou coeficientes de um modelo de regressão linear simples. Propõe-se gráficos de controle χ2 adaptativos para o monitoramento dos coeficientes do modelo de regressão linear simples. Mais especificamente, são desenvolvidos sete gráficos de controle χ2 adaptativos para o monitoramento de perfis lineares, a saber: gráfico com tamanho de amostra variável; intervalo de amostragem variável; limites de controle e de advertência variáveis; tamanho de amostra e intervalo de amostragem variáveis; tamanho de amostra e limites variáveis; intervalo de amostragem e limites variáveis e por fim, com todos os parâmetros de projeto variáveis. Medidas de desempenho dos gráficos propostos foram obtidas através de propriedades de cadeia de Markov, tanto para a situação zero-state como para a steady-state, verificando-se uma diminuição do tempo médio até um sinal no caso de desvios pequenos a moderados nos coeficientes do modelo de regressão do processo de produção. Os gráficos propostos foram aplicados a um exemplo de um processo de fabricação de semicondutores. Além disso, uma análise de sensibilidade dos mesmos é feita em função de desvios de diferentes magnitudes nos parâmetros do processo, a saber, no intercepto e na inclinação, comparando-se o desempenho entre os gráficos desenvolvidos e também com o gráfico χ2 com parâmetros fixos. Os gráficos propostos nesta tese são adequados para vários tipos de aplicações. Neste trabalho também foi considerado características de qualidade as quais são representadas por um modelo de regressão não-linear. Para o modelo de regressão não-linear considerado, a proposta é utilizar um método que divide o perfil não-linear em partes lineares, mais especificamente, um algoritmo para este fim, proposto na literatura, foi utilizado. Desta forma, foi possível validar a técnica proposta, mostrando que a mesma é robusta no sentido que permite tipos diferentes de perfis não-lineares. Aproxima-se, portanto um perfil não-linear por perfis lineares por partes, o que proporciona o monitoramento de cada perfil linear por gráficos de controle, como os gráficos de controle desenvolvidos nesta tese. Ademais apresenta-se a metodologia de decompor um perfil não-linear em partes lineares de forma detalhada e completa, abrindo espaço para ampla utilização.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Multi-Processor System-on-Chip (MPSoC) possui vários processadores, em um único chip. Várias aplicações podem ser executadas de maneira paralela ou uma aplicação paralelizável pode ser particionada e alocada em cada processador, a fim de acelerar a sua execução. Um problema em MPSoCs é a comunicação entre os processadores, necessária para a execução destas aplicações. Neste trabalho, propomos uma arquitetura de rede de interconexão baseada na topologia crossbar, com memória compartilhada. Esta arquitetura é parametrizável, possuindo N processadores e N módulos de memórias. A troca de informação entre os processadores é feita via memória compartilhada. Neste tipo de implementação cada processador executa a sua aplicação em seu próprio módulo de memória. Através da rede, todos os processadores têm completo acesso a seus módulos de memória simultaneamente, permitindo que cada aplicação seja executada concorrentemente. Além disso, um processador pode acessar outros módulos de memória, sempre que necessite obter dados gerados por outro processador. A arquitetura proposta é modelada em VHDL e seu desempenho é analisado através da execução paralela de uma aplicação, em comparação à sua respectiva execução sequencial. A aplicação escolhida consiste na otimização de funções objetivo através do método de Otimização por Enxame de Partículas (Particle Swarm Optimization - PSO). Neste método, um enxame de partículas é distribuído igualmente entre os processadores da rede e, ao final de cada interação, um processador acessa o módulo de memória de outro processador, a fim de obter a melhor posição encontrada pelo enxame alocado neste. A comunicação entre processadores é baseada em três estratégias: anel, vizinhança e broadcast. Essa aplicação foi escolhida por ser computacionalmente intensiva e, dessa forma, uma forte candidata a paralelização.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Técnicas não-intrusivas de medição de vazão constituem uma necessidade crescente em diversas aplicações. Atualmente, diversos estudos têm sido realizados com o objetivo de desenvolver técnicas de medição não-intrusivas que possam suprir as deficiências das técnicas existentes. Este trabalho visa desenvolver um medidor de vazão baseado no princípio de convecção forçada (termal) não-intrusivo inteligente. O medidor utiliza dois transdutores RTD comerciais do tipo PT100, um aquecido, que é responsável pela medição da velocidade de escoamento, e o outro utilizado como referência de set-point de temperatura do sensor aquecido. Uma Rede Neural é responsável por corrigir os erros de medição do instrumento. Para a avaliação do medidor construído, foi desenvolvida uma bancada de realização de ensaios, possibilitando a variação da vazão e temperatura na seção de teste. Com o intuito de prover a bancada de uma referência para comparação, foi instalado também um medidor do tipo Venturi normalizado segundo a ABNT.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação investiga a aplicação dos algoritmos evolucionários inspirados na computação quântica na síntese de circuitos sequenciais. Os sistemas digitais sequenciais representam uma classe de circuitos que é capaz de executar operações em uma determinada sequência. Nos circuitos sequenciais, os valores dos sinais de saída dependem não só dos valores dos sinais de entrada como também do estado atual do sistema. Os requisitos cada vez mais exigentes quanto à funcionalidade e ao desempenho dos sistemas digitais exigem projetos cada vez mais eficientes. O projeto destes circuitos, quando executado de forma manual, se tornou demorado e, com isso, a importância das ferramentas para a síntese automática de circuitos cresceu rapidamente. Estas ferramentas conhecidas como ECAD (Electronic Computer-Aided Design) são programas de computador normalmente baseados em heurísticas. Recentemente, os algoritmos evolucionários também começaram a ser utilizados como base para as ferramentas ECAD. Estas aplicações são referenciadas na literatura como eletrônica evolucionária. Os algoritmos mais comumente utilizados na eletrônica evolucionária são os algoritmos genéticos e a programação genética. Este trabalho apresenta um estudo da aplicação dos algoritmos evolucionários inspirados na computação quântica como uma ferramenta para a síntese automática de circuitos sequenciais. Esta classe de algoritmos utiliza os princípios da computação quântica para melhorar o desempenho dos algoritmos evolucionários. Tradicionalmente, o projeto dos circuitos sequenciais é dividido em cinco etapas principais: (i) Especificação da máquina de estados; (ii) Redução de estados; (iii) Atribuição de estados; (iv) Síntese da lógica de controle e (v) Implementação da máquina de estados. O Algoritmo Evolucionário Inspirado na Computação Quântica (AEICQ) proposto neste trabalho é utilizado na etapa de atribuição de estados. A escolha de uma atribuição de estados ótima é tratada na literatura como um problema ainda sem solução. A atribuição de estados escolhida para uma determinada máquina de estados tem um impacto direto na complexidade da sua lógica de controle. Os resultados mostram que as atribuições de estados obtidas pelo AEICQ de fato conduzem à implementação de circuitos de menor complexidade quando comparados com os circuitos gerados a partir de atribuições obtidas por outros métodos. O AEICQ e utilizado também na etapa de síntese da lógica de controle das máquinas de estados. Os circuitos evoluídos pelo AEICQ são otimizados segundo a área ocupada e o atraso de propagação. Estes circuitos são compatíveis com os circuitos obtidos por outros métodos e em alguns casos até mesmo superior em termos de área e de desempenho, sugerindo que existe um potencial de aplicação desta classe de algoritmos no projeto de circuitos eletrônicos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho propõe uma arquitetura reutilizável que permite a gerência de uma infraestrutura de suporte para aplicações Web, utilizando máquinas virtuais. O objetivo da arquitetura é garantir qualidade de serviço, atuando nos servidores físicos (hospedeiros) ou manipulando as máquinas virtuais, e avaliando o cumprimento das restrições de operação (tempo de resposta máximo). Além disso, através do uso racional dos recursos utilizados, a proposta visa à economia de energia. O trabalho também inclui uma avaliação de desempenho realizada sobre um sistema implementado com base na arquitetura. Esta avaliação mostra que a proposta é funcional e o quanto ela pode ser vantajosa do ponto de vista do uso de recursos, evitando desperdício, mantendo-se ainda a qualidade de serviço em níveis aceitáveis pela aplicação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Controle de processos é uma das muitas aplicações que aproveitam as vantagens do uso da teoria de conjuntos nebulosos. Nesse tipo de aplicação, o controlador é, geralmente, embutido no dispositivo controlado. Esta dissertação propõe uma arquitetura reconfigurável eficiente para controladores nebulosos embutidos. A arquitetura é parametrizável, de tal forma, que permite a configuração do controlador para que este possa ser usado na implementação de qualquer aplicação ou modelo nebuloso. Os parâmetros de configuração são: o número de variáveis de entrada (N); o número de variáveis de saída (M); o número de termos linguísticos (Q); e o número total de regras (P). A arquitetura proposta proporciona também a configuração das características que definem as regras e as funções de pertinência de cada variável de entrada e saída, permitindo a escalabilidade do projeto. A composição das premissas e consequentes das regras são configuráveis, de acordo com o controlador nebuloso objetivado. A arquitetura suporta funções de pertinência triangulares, mas pode ser estendida para aceitar outras formas, do tipo trapezoidal, sem grandes modificações. As características das funções de pertinência de cada termo linguístico, podem ser ajustadas de acordo com a definição do controlador nebuloso, permitindo o uso de triângulos. Virtualmente, não há limites máximos do número de regras ou de termos linguísticos empregados no modelo, bem como no número de variáveis de entrada e de saída. A macro-arquitetura do controlador proposto é composta por N blocos de fuzzificação, 1 bloco de inferência, M blocos de defuzzificação e N blocos referentes às características das funções de pertinência. Este último opera apenas durante a configuração do controlador. A função dos blocos de fuzzificação das variáveis de entrada é executada em paralelo, assim como, os cálculos realizados pelos blocos de defuzzificação das variáveis de saída. A paralelização das unidades de fuzzificação e defuzzificação permite acelerar o processo de obtenção da resposta final do controlador. Foram realizadas várias simulações para verificar o correto funcionamento do controlador, especificado em VHDL. Em um segundo momento, para avaliar o desempenho da arquitetura, o controlador foi sintetizado em FPGA e testado em seis aplicações para verificar sua reconfigurabilidade e escalabilidade. Os resultados obtidos foram comparados com os do MATLAB em cada aplicação implementada, para comprovar precisão do controlador.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O efeito de instalação de estacas cravadas em areia, que promove um aumento da compacidade do solo e de seus parâmetros de resistência e deformabilidade, é analisado nesta dissertação em conjunto com o efeito de grupo. O procedimento estabelecido objetiva quantificar a melhoria após a instalação de um grupo de estacas e foi desenvolvido nesta pesquisa a partir da contribuição de Alves (1998). Para a utilização deste procedimento, foram propostas correlações do módulo de Young do solo em função da resistência à penetração NSPT (ou da resistência à penetração normalizada N60), a partir de um banco de dados obtido da literatura, visando não apenas as aplicações implementadas neste estudo, como também nortear futuras aplicações práticas. Na análise de casos documentados da literatura, foi utilizado o programa Plaxis 3D Foundation. Inicialmente foi procedida a calibração do programa através da reprodução de um caso de instrumentação de um grupo de estacas na argila rija de Londres, muito bem documentado por Cooke et al. (1980). Os resultados das simulações, com parâmetros do solo obtidos da literatura, se ajustaram muito bem aos resultados experimentais, seja nos valores de recalque, seja nos diagramas de transferência de carga. Posteriormente, a melhoria do solo por efeito da instalação foi estimada, através do procedimento estabelecido nesta dissertação, baseado em Alves (1998), a partir das características iniciais do solo antes da instalação de um grupo de estacas em modelo reduzido em solo arenoso. Obtidos os parâmetros melhorados previstos para o solo após a instalação, estes foram aplicados a um grupo de 9 estacas, para diferentes espaçamentos relativos, como dados de entrada no programa Plaxis. A comparação dos resultados experimentais com aqueles simulados numericamente sinaliza para o potencial tanto do programa Plaxis, na reprodução do comportamento do conjunto, como do modelo de Alves (1998), que norteou o procedimento proposto nesta pesquisa. O fator de escala, ressaltado na dissertação, bem como outros aspectos relevantes observados nas análises realizadas, são propostos como temas futuros a serem investigados na continuidade desta linha de pesquisa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O clareamento dental se tornou um dos tratamentos estéticos mais realizados nos consultórios odontológicos, devido à simplicidade técnica e popularização através da mídia. Consiste na utilização de géis à base de peróxido de carbamida, peróxido de hidrogénio e, em uma menor escala, de perborato de sódio, com intuito de oxidar moléculas responsáveis pela pigmentação da estrutura dentária. Apesar da grande quantidade de estudos sobre o tema, não se sabe os efeitos do uso excessivo desses agentes sobre a estrutura dentária. O objetivo deste estudo foi avaliar os efeitos sobre a rugosidade superficial e conteúdo mineral do esmalte dental humano submetido a regimes de sobreclareamento associados ao uso de géis clareadores caseiros: peróxido de carbamida 10% (Opalescence PF Regular 10%, Ultradent do Brasil Produtos Odontológicos Ltda., Indaiatuba, São Paulo), peróxido de hidrogênio 9,5% (DayWhite 9,5%, Discus, LLC Culver City, EUA), bem como tiras clareadoras (Oral-B WhiteStrips, Anderson Packaging, Rockford, Estados Unidos). Quatro fragmentos de esmalte obtidos a partir de cinco dentes foram submetidos a um diferente tratamento: Grupo I - armazenamento em saliva artificial por oito semanas; Grupo 2 oito semanas de tratamento com gel de peróxido de carbamida 10% por 6 horas diárias; Grupo 3 oito semanas de tratamento com gel de peróxido de hidrogênio 9,5% com duas aplicações diárias de 30 minutos; Grupo 4 oito semanas de tratamento com tiras clareadoras duas aplicações diárias de 30 minutos. A alteração no conteúdo mineral foi avaliada semanalmente em seis pontos de cada fragmento devidamente identificados através de um sistema de coordenadas (X, Y e Z) utilizando-se a técnica de fluorescência de raios X (Artax 200). Alterações na rugosidade superficial das amostras também foram avaliadas através de um rugosímetro 3D (FormTalysurf 60, Taylor Leicester, Reino Unido). Apenas o grupo 3 apresentou diferenças estatísticas significativas com relação aos níveis de rugosidade (p<0,05), porém não consideradas como clinicamente significativos. Para os demais tratamentos e intervalos propostos, não foram encontradas diferenças estatisticamente significativas (p>0,05). Desse modo, não houve alterações compatíveis com um processo de desmineralização ou aumento real da rugosidade da superfície. Nas condições desse estudo in vitro os géis clareadores caseiros foram considerados seguros. São necessários novos estudos in situ e in vitro que analisem os efeitos de regimes de sobreclareamento quando em condições de somatório de desafios intra-orais.