864 resultados para Quinolonas: Aplicações biomédicas


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho investiga a implementação de sistemas fuzzy com circuitos eletrônicos. Tais sistemas têm demonstrado sua capacidade de resolver diversos tipos de problemas em várias aplicações de engenharia, em especial nas relacionadas com controle de processos. Para processos mais complexos, o raciocínio aproximado da lógica fuzzy fornece uma maneira de compreender o comportamento do sistema, permitindo a interpolação aproximada entre situações observadas de entrada e saída. A implementação de um sistema fuzzy pode ser baseada em hardware, em software ou em ambos. Tipicamente, as implementações em software utilizam ambientes de programação integrados com simulação, de modo a facilitar o trabalho do projetista. As implementações em hardware, tradicionais ou evolutivas, podem ser analógicas ou digitais e viabilizam sistemas de maior desempenho. Este trabalho tem por objetivo pesquisar a implementação eletrônica de sistemas fuzzy, a fim de viabilizar a criação de sistemas reais capazes de realizar o mapeamento de entrada e saída adequado. O foco é a utilização de uma plataforma com uma arquitetura analógico-digital baseada em uma tabela de mapeamento armazenada em uma memória de alta capacidade. Memórias do tipo SD (Secure Digital) foram estudadas e utilizadas na construção do protótipo eletrônico da plataforma. Também foram desenvolvidos estudos sobre a quantização, especificamente sobre a possibilidade de redução do número de bits. Com a implementação realizada é possível desenvolver um sistema fuzzy num ambiente simulado (Matlab), configurar a plataforma e executar o sistema fuzzy diretamente na plataforma eletrônica. Os testes com o protótipo construído comprovaram seu bom funcionamento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Aplicações ubíquas e pervasivas são cientes do contexto dos recursos utilizados no que diz respeito à disponibilidade e qualidade. Esta classe de aplicações pode se beneficiar de mecanismos para descobrir recursos que atendam aos requisitos não-funcionais desejados, e mecanismos para monitorar a qualidade destes recursos. Neste trabalho é proposta uma arquitetura para dois serviços que deveriam ser incluídos na infra-estrutura de suporte a ser utilizada pelas aplicações mencionadas: um Serviço de Contexto, que provê acesso a informações de contexto, e um Serviço de Descoberta, que permite a descoberta dinâmica de recursos, levando em conta restrições de contexto a serem satisfeitas. Estes serviços se apóiam em Agentes de Recursos, que efetivamente monitoram os recursos e sensores. Uma implementação de referência foi desenvolvida, oferecendo os serviços mencionados na forma de Serviços Web e implementando os Agentes de Recursos empregando um padrão de projeto simples. Para avaliar os serviços estes foram utilizados como infra-estrutura para o desenvolvimento de um sistema tolerante a falhas e uma aplicação de assistência domiciliar remota (tele-saúde). O desempenho dos serviços também foi avaliado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Geração e Simplificação da Base de Conhecimento de um Sistema Híbrido Fuzzy- Genético propõe uma metodologia para o desenvolvimento da base de conhecimento de sistemas fuzzy, fundamentada em técnicas de computação evolucionária. Os sistemas fuzzy evoluídos são avaliados segundo dois critérios distintos: desempenho e interpretabilidade. Uma metodologia para a análise de problemas multiobjetivo utilizando a Lógica Fuzzy foi também desenvolvida para esse fim e incorporada ao processo de avaliação dos AGs. Os sistemas fuzzy evoluídos foram avaliados através de simulações computacionais e os resultados obtidos foram comparados com os obtidos por outros métodos em diferentes tipos de aplicações. O uso da metodologia proposta demonstrou que os sistemas fuzzy evoluídos possuem um bom desempenho aliado a uma boa interpretabilidade da sua base de conhecimento, tornando viável a sua utilização no projeto de sistemas reais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nesta dissertação são analisados métodos de localização baseados na rede, com destaque para os métodos de correlação de assinaturas de rádio-frequência (DCM - Database Correlation Methods). Métodos baseados na rede não requerem modificações nos terminais móveis (MS - Mobile Stations), sendo portanto capazes de estimar a localização de MS legados, i.e., sem suporte específico a posicionamento. Esta característica, associada a alta disponibilidade e precisão dos métodos DCM, torna-os candidatos viáveis para diversas aplicações baseadas em posição, e em particular para a localização de chamadas para números de emergência - polícia, defesa civil, corpo de bombeiros, etc. - originadas de telefones móveis celulares. Duas técnicas para diminuição do tempo médio para produção de uma estimativa de posição são formuladas: a filtragem determinística e a busca otimizada utilizando algoritmos genéticos. Uma modificação é realizada nas funções de avaliação utilizadas em métodos DCM, inserindo um fator representando a inacurácia intrínseca às medidas de nível de sinal realizadas pelos MS. As modificações propostas são avaliadas experimentalmente em redes de telefonia móvel celular de segunda e terceira gerações em ambientes urbanos e suburbanos, assim como em redes locais sem fio em ambiente indoor. A viabilidade da utilização de bancos de dados de correlação (CDB - Correlation Database) construídos a partir de modelagem de propagação é analisada, bem como o efeito da calibração de modelos de propagação empíricos na precisão de métodos DCM. Um dos métodos DCM propostos, utilizando um CDB calibrado, teve um desempenho superior ao de vários outros métodos DCM publicados na literatura, atingindo em área urbana a precisão exigida dos métodos baseados na rede pela regulamentação FCC (Federal Communications Commission) para o serviço E911 (Enhanced 911 ).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A avaliação objetiva da qualidade de imagens é de especial importância em diversas aplicações, por exemplo na compressão de imagens, onde pode ser utilizada para regular a taxa que deve ser empregada para que haja a máxima compressão (permitindo perda de dados) sem comprometer a qualidade final; outro exemplo é na inserção de marcas dágua, isto é, introdução de informações descritivas utilizadas para atestar a autenticidade de uma imagem, que devem ser invisíveis para o observador. O SSIM (Structural SIMilarity) é uma métrica de avaliação objetiva da qualidade de imagens de referência completa projetada para imagens em tons de cinza. Esta dissertação investiga sua aplicação na avaliação de imagens coloridas. Para tanto, inicialmente é feito um estudo do SSIM utilizando quatro diferentes espaços de cores RGB, YCbCr, Lαβ e CIELAB. O SSIM é primeiramente calculado nos canais individuais desses espaços de cores. Em seguida, com inspiração no trabalho desenvolvido em (1) são testadas formas de se combinar os valores SSIM obtidos para cada canal em um valor único os chamados SSIM Compostos. Finalmente, a fim de buscar melhores correlações entre SSIM e avaliação subjetiva, propomos a utilização da mínima diferença de cor perceptível, calculada utilizando o espaço de cores CIELAB, conjuntamente com o SSIM. Para os testes são utilizados três bancos de dados de imagens coloridas, LIVE, IVC e TID, a fim de se conferir consistência aos resultados. A avaliação dos resultados é feita utilizando as métricas empregadas pelo VQEG (Video Quality Experts Group) para a avaliação da qualidade de vídeos, com uma adaptação. As conclusões do trabalho sugerem que os melhores resultados para avaliação da qualidade de imagens coloridas usando o SSIM são obtidas usando os canais de luminância dos espaços de cores YCbCr, Lαβ e especialmente o CIELAB. Também se concluiu que a utilização da mínima diferença de cor perceptível contribui para o melhoramento dos resultados da avaliação objetiva.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Essa dissertação apresenta a implementação de um algoritmo genético paralelo utilizando o modelo de granularidade grossa, também conhecido como modelo das ilhas, para sistemas embutidos multiprocessados. Os sistemas embutidos multiprocessados estão tornando-se cada vez mais complexos, pressionados pela demanda por maior poder computacional requerido pelas aplicações, principalmente de multimídia, Internet e comunicações sem fio, que são executadas nesses sistemas. Algumas das referidas aplicações estão começando a utilizar algoritmos genéticos, que podem ser beneficiados pelas vantagens proporcionadas pelo processamento paralelo disponível em sistemas embutidos multiprocessados. No algoritmo genético paralelo do modelo das ilhas, cada processador do sistema embutido é responsável pela evolução de uma população de forma independente dos demais. A fim de acelerar o processo evolutivo, o operador de migração é executado em intervalos definidos para realizar a migração dos melhores indivíduos entre as ilhas. Diferentes topologias lógicas, tais como anel, vizinhança e broadcast, são analisadas na fase de migração de indivíduos. Resultados experimentais são gerados para a otimização de três funções encontradas na literatura.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Turbomáquinas são máquinas operacionais que transferem energia mecânica entre um rotor e um fluido. Estas máquinas têm muitas aplicações industriais. Um dos componentes de uma turbomáquina responsável pela transferência da energia, ou receber a rotação do eixo e transformar em energia de fluido em caso de bomba ou transferir a energia do fluido para o eixo em caso de uma turbina, é o impelidor ou rotor. O fenómeno da cavitação envolve escoamento bifásico: o líquido a ser bombeado e as bolhas de vapor que são formadas durante o processo de bombeamento. O processo de formação dessas bolhas é complexo, mas ocorre principalmente devido a presença de regiões de pressões muito baixas. O colapso dessas bolhas pode muitas vezes levar a deterioração do material, dependendo da intensidade ou da velocidade de colapso das bolhas. O principal objetivo deste trabalho foi estudar o comportamento hidrodinâmico do escoamento nos canais do impelidor de uma turbomáquina do tipo radial usando recursos de fluidodinâmica computacional (CFD). Uma abordagem Euler-Lagrange acoplada com o modelo da equação de Langevin foi empregada para estimar a trajetória das bolhas. Resultados das simulações mostram as particularidades de um escoamento líquido-bolha de vapor passando em um canal de geometria curva, fornecendo assim informações que podem nos ajudar na prevenção da cavitação nessas máquinas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O aço inoxidável hiperduplex possui alta resistência a corrosão por pite em ambientes contendo cloretos, quando comparado a outros aços inoxidáveis comercialmente conhecidos. Possui boas propriedades mecânicas, com limite de escoamento superior a 700MPa e limite de resistência a tração em torno de 1000MPa. Essas propriedades o tornam muito atrativos para aplicações em ambientes contendo cloretos, e por isso tem tido destaque na indústria de óleo e gás, refinarias, plataformas offshore, etc. A liga hiperduplex é composta por uma estrutura bifásica, contendo proporções aproximadamente iguais de ferrita e austenita. Esse material possui boa soldabilidade, mas por ser termodinamicamente metaestável, em altas temperaturas pode ocorrer a precipitação de fases intermetálicas não desejáveis, o que resulta em perda de propriedades mecânicas e diminuição da resistência a corrosão. A fase sigma tem sido fortemente estudada, pois é comum sua precipitação nos aços inoxidáveis da família duplex durante o procedimento de soldagem se este não for muito bem controlado. A fase sigma precipita preferencialmente na fase ferrítica, devido a maior concentração de Cr e Mo, que são os elementos formadores da fase. A resistência a corrosão é reduzida e as propriedades mecânicas do material são alteradas o tornando frágil devido a presença da fase sigma. É formada entre 600C e 1000C e possui uma estrutura tetragonal complexa. O objetivo do trabalho foi identificar a possível presença da fase sigma na junta soldada do aço inoxidável hiperduplex SAF 2707 HD (UNS S32707) pelo processo TIG autógeno manual através da difração de raios-x. Nessa pesquisa, foram analisadas uma junta soldada do material pelo processo TIG autógeno manual com arco pulsado. Complementando o estudo foram analisadas seis amostras do aço inoxidável superduplex, sendo que cinco amostras sofreram tratamento térmico para a proposital formação da fase sigma. O refinamento do resultado da difração das amostras foi feito utilizando o método de Rietveld no software Topas Academic versão 4.1. O resultado da amostra soldada de hiperduplex apresentou as fases austenita, ferrita e alguns prováveis óxidos. Os resultados das amostras de superduplex tratadas termicamente apresentaram a fase sigma, conforme esperado na pesquisa, e as fases austenita e ferrita.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Quebra Espontânea de Simetria (QES) tem sido discutida em muitos cenários, tendo resultados importantes na física Teórica de Partículas, sendo motivo de extensa pesquisa e com variadas aplicações. Neste trabalho, será apresentado um modelo alternativo baseado na Ação de Fujikawa usando quartetos BRST. No primeiro capítulo, todo o ferramental para a análise da QES é discutido partindo da definição em nível clássico e por fim no regime quântico, usando o conceito de ação efetiva. A técnica de quantização de campos de calibre no U(1), presente no eletromagnetismo, foi abordada, usando o cálculo dos propagadores e seus respectivos diagramas de Feynman. Foi estudado em conjunto com esse assunto, o conceito de campos fantasmas de Fadeev-Popov e Simetria-BRST. O mecanismo de Higgs é explorado em nível quântico, sendo feita um estudo dos rearranjos dos graus de liberdade do sistema. No segundo capítulo, as propriedades dos quartetos-BRST são estudadas, bem como suas considerações sobre simetria, quando aplicadas na ação de Fujikawa usando dois cenários: (i) quando a simetria não é quebrada. (ii) A simetria é quebrada. E por fim é feita uma análise sobre os graus de liberdade do sistema.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Diversas formas de geração de energia vêm sendo desenvolvidas com o objetivo de oferecer alternativas ecologicamente corretas. Neste contexto, a energia eólica vem se destacando na região Nordeste do Brasil, devido ao grande potencial dos ventos da região. As torres, que representam parcela significativa do custo total do sistema, tendem a crescer buscando ventos mais fortes e permitindo assim a utilização de aerogeradores com maior capacidade de geração de energia. Este trabalho tem como objetivo formular um modelo de otimização de torres tubulares de aço, para aerogeradores eólicos. Busca-se minimizar o volume total (custo, indiretamente), tendo como variáveis de projeto as espessuras da parede da torre. São impostas restrições relativas à frequência natural e ao comportamento estrutural (tensão e deslocamento máximo de acordo com recomendações da norma Europeia). A estrutura da torre é modelada com base no Método dos Elementos Finitos e o carregamento atuante na estrutura inclui os pesos da torre, do conjunto de equipamentos instalados no topo (aerogerador), e o efeito estático da ação do vento sobre a torre. Para verificação das tensões, deslocamentos e frequências naturais, foram utilizados elementos finitos de casca disponíveis na biblioteca do programa de análise ANSYS. Os modelos de otimização foram também implementados no modulo de otimização do programa ANSYS (design optimization), que utiliza técnicas matemáticas em um processo iterativo computadorizado até que um projeto considerado ótimo seja alcançado. Nas aplicações foram usados os métodos de aproximação por subproblemas e o método de primeira ordem. Os resultados obtidos revelam que torres para aerogeradores merecem atenção especial, em relação à concepção do projeto estrutural, sendo que seu desempenho deve ser verificado através de metodologias completas que englobem além das análises clássicas (estáticas e dinâmicas), incluam também as análises de otimização.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho apresentamos um novo método de compressão, com perda controlada de dados, que tem a vantagem de ter uma taxa significativa de compressão sem introduzir nenhuma perda superior a um parâmetro escolhido pelo usuário. Esta abordagem é uma abordagem mista, pois usa técnicas de compactação de dados tanto com perda quanto sem perda. Isto quer dizer que conseguimos um método que alia as vantagens da alta compressão, sem introduzir distorções indesejáveis nos dados. Mostramos como a massa de dados utilizada nos nossos estudos é obtida e a sua importância na prospecção de depósitos de hidrocarbonetos. É apresentado um levantamento bibliográfico com técnicas de compressão aplicadas a dados sísmicos tipicamente utilizadas em aplicações comerciais. Por fim, apresentamos os resultados da compressão utilizando o método em conjuntos de dados sísmicos reais. Para 1% de erro, os arquivos de dados sísmicos compactados passaram a ter algo próximo a 25% de seus tamanhos originais, o que representa um fator de compressão de aproximadamente 4

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Em um contexto de demandas sociais tendencialmente crescentes, uma das alternativas para o aumento da arrecadação de receitas pelo Estado reside no manejo de aplicações financeiras. Os investimentos financeiros estatais, a rigor, já acontecem, mas nem sempre o objetivo claro e explícito de obtenção de resultados financeiramente interessantes e, eventualmente ou mesmo por isso , sob gestão economicamente ineficiente. Às vezes, até se enxerga o foco na obtenção de rendimentos relevantes na ação estatal, mas sem uma disciplina específica, o que pode abrir espaço a uma gestão de ativos desqualificada ou mesmo fraudulenta, com sérios prejuízos aos cofres públicos e, em situações extremas, ampliação ainda maior das despesas públicas. O objetivo desta tese, portanto, é reconhecer que nem sempre o Estado atua na economia com propósito interventivo e que, na qualidade de investidor institucional vale dizer, de ente que tem o dever de proceder aos investimentos e às aplicações financeiras que digam com as melhores práticas de administração dos ativos públicos , precisa atuar sob o jugo de normas jurídicas claras, que permitam ao Estado ampliar suas receitas dentro de limites razoáveis de exposição a risco financeiro e disponibilizem aos órgãos de fiscalização e controle da Administração Pública as ferramentas necessárias para, também quanto a esse aspecto, aferir a eficiência da ação estatal. Para tanto, têm-se como pressupostos o anacronismo da resistência cultural às aplicações financeiras dos entes da Administração Pública e a noção de que quaisquer ferramentas de obtenção de receitas pelo Estado estão sujeitas a algum grau de risco. Com base nas bem-sucedidas experiências nacionais e internacionais, será possível concluir, ao final, que é admissível, do ponto de vista constitucional e legal, a ação do Estado como investidor nos mercados financeiro e de capitais e que é viável a formulação de parâmetros gerais para a disciplina jurídica do Estado investidor.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O crescimento dos serviços de banda-larga em redes de comunicações móveis tem provocado uma demanda por dados cada vez mais rápidos e de qualidade. A tecnologia de redes móveis chamada LTE (Long Term Evolution) ou quarta geração (4G) surgiu com o objetivo de atender esta demanda por acesso sem fio a serviços, como acesso à Internet, jogos online, VoIP e vídeo conferência. O LTE faz parte das especificações do 3GPP releases 8 e 9, operando numa rede totalmente IP, provendo taxas de transmissão superiores a 100 Mbps (DL), 50 Mbps (UL), baixa latência (10 ms) e compatibilidade com as versões anteriores de redes móveis, 2G (GSM/EDGE) e 3G (UMTS/HSPA). O protocolo TCP desenvolvido para operar em redes cabeadas, apresenta baixo desempenho sobre canais sem fio, como redes móveis celulares, devido principalmente às características de desvanecimento seletivo, sombreamento e às altas taxas de erros provenientes da interface aérea. Como todas as perdas são interpretadas como causadas por congestionamento, o desempenho do protocolo é ruim. O objetivo desta dissertação é avaliar o desempenho de vários tipos de protocolo TCP através de simulações, sob a influência de interferência nos canais entre o terminal móvel (UE User Equipment) e um servidor remoto. Para isto utilizou-se o software NS3 (Network Simulator versão 3) e os protocolos TCP Westwood Plus, New Reno, Reno e Tahoe. Os resultados obtidos nos testes mostram que o protocolo TCP Westwood Plus possui um desempenho melhor que os outros. Os protocolos TCP New Reno e Reno tiveram desempenho muito semelhante devido ao modelo de interferência utilizada ter uma distribuição uniforme e, com isso, a possibilidade de perdas de bits consecutivos é baixa em uma mesma janela de transmissão. O TCP Tahoe, como era de se esperar, apresentou o pior desempenho dentre todos, pois o mesmo não possui o mecanismo de fast recovery e sua janela de congestionamento volta sempre para um segmento após o timeout. Observou-se ainda que o atraso tem grande importância no desempenho dos protocolos TCP, mas até do que a largura de banda dos links de acesso e de backbone, uma vez que, no cenário testado, o gargalo estava presente na interface aérea. As simulações com erros na interface aérea, introduzido com o script de fading (desvanecimento) do NS3, mostraram que o modo RLC AM (com reconhecimento) tem um desempenho melhor para aplicações de transferência de arquivos em ambientes ruidosos do que o modo RLC UM sem reconhecimento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O clareamento dentário tem se tornado um dos procedimentos mais comuns na odontologia, mas esse dado causa preocupações, pois essa técnica apresenta efeitos adversos, como: sensibilidade dentária, alterações das propriedades mecânicas dos tecidos dentários, aumento da rugosidade do esmalte e alteração do conteúdo de cálcio e fósforo do dente, porém todos esses fatores ainda não são totalmente fundamentados da literatura odontológica, principalmente a relação da técnica com a desmineralização dentária. O objetivo do presente estudo foi avaliar o potencial de desmineralização de alguns géis clareadores de uso clínico para dentes vitais, após cinco aplicações em esmalte dental humano, usando a técnica de Fluorescência de Raios X. Foram obtidos 20 dentes anteriores humanos, tendo as suas raízes seccionadas e incluídos em resina epóxi, com auxílio de uma matriz especial. Para análise, os dentes foram divididos em quatro grupos (5 dentes por grupo). Grupo 1: clareamento pelo HP Maxx, peróxido de hidrogênio 35% manipulado e dosado manualmente; grupo 2: clareamento com HP Blue, peróxido de hidrogênio 35% com cálcio, pré-dosado e manipulado com seringa de automistura; grupo 3: clareamento com Ultraboost, peróxido de hidrogênio 38%, pré-dosado e manipulado com seringa de automistura e grupo 4: clareamento com Total Blanc 35, peróxido de hidrogênio 35%, pré-dosado e manipulado com seringa de automistura. Cada dente foi avaliado em 6 sítios antes do clareamento e ao final de cada sessão. Entre as sessões os elementos eram mantidos em água ultrapura. Os géis clareadores também tiveram seu pH analisado a cada 5 minutos durante 60 minutos. Estatisticamente, nenhum dos agentes clareadores alterou significantemente o conteúdo mineral do esmalte dental humano e também não houve diferenças estatísticas entre os grupos. Concluiu-se que, mesmo com as limitações do estudo, os clareadores testados não são capazes de desmineralizar o esmalte dental humano e não diferem estatisticamente entre si.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O uso de sistemas computacionais para armazenamento, tratamento de dados e produção de informação, disseminou-se de maneira crescente nos últimos anos, e neste cenário estão incluídos os Sistemas de Informações Geográficas, os SIGs. A utilização de informação geográfica com acesso por computador é hoje a realidade de ambientes corporativos, entidades governamentais, escolas e residências. Esta dissertação apresenta uma proposta de modelagem de elementos de zoneamento urbano, baseada em uma ontologia de domínio. Ontologias são representadas como classes e atributos de um dado domínio. Na proposta apresentada, estas classes são exportadas para o formato XMI, resguardando as definições de classes, atributos e relacionamentos do domínio analisado e compondo um repositório de classes, permitindo, teoricamente, sua reutilização. Como exemplo da proposta, foi construída uma ontologia do Zoneamento Urbano do município de Macaé-RJ, seguindo a proposta do Plano Diretor Municipal, usando o editor Protégé. A ontologia construída foi exportada para o formato XMI, sendo a seguir criado um diagrama de classes, obtido através da importação das classes pelo software para modelagem de sistemas baseados no paradigma da OO, ArgoUML. Tal importação permite que a ontologia construída fique disponível na forma de um pacote de classes, que pode ser utilizado por aplicações que se baseiem no paradigma da OO para o desenvolvimento de sistemas de informação. Como forma de mostrar a utilização destas classes foi desenvolvido um protótipo utilizando o software ALOV Map, que oferece a visualização destas classes, na Web, como mapas temáticos.