154 resultados para Mãe Luiza
Resumo:
Os receptores β1- e β2-adrenérgicos estão presentes em inúmeras células que participam do processo de reparo como fibroblastos, queratinócitos, células inflamatórias e células endoteliais. Diversos trabalhos demonstram que estes receptores modulam o processo de reparo tecidual. Entretanto, nenhum trabalho demonstrou se o bloqueio destes receptores compromete o reparo de úlceras de pressão. O objetivo deste estudo foi avaliar o efeito do bloqueio dos receptores β1- e β2-adrenérgicos no reparo de úlceras de pressão em camundongos, para isto utilizamos um modelo não invasivo de lesão por isquemia e reperfusão. No presente estudo, utilizamos animais que foram tratados por gavagem com propranolol (um antagonista não seletivo dos receptores β1- e β2-adrenérgicos). A administração do antagonista teve início um dia antes do início dos ciclos de isquemia e reperfusão e se manteve diariamente até a eutanásia. Para desenvolver a úlcera de pressão, um par de magnetos foi aplicado no dorso dos animais previamente depilado. O período de permanência do magneto é caracterizado como período de isquemia, enquanto sua retirada é caracterizada como período de reperfusão. Os ciclos de isquemia e reperfusão foram repetidos duas vezes, e ao final do último ciclo, duas úlceras circulares foram criadas no dorso dos animais. Os animais foram mortos 3, 7, 14 e 21 dias após a lesão. Após o último ciclo de isquemia, o fluxo sanguíneo da área comprimida foi nulo, 7 horas após a compressão o fluxo sanguíneo estava elevado, com níveis superiores ao da pele normal. Após 24 e 48 horas, o fluxo sanguíneo estava reduzido e abaixo dos níveis da pele normal. O bloqueio dos receptores β1- e β2-adrenérgicos aumentou os níveis de peróxidos lipídicos 3 dias após a lesão, comprometeu a migração dos queratinócitos, levando a um aumento da proliferação epitelial, resultando em uma re-epitelização atrasada. O retardo na formação da neo-epiderme induzido pelo bloqueio destes receptores prejudicou a remoção do tecido necrótico. O bloqueio dos receptores β1- e β2-adrenérgicos aumentou o número de células inflamatórias (neutrófilos e macrófagos), os níveis proteicos de elastase neutrofílica 3 dias após a lesão e reduziu os níveis proteicos de MCP-1 3 dias após a lesão e os níveis proteicos de MMP-12 7 dias após a lesão. O bloqueio dos receptores β1- e β2-adrenérgicos aumentou a proliferação celular e apoptose no tecido conjuntivo 7 dias após a lesão e aumentou a densidade de vasos sanguíneos 14 e 21 dias após a lesão. O bloqueio dos receptores β1- e β2-adrenérgicos retardou a diferenciação miofibroblástica e reduziu os níveis proteicos de TGF-β 1/2/3 3 dias após a lesão e a contração da lesão. Vinte e um dias após a lesão, o bloqueio dos receptores β1- e β2-adrenérgicos aumentou a espessura da neo-epiderme e a expressão de tenascina-C em fibroblastos e reduziu a deposição de colágeno. Em conclusão, o bloqueio dos receptores β1- e β2-adrenérgicos atrasa o reparo tecidual em úlceras de pressão.
Resumo:
Os resultados permitiram a redação de quatro artigos. Aspectos microbiológicos e clínicos de corinebacterioses em pacientes com câncer observados durante cinco anos foram descritos no Artigo 1. No Artigo 2 foram apresentados casos de bacteremia causados por corinebactérias invasivas não toxigênicas em dois períodos com intervalo de sete anos. As infecções em pacientes com câncer por C. diphtheriae, causando casos clínicos atípicos foram descritas no Artigo 3, além do estudo dos principais fatores de virulência de uma cepa de C. diphtheriae isolada de infecção associada ao cateter de nefrostomia foi descrita no Artigo 4. Resumidamente no Artigo 1, além dos aspectos clínico-epidemiológicos foram avaliados os perfis de resistência aos antimicrobianos e o potencial de virulência dos micro-organismos. Em cinco anos, 932 amostras de corinebactérias, com perfis de resistência aos antimicrobianos testados, foram isoladas de pacientes com câncer. As espécies predominantes foram Corynebacterium amycolatum (44,7%), Corynebacterium minutissimum (18,3%) e Corynebacterium pseudodiphtheriticum (8,5%). O uso de catéteres de longa permanência e a neutropenia, foram às condições importantes para infecção por corinebactérias. As doenças de base mais comuns foram os tumores sólidos. Pacientes hospitalizados apresentaram risco seis vezes maior de morrer, quando relacionadas às taxas de mortalidade com 30 dias (RC= 5,5; IC 95%= 1,15-26,30; p= 0,033). As bacteremias (Artigo 2) causadas por corinebactérias foram observadas em dois períodos: 2003-2004 (n=38) e de 2012-2013 (n=24). As espécies multirresistentes C. amycolatum e Corynebacterium jeikeium foram os principais responsáveis pelos quadros de bacteremia. Havia 34 pacientes com tumores sólidos e 28 pacientes com doenças linfoproliferativas, sendo que 21 deles apresentavam neutropenia e 54 utilizavam cateter venoso central. Em 41 pacientes havia infecção relacionada ou associada aos dispositivos intravasculares. Os pacientes com bacteremia responderam ao tratamento com vancomicina após a remoção do cateter. O comportamento agressivo da neoplasia, o tempo de internação hospitalar e o uso de CVC aumentaram o risco de bacteremias por Corynebacterium spp. No Artigo 3, 17 casos de infecções atípicas causadas por Corynebacterium diphtheriae foram diagnosticadas de 1996 a 2013. A incidência de C. diphtheriae correspondeu a 15,8 casos/100.000 admissões, 465 vezes maior que a incidência de difteria na população brasileira. Sintomas toxêmicos foram observados em nove pacientes, embora quadros de difteria clássica e endocardite não fossem observados. O perfil eletroforético em campo pulsado (PFGE) demonstrou um perfil de distribuição endêmica, apesar de haver dois casos de pacientes com o mesmo perfil eletroforético sugerindo transmissão relacionada aos cuidados à saúde. A adesão em superfícies bióticas e abióticas e produção de biofilme em cateter de poliuretano (Artigo 4) foi demonstrada em C. diphtheriae não toxigênico no sítio de inserção do cateter de nefrostomia. Os dados desses artigos permitiram concluir que (i) diferentes espécies de corinebactérias multirresistentes foram capazes de causar infecções em pacientes com câncer, incluindo bacteremias; (ii) C. diphtheriae foi capaz de causar infecções graves em indivíduos imunocomprometidos, incluindo infecções relacionadas ao uso de dispositivos invasivos em populações de risco, tais como pacientes com câncer.
Resumo:
Os Staphylococcus coagulase-negativos (SCN) são encontrados na pele e mucosas de seres humanos e outros animais, já que algumas espécies são parte constituinte da microbiota normal destes mesmos sítios, e podem constituir um reservatório para SCN. A espécie Staphylococcus epidermidis, é reconhecida como grande oportunista e agente de graves infecções nosocomiais e comunitárias, além de associado com infecções em pacientes submetidos a implantes com dispositivos médicos, e a espécie Staphyloccus haemolyticus é a segunda espécie mais isolada de hemoculturas humanas, sendo uma das espécies que apresenta elevada resistência aos antimicrobianos. O presente estudo teve como objetivo principal investigar a presença de SCN em fômites (estetoscópios, termômetros e esfigmomanômetros) no ambiente hospitalar, identificar as espécies S. haemolyticus e S. epidermidis e correlacionar seus perfis de resistência aos antimicrobianos com a capacidade de produção de biofilme. A técnica de multiplex-mPCR foi empregada na determinação das espécies e a fenotipagem foi realizada pelos testes fenotípicos convencionais. Os perfis de resistência aos antimicrobianos foram verificados através do teste de disco-difusão, determinação da CIM (oxacilina e vancomicina), determinação da CBM e presença do gene mecA. A capacidade de produção de biofilme foi investigada pelos testes do Ágar Vermelho do Congo e ensaios de aderência em superfícies abióticas (poliestireno e vidro) na presença e ausência de oxacilina e vancomicina, além da PCR para o gene icaAD. Os resultados demonstraram que pelos testes bioquímicos convencionais, a espécie mais encontrada foi S. epidermidis (43,5%). Após a confirmação pela técnica de PCR, 29 amostras (82%) foram identificadas como S. epidermidis, e 6 amostras (18%) foram identificadas como S. haemolyticus. Todas as amostras foram multirresistentes, oxacilina resistentes e vancomicina sensíveis, sendo que apenas 5 amostras S. epidermidis (17,2%) foram tolerantes a oxacilina. A presença do gene mecA foi detectada em 71,4% das amostras. Apesar da maioria das amostras ter apresentado capacidade de produzir slime e/ou biofilme não foi observada total correlação com a presença do gene icaAD enfatizando a natureza multifatorial da produção de biofilme. As amostras aderiram melhor ao esfigmomanômetro, e também, neste fômites, foi encontrado a maior porcentagem de amostras positivas para a produção de slime. Para aderência ao vidro e aderência ao poliestireno não foi encontrada correlação com os fômites. Foram isoladas amostras S. epidermidis de todos os sítios hospitalares estudados e S. haemolyticus só não foi encontrado em Enfermaria de Clínica Médica. Em relação aos fômites, S. epidermidis foi encontrado em todos os fômites estudados, e S. haemolyticus, apenas foi encontrado em esfigmomanômetro e em outros fômites. Os fômites estão servindo como fontes de transmissão e disseminação de micro-organismos, sendo necessário maiores estudos a respeito.
Resumo:
O desequilíbrio nutricional no início da vida leva ao desenvolvimento da obesidade, diabetes e doenças cardiovasculares na idade adulta. Este estudo teve como objetivo analisar os efeitos a longo prazo da hiperalimentação na lactação por meio do modelo de redução da ninhada na hemodinâmica e bioenergética cardíaca. Vinte e quatro camundongos machos Swiss adultos foram divididos em dois grupos (controle e hiperalimentado) submetidos a duas condições (linha de base e isquemia/reperfusão) formando quatro grupos no total: grupo controle linha de base (GCLB), grupo controle isquemia/reperfusão (GCIR), grupo hiperalimentado linha de base (GHLB) e o grupo hiperalimentado isquemia/reperfusão (GHIR), todos com seis camundongos/grupo. As alterações cardíacas foram analisadas por meio da hemodinâmica cardíaca, da respiração mitocondrial e da biologia molecular. Os parâmetros hemodinâmicos analisados foram a velocidade de contração (Max dP/dt), a velocidade de relaxamento (Min dP/dt), o tempo de relaxamento cardíaco isovolumétrico (Tau) e os batimentos por minuto (BPM). A respiração mitocondrial foi avaliada por meio da razão do controle respiratório (RCR) na oxidação de carboidratos e ácidos gordos, e finalmente, a biologia molecular, através de proteínas-chave como a proteína quinase B (AKT), a proteína quinase ativada por adenosina monofosfato (AMPK), a carnitina palmitoil transferase 1 (CPT-1), a proteína desacopladora 2 (UCP2), o 4-hidroxinonenal (4-HNE) e a gliceraldeído-3-fosfato desidrogenase (GAPDH). Os camundongos do GH desenvolveram maior peso corporal (30,95%, P<0,001), gordura epididimal (68,64%, P<0,001), gordura retroperitoneal (109,38%, P<0,01) e glicemia de jejum (19,52%, P<0,05) comparados aos do GC. Os parâmetros Max dP/dt e BPM apresentaram diminuição no GHIR quando comparado ao GHLB (P<0,001 e P<0,05). O parâmetro Min dP/dt apresentou-se reduzido no GCIR e GHIR quando comparado aos grupos GCLB e GCLB (P<0,05; P<0,0001 respectivamente). Camundongos do GHIR apresentaram redução do Tau quando comparado aos grupos GCIR e GHLB (P<0,0001). Estes desequilíbrios na hemodinâmica cardíaca foram associados a função mitocondrial, uma vez que, o GHLB apresenta a RCR reduzida para oxidação de ácidos graxos e carboidratos (P<0,05 e P<0,01, respectivamente) e o GHIR apenas na oxidação dos ácidos graxos (P<0,01). Além disso, o GHIR apresentou diversas alterações nas proteínas-chave do metabolismo energético cardíaco, como diminuição do conteúdo de AKT (P<0,05) e aumento do conteúdo de CPT-1 (P<0,05), 4-HNE (P<0,05) e GAPDH (P<0,05) quando comparado ao CGIR. Finalmente, a expressão do mRNA para CPT1, GAPDH e UCP2 foi aumentada no GHIR quando comparado aos GCIR (P<0,05) e GHLB (P<0,05). A expressão de mRNA para UCP2 e CPT-1 foi reduzida no GCIR quando comparado ao GCLB (P<0,01 e P<0,05, respectivamente). O estudo apresenta resultados consistentes, demonstrando efeitos deletérios sobre o metabolismo cardíaco adulto resultante de alterações nutricionais durante a lactação.
Resumo:
A presente investigação teve como objetivo avaliar a prática de cirurgiões dentistas em uma unidade de terapia intensiva (UTI) de um hospital militar, o estabelecimento de um protocolo de higiene oral e os seus efeitos sobre a redução de pneumonias associadas à ventilação mecânica (PAVM). As percepções da equipe da UTI sobre as atividades dos cirurgiões dentistas também foram avaliadas por meio de um questionário. O perfil de colonização microbiana da mucosa oral antes e depois do estabelecimento das medidas de higiene oral também foi avaliado tanto por diluição e plaqueamento em meios de cultura microbiológicos seletivos e enriquecidos e através da amplificação pelo método de PCR e eletroforese em gel desnaturante em gradiente (DGGE), subsequente ao sequenciamento dos amplicons. A carga microbiana foi avaliada após a contagem de placas de agar e através da amplificação por PCR em tempo real (qPCR) do gene rrs nas amostras. O protocolo de higiene oral, realizado pelos cirurgiões dentistas, foi capaz de reduzir a incidência de PAVM (p <0,05). O questionário revelou que a modificação da halitose foi percebida por 93,33% dos participantes. A redução da ocorrência das úlceras orais e dos lábios durante a internação dos pacientes foi observada por 80% da equipe da UTI. Foi observada a redução da produção das secreções nasais e bucais por 70% da equipe dos profissionais da UTI. Para 86,66% dos participantes a assistência aos pacientes tornou-se mais agradável após a instituição dos cuidados bucais. O protocolo, realizado com a utilização de solução 0,12% de clorexidina, não foi capaz de evitar a colonização da mucosa oral por patógenos microbianos usualmente encontrados no ambiente hospitalar tais como os bastonetes Gram-negativos entéricos e não fermentadores, nem foi capaz de eliminá-los quando tais micro-organismos já se encontravam presentes antes dos procedimentos de higiene bucal. Alguns Bastonetes Gram-positivos (Lactobacillus sp e corinebactérias) e Staphylococcus epidermidis permaneceram após a realização dos procedimentos. O protocolo de higiene oral permitiu a redução da carga microbiana na mucosa oral de 50% dos pacientes considerando-se o método de contagem microbiana e para 35% dos pacientes pela avaliação dos números de cópias de genes rrs através de qPCR. Em conclusão, o protocolo de higiene oral desenvolvido pelos cirurgiões dentistas foi capaz de reduzir a incidência de PAV na UTI, embora não tenha sido capaz de prevenir a colonização da mucosa oral por supostos patógenos microbianos. O protocolo de higiene oral com a participação ativa dos cirurgiões dentistas foi bem aceito pelos profissionais da UTI e foi capaz de melhorar a qualidade da assistência aos pacientes críticos.
Resumo:
Esta dissertação enfoca uma série de trabalhos artísticos desenvolvidos antes e durante o período do mestrado, como Sumi, Infiltração e Carbono, que utilizam a fotografia, o vídeo, a instalação, o desenho, a frotagem e a escultura como meios de produção. A partir das obras desenvolveu-se uma discussão teórica acerca de algumas das relações possíveis entre a arte e a ciência, enquanto esferas produtoras de conhecimento. O embate entre o homem e a natureza, através da filosofia, da ciência e da arte, é objeto de estudo, além das especificidades do átomo Carbono, em especial suas estruturas macroscópicas os materiais e suas transformações ao longo do tempo. A instabilidade, a entropia, o fluxo, os paradigmas e as diversas concepções de Tempo são alguns dos temas tratados nesta pesquisa, que utilizou como base os escritos e as obras de artistas, cientistas, filósofos e pesquisadores da arte e da ciência
Resumo:
Nas últimas décadas, os Staphylococcus coagulase-negativo, têm sido considerados como patógenos verdadeiros, sendo um dos principais grupos bacterianos responsáveis pelas infecções relacionadas a assistência a saúde (IRAS). O presente estudo teve como objetivo geral: avaliação da relação entre a resistência a oxacilina e a produção de biofilme de amostras Staphylococcus coagulase-negativo de origem comunitária e hospitalar. Neste sentido, foram desenvolvidos os seguintes objetivos específico: identificar ao nível de espécie os Staphylococcus coagulase-negativo; analisar por técnica fenotípica (Ágar vermelho do Congo) a produção de slime; avaliar quantitativamente, a produção de biofilme; correlacionar a produção de polissacarídeos extracelulares (slime) com a produção de biofilme; avaliar a relação da resistência a oxacilina como indicador da presença do gene mecA; avaliar a relação entre a concentração inibitória mínima e a concentração bactericida mínima para oxacilina; pesquisar a presença dos genes mecA, icaAD e atlE, pela técnica de PCR. Foi estudado um total de 150 amostras, sendo 50 isoladas de fômites, 50 isoladas de sangue e 50 isoladas de comunidade. Independente da origem, foram identificadas 14 espécies de Staphylococcus coagulase-negativo, sendo mais frequentes S. epidermidis 42,6%, S. haemolyticus 13,3% e S. cohnii cohnii 10,7%. A análise geral da expressão fenotípica de slime mostrou que 64% das amostras avaliadas eram produtoras de slime. Das 150 amostras testadas neste estudo, 95,3% foram produtoras de biofilme. Ao considerarmos a análise da quantificação do biofilme em relação às origens das amostras estudadas não encontramos diferenças significativas e a maioria das amostras foi considerada moderadamente produtora de biofilme. O gene mecA foi detectado em 6 amostras comunitárias, 34 amostras de fômites e 34 amostras de sangue. Não houve diferença significativa entre as amostras de fômites e sangue. Porém, houve diferença significativa entre as amostras de origem comunitária e as de origem hospitalar - fômites e sangue (p < 0,0001). Ao compararmos as três origens de isolamento quanto a presença do gene atlE observamos que houve diferença significativa (p = 0,0012) entre elas. Sendo, as amostras isoladas de sangue, as que apresentaram maior número de amostras que possuíam o gene atlE (n = 18). Das 150 amostras testadas observamos a presença do gene icaAD em 46% amostras comunitárias, 56% amostras de fômites e 60% amostras de sangue, não encontramos diferença significativa (p = 0,5750). Observamos uma correlação entre a resistência a oxacilina e a produção de slime, pois as amostras de origem hospitalar (fômites e sangue) apresentaram altos níveis de resistência a oxacilina e em sua grande maioria foram produtoras de slime. A espécie S. epidermidis foi a mais isolada e deve-se ressaltar que, quando comparada com as outras espécies, apresentou altos níveis de resistência a oxacilina, sendo a maioria produtora de slime e biofilme.
Resumo:
Amostras de DNA são encontradas em fragmentos, obtidos em vestígios de uma cena de crime, ou coletados de amostras de cabelo ou sangue, para testes genéticos ou de paternidade. Para identificar se esse fragmento pertence ou não a uma sequência de DNA, é necessário compará-los com uma sequência determinada, que pode estar armazenada em um banco de dados para, por exemplo, apontar um suspeito. Para tal, é preciso uma ferramenta eficiente para realizar o alinhamento da sequência de DNA encontrada com a armazenada no banco de dados. O alinhamento de sequências de DNA, em inglês DNA matching, é o campo da bioinformática que tenta entender a relação entre as sequências genéticas e suas relações funcionais e parentais. Essa tarefa é frequentemente realizada através de softwares que varrem clusters de base de dados, demandando alto poder computacional, o que encarece o custo de um projeto de alinhamento de sequências de DNA. Esta dissertação apresenta uma arquitetura de hardware paralela, para o algoritmo BLAST, que permite o alinhamento de um par de sequências de DNA. O algoritmo BLAST é um método heurístico e atualmente é o mais rápido. A estratégia do BLAST é dividir as sequências originais em subsequências menores de tamanho w. Após realizar as comparações nessas pequenas subsequências, as etapas do BLAST analisam apenas as subsequências que forem idênticas. Com isso, o algoritmo diminui o número de testes e combinações necessárias para realizar o alinhamento. Para cada sequência idêntica há três etapas, a serem realizadas pelo algoritmo: semeadura, extensão e avaliação. A solução proposta se inspira nas características do algoritmo para implementar um hardware totalmente paralelo e com pipeline entre as etapas básicas do BLAST. A arquitetura de hardware proposta foi implementada em FPGA e os resultados obtidos mostram a comparação entre área ocupada, número de ciclos e máxima frequência de operação permitida, em função dos parâmetros de alinhamento. O resultado é uma arquitetura de hardware em lógica reconfigurável, escalável, eficiente e de baixo custo, capaz de alinhar pares de sequências utilizando o algoritmo BLAST.
Resumo:
Multi-Processor System-on-Chip (MPSoC) possui vários processadores, em um único chip. Várias aplicações podem ser executadas de maneira paralela ou uma aplicação paralelizável pode ser particionada e alocada em cada processador, a fim de acelerar a sua execução. Um problema em MPSoCs é a comunicação entre os processadores, necessária para a execução destas aplicações. Neste trabalho, propomos uma arquitetura de rede de interconexão baseada na topologia crossbar, com memória compartilhada. Esta arquitetura é parametrizável, possuindo N processadores e N módulos de memórias. A troca de informação entre os processadores é feita via memória compartilhada. Neste tipo de implementação cada processador executa a sua aplicação em seu próprio módulo de memória. Através da rede, todos os processadores têm completo acesso a seus módulos de memória simultaneamente, permitindo que cada aplicação seja executada concorrentemente. Além disso, um processador pode acessar outros módulos de memória, sempre que necessite obter dados gerados por outro processador. A arquitetura proposta é modelada em VHDL e seu desempenho é analisado através da execução paralela de uma aplicação, em comparação à sua respectiva execução sequencial. A aplicação escolhida consiste na otimização de funções objetivo através do método de Otimização por Enxame de Partículas (Particle Swarm Optimization - PSO). Neste método, um enxame de partículas é distribuído igualmente entre os processadores da rede e, ao final de cada interação, um processador acessa o módulo de memória de outro processador, a fim de obter a melhor posição encontrada pelo enxame alocado neste. A comunicação entre processadores é baseada em três estratégias: anel, vizinhança e broadcast. Essa aplicação foi escolhida por ser computacionalmente intensiva e, dessa forma, uma forte candidata a paralelização.
Resumo:
Esta dissertação investiga a aplicação dos algoritmos evolucionários inspirados na computação quântica na síntese de circuitos sequenciais. Os sistemas digitais sequenciais representam uma classe de circuitos que é capaz de executar operações em uma determinada sequência. Nos circuitos sequenciais, os valores dos sinais de saída dependem não só dos valores dos sinais de entrada como também do estado atual do sistema. Os requisitos cada vez mais exigentes quanto à funcionalidade e ao desempenho dos sistemas digitais exigem projetos cada vez mais eficientes. O projeto destes circuitos, quando executado de forma manual, se tornou demorado e, com isso, a importância das ferramentas para a síntese automática de circuitos cresceu rapidamente. Estas ferramentas conhecidas como ECAD (Electronic Computer-Aided Design) são programas de computador normalmente baseados em heurísticas. Recentemente, os algoritmos evolucionários também começaram a ser utilizados como base para as ferramentas ECAD. Estas aplicações são referenciadas na literatura como eletrônica evolucionária. Os algoritmos mais comumente utilizados na eletrônica evolucionária são os algoritmos genéticos e a programação genética. Este trabalho apresenta um estudo da aplicação dos algoritmos evolucionários inspirados na computação quântica como uma ferramenta para a síntese automática de circuitos sequenciais. Esta classe de algoritmos utiliza os princípios da computação quântica para melhorar o desempenho dos algoritmos evolucionários. Tradicionalmente, o projeto dos circuitos sequenciais é dividido em cinco etapas principais: (i) Especificação da máquina de estados; (ii) Redução de estados; (iii) Atribuição de estados; (iv) Síntese da lógica de controle e (v) Implementação da máquina de estados. O Algoritmo Evolucionário Inspirado na Computação Quântica (AEICQ) proposto neste trabalho é utilizado na etapa de atribuição de estados. A escolha de uma atribuição de estados ótima é tratada na literatura como um problema ainda sem solução. A atribuição de estados escolhida para uma determinada máquina de estados tem um impacto direto na complexidade da sua lógica de controle. Os resultados mostram que as atribuições de estados obtidas pelo AEICQ de fato conduzem à implementação de circuitos de menor complexidade quando comparados com os circuitos gerados a partir de atribuições obtidas por outros métodos. O AEICQ e utilizado também na etapa de síntese da lógica de controle das máquinas de estados. Os circuitos evoluídos pelo AEICQ são otimizados segundo a área ocupada e o atraso de propagação. Estes circuitos são compatíveis com os circuitos obtidos por outros métodos e em alguns casos até mesmo superior em termos de área e de desempenho, sugerindo que existe um potencial de aplicação desta classe de algoritmos no projeto de circuitos eletrônicos.
Resumo:
Fontes radioativas possuem radionuclídeos. Um radionuclídeo é um átomo com um núcleo instável, ou seja, um núcleo caracterizado pelo excesso de energia que está disponível para ser emitida. Neste processo, o radionuclídeo sofre o decaimento radioativo e emite raios gama e partículas subatômicas, constituindo-se na radiação ionizante. Então, a radioatividade é a emissão espontânea de energia a partir de átomos instáveis. A identificação correta de radionuclídeos pode ser crucial para o planejamento de medidas de proteção, especialmente em situações de emergência, definindo o tipo de fonte de radiação e seu perigo radiológico. Esta dissertação apresenta a aplicação do método de agrupamento subtrativo, implementada em hardware, para um sistema de identificação de elementos radioativos com uma resposta rápida e eficiente. Quando implementados em software, os algoritmos de agrupamento consumem muito tempo de processamento. Assim, uma implementação dedicada para hardware reconfigurável é uma boa opção em sistemas embarcados, que requerem execução em tempo real, bem como baixo consumo de energia. A arquitetura proposta para o hardware de cálculo do agrupamento subtrativo é escalável, permitindo a inclusão de mais unidades de agrupamento subtrativo para operarem em paralelo. Isso proporciona maior flexibilidade para acelerar o processo de acordo com as restrições de tempo e de área. Os resultados mostram que o centro do agrupamento pode ser identificado com uma boa eficiência. A identificação desses pontos pode classificar os elementos radioativos presentes em uma amostra. Utilizando este hardware foi possível identificar mais do que um centro de agrupamento, o que permite reconhecer mais de um radionuclídeo em fontes radioativas. Estes resultados revelam que o hardware proposto pode ser usado para desenvolver um sistema portátil para identificação radionuclídeos.
Resumo:
Controle de processos é uma das muitas aplicações que aproveitam as vantagens do uso da teoria de conjuntos nebulosos. Nesse tipo de aplicação, o controlador é, geralmente, embutido no dispositivo controlado. Esta dissertação propõe uma arquitetura reconfigurável eficiente para controladores nebulosos embutidos. A arquitetura é parametrizável, de tal forma, que permite a configuração do controlador para que este possa ser usado na implementação de qualquer aplicação ou modelo nebuloso. Os parâmetros de configuração são: o número de variáveis de entrada (N); o número de variáveis de saída (M); o número de termos linguísticos (Q); e o número total de regras (P). A arquitetura proposta proporciona também a configuração das características que definem as regras e as funções de pertinência de cada variável de entrada e saída, permitindo a escalabilidade do projeto. A composição das premissas e consequentes das regras são configuráveis, de acordo com o controlador nebuloso objetivado. A arquitetura suporta funções de pertinência triangulares, mas pode ser estendida para aceitar outras formas, do tipo trapezoidal, sem grandes modificações. As características das funções de pertinência de cada termo linguístico, podem ser ajustadas de acordo com a definição do controlador nebuloso, permitindo o uso de triângulos. Virtualmente, não há limites máximos do número de regras ou de termos linguísticos empregados no modelo, bem como no número de variáveis de entrada e de saída. A macro-arquitetura do controlador proposto é composta por N blocos de fuzzificação, 1 bloco de inferência, M blocos de defuzzificação e N blocos referentes às características das funções de pertinência. Este último opera apenas durante a configuração do controlador. A função dos blocos de fuzzificação das variáveis de entrada é executada em paralelo, assim como, os cálculos realizados pelos blocos de defuzzificação das variáveis de saída. A paralelização das unidades de fuzzificação e defuzzificação permite acelerar o processo de obtenção da resposta final do controlador. Foram realizadas várias simulações para verificar o correto funcionamento do controlador, especificado em VHDL. Em um segundo momento, para avaliar o desempenho da arquitetura, o controlador foi sintetizado em FPGA e testado em seis aplicações para verificar sua reconfigurabilidade e escalabilidade. Os resultados obtidos foram comparados com os do MATLAB em cada aplicação implementada, para comprovar precisão do controlador.
Resumo:
A Otimização por Enxame de Partículas (PSO, Particle Swarm Optimization) é uma técnica de otimização que vem sendo utilizada na solução de diversos problemas, em diferentes áreas do conhecimento. Porém, a maioria das implementações é realizada de modo sequencial. O processo de otimização necessita de um grande número de avaliações da função objetivo, principalmente em problemas complexos que envolvam uma grande quantidade de partículas e dimensões. Consequentemente, o algoritmo pode se tornar ineficiente em termos do desempenho obtido, tempo de resposta e até na qualidade do resultado esperado. Para superar tais dificuldades, pode-se utilizar a computação de alto desempenho e paralelizar o algoritmo, de acordo com as características da arquitetura, visando o aumento de desempenho, a minimização do tempo de resposta e melhoria da qualidade do resultado final. Nesta dissertação, o algoritmo PSO é paralelizado utilizando três estratégias que abordarão diferentes granularidades do problema, assim como dividir o trabalho de otimização entre vários subenxames cooperativos. Um dos algoritmos paralelos desenvolvidos, chamado PPSO, é implementado diretamente em hardware, utilizando uma FPGA. Todas as estratégias propostas, PPSO (Parallel PSO), PDPSO (Parallel Dimension PSO) e CPPSO (Cooperative Parallel PSO), são implementadas visando às arquiteturas paralelas baseadas em multiprocessadores, multicomputadores e GPU. Os diferentes testes realizados mostram que, nos problemas com um maior número de partículas e dimensões e utilizando uma estratégia com granularidade mais fina (PDPSO e CPPSO), a GPU obteve os melhores resultados. Enquanto, utilizando uma estratégia com uma granularidade mais grossa (PPSO), a implementação em multicomputador obteve os melhores resultados.
Resumo:
A avaliação objetiva da qualidade de imagens é de especial importância em diversas aplicações, por exemplo na compressão de imagens, onde pode ser utilizada para regular a taxa que deve ser empregada para que haja a máxima compressão (permitindo perda de dados) sem comprometer a qualidade final; outro exemplo é na inserção de marcas dágua, isto é, introdução de informações descritivas utilizadas para atestar a autenticidade de uma imagem, que devem ser invisíveis para o observador. O SSIM (Structural SIMilarity) é uma métrica de avaliação objetiva da qualidade de imagens de referência completa projetada para imagens em tons de cinza. Esta dissertação investiga sua aplicação na avaliação de imagens coloridas. Para tanto, inicialmente é feito um estudo do SSIM utilizando quatro diferentes espaços de cores RGB, YCbCr, Lαβ e CIELAB. O SSIM é primeiramente calculado nos canais individuais desses espaços de cores. Em seguida, com inspiração no trabalho desenvolvido em (1) são testadas formas de se combinar os valores SSIM obtidos para cada canal em um valor único os chamados SSIM Compostos. Finalmente, a fim de buscar melhores correlações entre SSIM e avaliação subjetiva, propomos a utilização da mínima diferença de cor perceptível, calculada utilizando o espaço de cores CIELAB, conjuntamente com o SSIM. Para os testes são utilizados três bancos de dados de imagens coloridas, LIVE, IVC e TID, a fim de se conferir consistência aos resultados. A avaliação dos resultados é feita utilizando as métricas empregadas pelo VQEG (Video Quality Experts Group) para a avaliação da qualidade de vídeos, com uma adaptação. As conclusões do trabalho sugerem que os melhores resultados para avaliação da qualidade de imagens coloridas usando o SSIM são obtidas usando os canais de luminância dos espaços de cores YCbCr, Lαβ e especialmente o CIELAB. Também se concluiu que a utilização da mínima diferença de cor perceptível contribui para o melhoramento dos resultados da avaliação objetiva.
Resumo:
Essa dissertação apresenta a implementação de um algoritmo genético paralelo utilizando o modelo de granularidade grossa, também conhecido como modelo das ilhas, para sistemas embutidos multiprocessados. Os sistemas embutidos multiprocessados estão tornando-se cada vez mais complexos, pressionados pela demanda por maior poder computacional requerido pelas aplicações, principalmente de multimídia, Internet e comunicações sem fio, que são executadas nesses sistemas. Algumas das referidas aplicações estão começando a utilizar algoritmos genéticos, que podem ser beneficiados pelas vantagens proporcionadas pelo processamento paralelo disponível em sistemas embutidos multiprocessados. No algoritmo genético paralelo do modelo das ilhas, cada processador do sistema embutido é responsável pela evolução de uma população de forma independente dos demais. A fim de acelerar o processo evolutivo, o operador de migração é executado em intervalos definidos para realizar a migração dos melhores indivíduos entre as ilhas. Diferentes topologias lógicas, tais como anel, vizinhança e broadcast, são analisadas na fase de migração de indivíduos. Resultados experimentais são gerados para a otimização de três funções encontradas na literatura.