861 resultados para engenharia de tecidos
Resumo:
Desde os primórdios da humanidade, a descoberta do método de processamento cerebral do som, e consequentemente da música, fazem parte do imaginário humano. Portanto, as pesquisas relacionadas a este processo constituem um dos mais vastos campos de estudos das áreas de ciências. Dentre as inúmeras tentativas para compreensão do processamento biológico do som, o ser humano inventou o processo automático de composição musical, com o intuito de aferir a possibilidade da realização de composições musicais de qualidade sem a imposição sentimental, ou seja, apenas com a utilização das definições e estruturas de música existentes. Este procedimento automático de composição musical, também denominado música aleatória ou música do acaso, tem sido vastamente explorado ao longo dos séculos, já tendo sido utilizado por alguns dos grandes nomes do cenário musical, como por exemplo, Mozart. Os avanços nas áreas de engenharia e computação permitiram a evolução dos métodos utilizados para composição de música aleatória, tornando a aplicação de autômatos celulares uma alternativa viável para determinação da sequência de execução de notas musicais e outros itens utilizados durante a composição deste tipo de música. Esta dissertação propõe uma arquitetura para geração de música harmonizada a partir de intervalos melódicos determinados por autômatos celulares, implementada em hardware reconfigurável do tipo FPGA. A arquitetura proposta possui quatro tipos de autômatos celulares, desenvolvidos através dos modelos de vizinhança unidimensional de Wolfram, vizinhança bidimensional de Neumann, vizinhança bidimensional Moore e vizinhança tridimensional de Neumann, que podem ser combinados de 16 formas diferentes para geração de melodias. Os resultados do processamento realizado pela arquitetura proposta são melodias no formato .mid, compostas através da utilização de dois autômatos celulares, um para escolha das notas e outro para escolha dos instrumentos a serem emulados, de acordo com o protocolo MIDI. Para tal esta arquitetura é formada por três unidades principais, a unidade divisor de frequência, que é responsável pelo sincronismo das tarefas executadas pela arquitetura, a unidade de conjunto de autômatos celulares, que é responsável pelo controle e habilitação dos autômatos celulares, e a unidade máquina MIDI, que é responsável por organizar os resultados de cada iteração corrente dos autômatos celulares e convertê-los conforme a estrutura do protocolo MIDI, gerando-se assim o produto musical. A arquitetura proposta é parametrizável, de modo que a configuração dos dados que influenciam no produto musical gerado, como por exemplo, a definição dos conjuntos de regras para os autômatos celulares habilitados, fica a cargo do usuário, não havendo então limites para as combinações possíveis a serem realizadas na arquitetura. Para validação da funcionalidade e aplicabilidade da arquitetura proposta, alguns dos resultados obtidos foram apresentados e detalhados através do uso de técnicas de obtenção de informação musical.
Resumo:
O crescimento dos serviços de banda-larga em redes de comunicações móveis tem provocado uma demanda por dados cada vez mais rápidos e de qualidade. A tecnologia de redes móveis chamada LTE (Long Term Evolution) ou quarta geração (4G) surgiu com o objetivo de atender esta demanda por acesso sem fio a serviços, como acesso à Internet, jogos online, VoIP e vídeo conferência. O LTE faz parte das especificações do 3GPP releases 8 e 9, operando numa rede totalmente IP, provendo taxas de transmissão superiores a 100 Mbps (DL), 50 Mbps (UL), baixa latência (10 ms) e compatibilidade com as versões anteriores de redes móveis, 2G (GSM/EDGE) e 3G (UMTS/HSPA). O protocolo TCP desenvolvido para operar em redes cabeadas, apresenta baixo desempenho sobre canais sem fio, como redes móveis celulares, devido principalmente às características de desvanecimento seletivo, sombreamento e às altas taxas de erros provenientes da interface aérea. Como todas as perdas são interpretadas como causadas por congestionamento, o desempenho do protocolo é ruim. O objetivo desta dissertação é avaliar o desempenho de vários tipos de protocolo TCP através de simulações, sob a influência de interferência nos canais entre o terminal móvel (UE User Equipment) e um servidor remoto. Para isto utilizou-se o software NS3 (Network Simulator versão 3) e os protocolos TCP Westwood Plus, New Reno, Reno e Tahoe. Os resultados obtidos nos testes mostram que o protocolo TCP Westwood Plus possui um desempenho melhor que os outros. Os protocolos TCP New Reno e Reno tiveram desempenho muito semelhante devido ao modelo de interferência utilizada ter uma distribuição uniforme e, com isso, a possibilidade de perdas de bits consecutivos é baixa em uma mesma janela de transmissão. O TCP Tahoe, como era de se esperar, apresentou o pior desempenho dentre todos, pois o mesmo não possui o mecanismo de fast recovery e sua janela de congestionamento volta sempre para um segmento após o timeout. Observou-se ainda que o atraso tem grande importância no desempenho dos protocolos TCP, mas até do que a largura de banda dos links de acesso e de backbone, uma vez que, no cenário testado, o gargalo estava presente na interface aérea. As simulações com erros na interface aérea, introduzido com o script de fading (desvanecimento) do NS3, mostraram que o modo RLC AM (com reconhecimento) tem um desempenho melhor para aplicações de transferência de arquivos em ambientes ruidosos do que o modo RLC UM sem reconhecimento.
Resumo:
Esta dissertação apresenta um sistema de indução de classificadores fuzzy. Ao invés de utilizar a abordagem tradicional de sistemas fuzzy baseados em regras, foi utilizado o modelo de Árvore de Padrões Fuzzy(APF), que é um modelo hierárquico, com uma estrutura baseada em árvores que possuem como nós internos operadores lógicos fuzzy e as folhas são compostas pela associação de termos fuzzy com os atributos de entrada. O classificador foi obtido sintetizando uma árvore para cada classe, esta árvore será uma descrição lógica da classe o que permite analisar e interpretar como é feita a classificação. O método de aprendizado originalmente concebido para a APF foi substituído pela Programação Genética Cartesiana com o intuito de explorar melhor o espaço de busca. O classificador APF foi comparado com as Máquinas de Vetores de Suporte, K-Vizinhos mais próximos, florestas aleatórias e outros métodos Fuzzy-Genéticos em diversas bases de dados do UCI Machine Learning Repository e observou-se que o classificador APF apresenta resultados competitivos. Ele também foi comparado com o método de aprendizado original e obteve resultados comparáveis com árvores mais compactas e com um menor número de avaliações.
Resumo:
A obesidade atinge proporções epidêmicas em países industrializados e está relacionada a uma série de doenças metabólicas e circulatórias. Nesse contexto, a atividade física, tratamento não farmacológico da obesidade, acessível a diversas populações e está relacionada com a redução do risco cardiovasvascular mesmo. O objetivo deste trabalho foi avaliar, após mudança ou não da dieta, associação ou não a um programa de treinamento aeróbico (PTA) durante 8 semanas, a possível reversibilidade dos danos causados por uma dieta hiperlipídica por 12 semanas. Para tal, 120 hamsters machos da espécie Mesocricetus auratus, com massa corporal de 60 g, foram distribuídos em quatro grupos, cada um subdividido em três subgrupos, com dez animais para diferentes análises. Os grupos Obeso Controle (OBC) e Obeso Exercitado (OBEX) receberam a ração hiperlipídica por 20 semanas, com adição do PTA ao grupo OBEX nas últimas 8 semanas. Os Obeso Ração Padrão (OBRP) e Obeso Ração Padrão/Exercício (OBRP/EX) tiveram a ração modificada para comercial padrão e adição do PTA ao grupo OBRP/EX após as 12 semanas iniciais. Para as análises microcirculatórias, a bolsa da bochecha foi usada para determinação do número máximo de extravasamentos induzidos por 30 min de isquemia seguida de reperfusão e da reatividade microvascular após a aplicação tópica de acetilcolina e nitroprussiato de sódio. No sangue coletado foi avaliado o perfil lipídico, glicemias quinzenais e leptina. As expressões de eNOS e iNOS foram determinadas na aorta por imunoblotting e a composição corporal avaliada nos tecidos adiposos visceral, urogenital e retroperitoneal, retirados no dia do experimento. Os resultados foram analisados com os métodos o teste estatístico de análise de variância (One Way ANOVA - Teste de Kruskal-Wallis), seguido pelo pós-teste de Dunn. Resultados mostram que a modificação dietética, associada ou não ao PTA, reduziu significativamente a massa corporal (p<0,0001), comprimento naso-anal (p=0,0011) e tecido adiposo (visceral [p<0,0001], urogenital [p=0.0004] e retroperitoneal [p= 0,0083]). Nas análises sanguíneas não foram encontradas diferenças com relação ao perfil lipídico e glicemia, já na leptina houve uma redução significativa (p=0,0039). A análise da reatividade microvascular mostrou melhora significativa na vasodilatação endotélio-dependente nos grupos submetidos à modificação dietética associada ou não ao PTA. Nas medidas de permeabilidade a macromoléculas houve redução significativa no número de extravasamentos nos grupos submetidos à modificação dietética associada ou não ao PTA, (5 min [p= 0,0207] e 10 min [p= 0,0057]). Houve um aumento na expressão de eNOS nos grupos submetidos à modificação dietética associada ou não ao PTA, em comparação ao grupo OBC (p=0,0352). Os resultados mostraram que a modificação dietética, associada ao protocolo de treinamento aeróbico melhora a vasodilatação endotélio-dependente, aumenta a expressão da óxido nítrico sintase endotelial e reduz o número de extravasamentos induzidos por isquemia e reperfusão, mesmo sem melhoras nos marcadores bioquímicos tradicionais como glicemia e perfil lipídico.
Resumo:
O clareamento dentário tem se tornado um dos procedimentos mais comuns na odontologia, mas esse dado causa preocupações, pois essa técnica apresenta efeitos adversos, como: sensibilidade dentária, alterações das propriedades mecânicas dos tecidos dentários, aumento da rugosidade do esmalte e alteração do conteúdo de cálcio e fósforo do dente, porém todos esses fatores ainda não são totalmente fundamentados da literatura odontológica, principalmente a relação da técnica com a desmineralização dentária. O objetivo do presente estudo foi avaliar o potencial de desmineralização de alguns géis clareadores de uso clínico para dentes vitais, após cinco aplicações em esmalte dental humano, usando a técnica de Fluorescência de Raios X. Foram obtidos 20 dentes anteriores humanos, tendo as suas raízes seccionadas e incluídos em resina epóxi, com auxílio de uma matriz especial. Para análise, os dentes foram divididos em quatro grupos (5 dentes por grupo). Grupo 1: clareamento pelo HP Maxx, peróxido de hidrogênio 35% manipulado e dosado manualmente; grupo 2: clareamento com HP Blue, peróxido de hidrogênio 35% com cálcio, pré-dosado e manipulado com seringa de automistura; grupo 3: clareamento com Ultraboost, peróxido de hidrogênio 38%, pré-dosado e manipulado com seringa de automistura e grupo 4: clareamento com Total Blanc 35, peróxido de hidrogênio 35%, pré-dosado e manipulado com seringa de automistura. Cada dente foi avaliado em 6 sítios antes do clareamento e ao final de cada sessão. Entre as sessões os elementos eram mantidos em água ultrapura. Os géis clareadores também tiveram seu pH analisado a cada 5 minutos durante 60 minutos. Estatisticamente, nenhum dos agentes clareadores alterou significantemente o conteúdo mineral do esmalte dental humano e também não houve diferenças estatísticas entre os grupos. Concluiu-se que, mesmo com as limitações do estudo, os clareadores testados não são capazes de desmineralizar o esmalte dental humano e não diferem estatisticamente entre si.
Resumo:
No Brasil, entre as áreas protegidas e regulamentadas por lei estão às denominadas Unidades de Conservação (UC) e são definidas assim por possuírem características ambientais, estéticas, históricas ou culturais relevantes, importantes na manutenção dos ciclos naturais, demandando regimes especiais de preservação, conservação ou exploração racional dos seus recursos. O Parque Estadual da Serra da Tiririca (PESET), criado pela Lei 1.901, de 29 de novembro de 1991 localizado entre os municípios de Niterói e Maricá no Estado do Rio de Janeiro, enquadra-se na categoria de UC de Proteção Integral abrigando uma extensa faixa de Mata Atlântica em seus limites. Para a presente pesquisa foi feita uma classificação de Uso da terra e cobertura vegetal, refinada por pesquisas feitas através do trabalho de campo, que subsidiou a elaboração da proposta de Zoneamento Ambiental para o parque. O processamento digital da imagem foi feito utilizando-se o sistema SPRING desenvolvido pelo Instituto de Pesquisas Espaciais (INPE). A confecção dos mapas temáticos foi feita com apoio do sistema Arcgis desenvolvido pela ESRI. O Sistema de Informação Geográfica (SIG) foi empregado para as modelagens ambientais. Nessa etapa foram consideradas, de forma integrada, a variabilidade taxonômica, a expressão territorial e as alterações temporais verificáveis em uma base de dados georreferenciada. A tecnologia SIG integra operações convencionais de bases de dados, relativas ao armazenamento, manipulação, análise, consulta e apresentação de dados, com possibilidades de seleção e busca de informações e suporte à análise geoestatística, conjuntamente com a possibilidade de visualização de mapas sofisticados e de análise espacial proporcionada pelos mapas. A opção por esta tecnologia busca potencializar a eficiência operacional e permitir planejamento estratégico e administração de problemas, tanto minimizando os custos operacionais como acelerando processos decisórios. O estudo feito através da modelagem computacional do PESET apresentará o emprego das técnicas amplamente utilizadas no monitoramento ambiental, sendo úteis aos profissionais destinados à gestão e aos tomadores de decisão no âmbito das políticas públicas relacionadas à gestão ambiental de Unidades de Conservação.
Resumo:
Um código computacional para escoamentos bifásicos incorporando metodologia híbrida entre oMétodo dos Elementos Finitos e a descrição Lagrangeana-Euleriana Arbitrária do movimento é usado para simular a dinâmica de um jato transversal de gotas na zona primária de quebra. Os corpos dispersos são descritos por meio de um método do tipo front-tracking que produz interfaces de espessura zero através de malhas formadas pela união de elementos adjacentes em ambas as fases e de técnicas de refinamento adaptativo. Condições de contorno periódicas são implementadas de modo variacionalmente consistente para todos os campos envolvidos nas simulações apresentadas e uma versão modificada do campo de pressão é adicionada à formulação do tipo um-fluido usada na equação da quantidade de movimento linear. Simulações numéricas diretas em três dimensões são executadas para diferentes configurações de líquidos imiscí veis compatíveis com resultados experimentais encontrados na literatura. Análises da hidrodinâmica do jato transversal de gotas nessas configurações considerando trajetórias, variação de formato de gota, espectro de pequenas perturbações, além de aspectos complementares relativos à qualidade de malha são apresentados e discutidos.
Uma nova descrição para a transferência de massa em meios porosos com transição saturado-insaturado.
Resumo:
Esse texto trata do problema de um fluido contaminado escoando por um meio poroso, tratando os componentes na mistura como meios contínuos. Na primeira parte, desenvolvemos a teoria de misturas de meios contínuos e discutimos equações da continuidade, momento linear e momento angular. A seguir, descrevemos o problema em detalhe e fazemos hipóteses para simplificar o escoamento. Aplicamos as equações encontradas anteriormente para encontrarmos um sistema de equações diferenciais parciais. Desse ponto em diante, o problema se torna quase puramente matemático. Discutimos o caso insaturado, e depois a saturação do meio poroso. Finalmente, adicionamos um contaminante à mistura e, em seguida, N contaminantes.
Resumo:
A indústria moveleira em geral e de piso de madeira é caracterizada por processos a seco. Em decorrência da limpeza e lavagem de maquinário e superfícies gera águas residuárias em baixos volumes porém altamente contaminadas com substâncias recalcitrantes de difícil tratamento. Com o objetivo de oferecer uma alternativa tecnológica de fácil operação (com uso mínimo de reagentes químicos), capaz de tratar tais águas, reduzir toxicidade e aumentar biodegradabilidade do efluente, viabilizando desta forma uma etapa subsequente de tratamento biológico, o presente trabalho conduziu ensaios de tratabilidade baseados em processos oxidativos avançados com águas residuárias provenientes de lavagens em uma indústria de piso de madeira em Nybro, Suécia, com DQO inicial de aproximadamente 45.000 mg/L e pH de 2,3-2,6. Após tratamento primário in situ com redução de 89% de DQO, os seguintes processos geradores de radicais OH foram testados em escala de laboratório: ozonização sem ajuste de pH (Etapa I); ozonização com ajuste de pH (Etapa II); e ozonização + UV-C com ajuste de pH (Etapa III). Os experimentos foram realizados em semi-batelada, utilizando-se um aparato com dois reatores conectados (de O3 e de UV), entre os quais foi mantido fluxo de recirculação em contracorrente com o gás. Para o desenho experimental, utilizou-se a metodologia de planejamento fatorial do tipo Delineamento Composto Central Rotacional (DCCR) utilizando-se como variáveis independentes, (i) vazão de recirculação entre os reatores (VR) com níveis variando de 0,3 a 3L/min; (ii) concentração de O3 na mistura gasosa injetada ([O3]) ou modo de dosagem cujos níveis variaram de 40 a 115 g/Nm3 e; (iii) pH inicial (Etapas II e III) com níveis que variaram de 3 a 11. A quantidade total de O3 fornecida até o final de cada ensaio foi fixada em 2 gramas de O3 para cada grama de DQO inicial (2:1). A eficiência de cada tratamento foi avaliada em função da redução de DQO, da remoção de COT e do consumo de O3. Para ozonização sem ajuste de pH foram alcançadas reduções de DQO e COT de 65 e 31% respectivamente. No tratamento com ajuste de pH sem UV, foram alcançadas reduções de DQO e COT de 85% e 43% com pHinicial = 7,0 enquanto que no tratamento com UV foi alcançada redução de DQO e COT de 93% e 56% respectivamente, com pHi = 9,38. Os resultados de respirometria com os efluentes dos tratamentos indicaram que a ozonização destas águas em pH baixo pode resultar na geração de subprodutos menos biodegradáveis. Entretanto, tais produtos não são gerados quando a ozonização é realizada em pH mais elevado (7,0), mesmo sem aplicação de UV, com doses de O3:DQOinicial menores que 1:1. O tratamento por ozonização pode, portanto, ser aplicado como uma etapa intermediária de tratamento das águas residuárias em questão, inclusive precedendo o tratamento biológico.
Resumo:
Devido à falta de água em algumas regiões, o tema aproveitamento de águas pluviais vem se desenvolvendo ultimamente. Fica evidente a importância de sensibilizar as pessoas para que ajam de modo responsável e com consciência. A escola é um espaço de sensibilidade e conscientização que pode educar os alunos junto ao meio escolar e à comunidade local sobre o meio ambiente. O objetivo do presente trabalho foi o de realizar no Instituto de Aplicação Fernando Rodrigues da Silveira (CAp-UERJ) uma pesquisa de percepção ambiental com os alunos do 2 e 5 ano dos anos iniciais do Ensino Fundamental, a partir da conscientização pautada na educação ambiental após instalado o sistema de captação de águas pluviais, desenvolvida no projeto de Manejo de Águas Pluviais - MAPLU aprovado pelo FINEP, cujo objetivo é o desenvolvimento de soluções urbanísticas e ambientalmente adequadas de manejo de águas pluviais. Foram realizadas as oficinas com cada grupo focal e aplicados questionários para avaliar os resultados gerados. As oficinas demonstraram um avanço no conhecimento, pois a partir de uma abordagem participativa, os alunos puderam expressar os seus interesses e conhecimentos. Para quantificar o consumo de água no Instituto, foram levantadas informações relativas aos usuários, medições de vazões e faturas de consumos de água disponibilizados pela Companhia Estadual de Águas e Esgoto - CEDAE. Por meio de entrevistas com amostras de população, verificou-se a frequência e o tempo médio de utilização dos aparelhos, bem como as principais atividades que consomem água. Estimou-se o consumo médio diário de água no CAp-UERJ em 13 L/dia por aluno.
Resumo:
O cenário mundial de matriz energética apresenta dados crescentes de contribuição das energias renováveis. No Brasil, o governo tem realizado esforços para aumento da parcela de combustíveis renováveis, e com isso isso também para o aumento da produção de biodiesel. O principal processo de fabricação de biodiesel com seu polimento em via seca gera quantidades significativas de resíduos, dentre eles, o resíduo de terra diatomácea, com potenciais características de inflamabilidade. Em contrapartida existe a Política Nacional de Resíduos Sólidos com objetivos de não geração, redução, reutilização, reciclagem e redução de periculosidade dos resíduos, e envio para aterro somente de resíduos sem qualquer possibilidade viável de tratamento. O presente trabalho objetiva realizar um estudo de viabilidade técnica, econômica e ambiental preliminar da aplicação da tecnologia de Tratamento Térmico de Resíduos e Materiais Multifásicos - TTRM a resíduo de terra diatomácea - RTD de usina genérica de biodiesel. Foram utilizados como base para o estudo: os resultados dos testes da PETROBRAS e da ALBRECHT realizados em escala de bancada de laboratório e em planta piloto que simularam a aplicação do TTRM ao RTD; premissas técnicas; premissas operacionais; e dados econômicos de referência. Foram estabelecidos cenários específicos para o estudo da aplicabilidade e realizada análise de sensibilidade para os principais fatores da composição dos custos. Observou-se para este estudo preliminar que: na dimensão técnica o TTRM demonstrou ser aplicável; na dimensão econômica, os indicadores são positivos em sua totalidade no cenário esperado, mesmo após análise de sensibilidade com variações de 25% dos principais parâmetros de entrada do estudo de viabilidade; na dimensão ambiental o TTRM demonstrou ser uma alternativa que incorpora os conceitos para uma gestão alinhada com a Política Nacional de Resíduos Sólidos, seja na redução da periculosidade do resíduo, na potencial minimização da geração dos resíduos ou no reuso e reaproveitamento resíduos.
Resumo:
No Brasil, o tratamento do lixiviado, proveniente da disposição dos resíduos sólidos urbanos, ainda é um desafio, haja visto que atualmente não há indícios de tratamento economicamente viável que atenda aos padrões de lançamento da legislação brasileira. Além disso, os diversos tipos de efluentes, mesmo quando adequadamente tratados, apresentam níveis residuais de substâncias que podem conferir toxicidade aos mesmos. Devido a isso, tem-se uma preocupação com essas substâncias remanescentes e, sobretudo, com o seu possível potencial tóxico. Diante desse quadro, a incorporação da avaliação da toxicidade no tratamento dos efluentes é de grande importância na proteção dos ambientes aquáticos. É crescente o interesse pela toxicidade como um parâmetro de controle, que, contudo, é ainda pouco regulamentada. Este estudo tem como principal objetivo ampliar o conhecimento sobre o tratamento de lixiviados através da avaliação da toxicidade por meio de ensaios ecotoxicológicos. Foi avaliada a toxicidade aguda do lixiviado do Aterro Metropolitano de Jardim Gramacho, em Duque de Caxias RJ após os processos de tratamento por wetland e nanofiltração utilizando-se dois organismosteste de diferentes níveis tróficos (Aliivibrio fischeri e Daphnia similis). Os ensaios de toxicidade aguda com a bactéria Aliivibrio fischeri apresentaram valores de CE50 (%) na faixa de 11,75 a 96,17 para o afluente do wetland e valores de CE50 (%) na faixa de 21,60 a 86,32 para o efluente do wetland. Tanto para o afluente, quanto para o efluente do wetland, foram obtidos valores de FT ≤ 8. Para o efluente da nanofiltração, dos 6 ensaios de toxicidade aguda com a bactéria Aliivibrio fischeri, com exceção de 1 amostra, não foi observada toxicidade. Para os ensaios de toxicidade com a Daphnia similis foram obtidos valores de CE50 (%) na faixa de 24,15 a 70,71 para o afluente do wetland e valores na faixa de 19,61 a 70,71 para o efluente do wetland.
Resumo:
Este trabalho apresenta a proposta de um middleware, chamado DistributedCL, que torna transparente o processamento paralelo em GPUs distribuídas. Com o suporte do middleware DistributedCL uma aplicação, preparada para utilizar a API OpenCL, pode executar de forma distribuída, utilizando GPUs remotas, de forma transparente e sem necessidade de alteração ou nova compilação do seu código. A arquitetura proposta para o middleware DistributedCL é modular, com camadas bem definidas e um protótipo foi construído de acordo com a arquitetura, onde foram empregados vários pontos de otimização, incluindo o envio de dados em lotes, comunicação assíncrona via rede e chamada assíncrona da API OpenCL. O protótipo do middleware DistributedCL foi avaliado com o uso de benchmarks disponíveis e também foi desenvolvido o benchmark CLBench, para avaliação de acordo com a quantidade dos dados. O desempenho do protótipo se mostrou bom, superior às propostas semelhantes, tendo alguns resultados próximos do ideal, sendo o tamanho dos dados para transmissão através da rede o maior fator limitante.
Resumo:
Esta Dissertação irá apresentar a utilização de técnicas de controle nãolinear, tais como o controle adaptativo e robusto, de modo a controlar um sistema de Eletroestimulação Funcional desenvolvido pelo laboratório de Engenharia Biomédica da COPPE/UFRJ. Basicamente um Eletroestimulador Funcional (Functional Electrical Stimulation FES) se baseia na estimulação dos nervos motores via eletrodos cutâneos de modo a movimentar (contrair ou distender) os músculos, visando o fortalecimento muscular, a ativação de vias nervosas (reinervação), manutenção da amplitude de movimento, controle de espasticidade muscular, retardo de atrofias e manutenção de tonicidade muscular. O sistema utilizado tem por objetivo movimentar os membros superiores através do estímulo elétrico de modo a atingir ângulos-alvo pré-determinados para a articulação do cotovelo. Devido ao fato de não termos conhecimento pleno do funcionamento neuro-motor humano e do mesmo ser variante no tempo, não-linear, com parâmetros incertos, sujeito a perturbações e completamente diferente para cada indivíduo, se faz necessário o uso de técnicas de controle avançadas na tentativa de se estabilizar e controlar esse tipo de sistema. O objetivo principal é verificar experimentalmente a eficácia dessas técnicas de controle não-linear e adaptativo em comparação às técnicas clássicas, de modo a alcançar um controle mais rápido, robusto e que tenha um desempenho satisfatório. Em face disso, espera-se ampliar o campo de utilização de técnicas de controle adaptativo e robusto, além de outras técnicas de sistemas inteligentes, tais como os algoritmos genéticos, provando que sua aplicação pode ser efetiva no campo de sistemas biológicos e biomédicos, auxiliando assim na melhoria do tratamento de pacientes envolvidos nas pesquisas desenvolvidas no Laboratório de Engenharia Biomédica da COPPE/UFRJ.
Resumo:
O objetivo deste trabalho é contribuir com o desenvolvimento de uma técnica baseada em sistemas inteligentes que possibilite a localização exata ou aproximada do ponto de origem de uma Variação de Tensão de Curta Duração (VTCD) (gerada por uma falta) em um sistema de distribuição de energia elétrica. Este trabalho utiliza um Phase-Locked Loop (PLL) com o intuito de detectar as faltas. Uma vez que a falta é detectada, os sinais de tensão obtidos durante a falta são decompostos em componentes simétricas instantâneas por meio do método proposto. Em seguida, as energias das componentes simétricas são calculadas e utilizadas para estimar a localização da falta. Nesta pesquisa, são avaliadas duas estruturas baseadas em Redes Neurais Artificiais (RNAs). A primeira é projetada para classificar a localização da falta em um dos pontos possíveis e a segunda é projetada para estimar a distância da falta ao alimentador. A técnica aqui proposta aplica-se a alimentadores trifásicos com cargas equilibradas. No desenvolvimento da mesma, considera-se que há disponibilidade de medições de tensões no nó inicial do alimentador e também em pontos esparsos ao longo da rede de distribuição. O banco de dados empregado foi obtido através de simulações de um modelo de alimentador radial usando o programa PSCAD/EMTDC. Testes de sensibilidade empregando validação-cruzada são realizados em ambas as arquiteturas de redes neurais com o intuito de verificar a confiabilidade dos resultados obtidos. Adicionalmente foram realizados testes com faltas não inicialmente contidas no banco de dados a fim de se verificar a capacidade de generalização das redes. Os desempenhos de ambas as arquiteturas de redes neurais foram satisfatórios e demonstram a viabilidade das técnicas propostas para realizar a localização de faltas em redes de distribuição.