874 resultados para Cinematografia - Aplicações cientificas


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Copolímeros à base de estireno e anidrido maleico (SMA) são materiais sintéticos comercialmente disponíveis, obtidos pela reação dos dois monômeros citados em diferentes proporções, resultando em materiais versáteis, e disponíveis em diferentes graus de massas e porcentagens molares de anidrido maleico. São considerados polímeros funcionais devido à reatividade do grupamento anidrido maleico presente na cadeia polimérica. Por este motivo, esses materiais possuem vasta gama de aplicações, e elevada importância em diversas áreas, principalmente por terem baixa toxicidade, boa resistência térmica e boa estabilidade dimensional. Dessa forma, para melhor aplicação desses copolímeros, é muito importante o conhecimento dos parâmetros relativos ao seu comportamento em solução. A viscosimetria, em especial, é um método simples, útil e apropriado para fornecer essas informações. Os parâmetros viscosimétricos podem ser matematicamente calculados por extrapolação gráfica, entretanto a geração dos dados experimentais é mais demorada. Em contrapartida, é possível que a determinação experimental seja feita de forma mais rápida, por um único ponto, procedimento esse que desperta tanto o interesse acadêmico quanto o industrial. Neste trabalho, foram empregados os dois métodos de cálculo, utilizando solventes puros, misturas de solventes e três amostras de copolímeros à base de SMA. As determinações foram conduzidas a 40C. Os copolímeros utilizados possuiam teores de anidrido maleico de 50%, 45% e 40%, sendo os dois últimos esterificados com butil-metil-éster e sec-butil-metil-éster, respectivamente. Os solventes utilizados foram: N-metil-pirrolidona (NMP), tetrahidrofurano (THF) e suas respectivas misturas 1:1 com metil-etil-cetona (MEK), ou seja, (NMP:MEK) e THF:MEK, sendo a MEK um não solvente para o copolímero não esterificado. As equações utilizadas para extrapolação gráfica foram as de Huggins, Kraemer e Schulz-Blaschke. As equações empregadas em um único ponto foram as de Solomon-Ciuta, Deb-Chanterjee e novamente Schulz-Blaschke. Os resultados obtidos foram comparados e avaliou-se a possibilidade da utilização do método mais rápido, por um único ponto, para os sistemas estudados através dos desvios percentuais tendo como padrão os resultados da equação de Huggins. A equação de Deb-Chanterjee foi a mais adequada aos sistemas em NMP, que foi também o melhor solvente para as amostras. Os resultados obtidos na mistura NMP:MEK sugeriram que a viscosimetria pode ter sido um método sensível às pequenas diferenças estruturais entre os grupos pendentes nas amostras esterificadas. Paralelamente, realizou-se análises de espectroscopia na região do infravermelho (FTIR), análise termogravimétrica (TGA) e ensaios dinâmico-mecânicos (DMA) para a caracterização estrutural e térmica das amostras. Somente os resultados obtidos a partir de DMA indicaram diferenças entre as amostras esterificadas

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os métodos tradicionais de estimular a produção de petróleo, envolvendo a injeção de água, vapor, gás ou outros produtos, estabeleceram a base conceitual para novos métodos de extração de óleo, utilizando micro-organismos e processos biológicos. As tecnologias que empregam os processos de bioestimulação e bioaumentação já são amplamente utilizadas em inúmeras aplicações industriais, farmacêuticas e agroindustriais, e mais recentemente, na indústria do petróleo. Dada a enorme dimensão econômica da indústria do petróleo, qualquer tecnologia que possa aumentar a produção ou o fator de recuperação de um campo petrolífero gera a expectativa de grandes benefícios técnicos, econômicos e estratégicos. Buscando avaliar o possível impacto de MEOR (microbial enhanced oil recovery) no fator de recuperação das reservas de óleo e gás no Brasil, e quais técnicas poderiam ser mais indicadas, foi feito um amplo estudo dessas técnicas e de diversos aspectos da geologia no Brasil. Também foram realizados estudos preliminares de uma técnica de MEOR (bioacidificação) com possível aplicabilidade em reservatórios brasileiros. Os resultados demonstram que as técnicas de MEOR podem ser eficazes na produção, solubilização, emulsificação ou transformação de diversos compostos, e que podem promover outros efeitos físicos no óleo ou na matriz da rocha reservatório. Também foram identificadas bacias petrolíferas brasileiras e recursos não convencionais com maior potencial para utilização de determinadas técnicas de MEOR. Finalmente, foram identificadas algumas técnicas de MEOR que merecem maiores estudos, entre as técnicas mais consolidadas (como a produção de biossurfatantes e biopolímeros, e o controle da biocorrosão), e as que ainda não foram completamente viabilizadas (como a gaseificação de carvão, óleo e matéria orgânica; a dissociação microbiana de hidratos de gás; a bioconversão de CO2 em metano; e a bioacidificação). Apesar de seu potencial ainda não ser amplamente reconhecido, as técnicas de MEOR representam o limiar de uma nova era na estimulação da produção de recursos petrolíferos existentes, e até mesmo para os planos de desenvolvimento de novas áreas petrolíferas e recursos energéticos. Este trabalho fornece o embasamento técnico para sugerir novas iniciativas, reconhecer o potencial estratégico de MEOR, e para ajudar a realizar seu pleno potencial e seus benefícios.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os polimorfismos denominados Indels são variações de comprimento geradas por inserção ou deleção de um ou mais nucleotídeos em uma sequência de DNA. Estes marcadores genéticos vêm apresentando um grande potencial para fins forenses e populacionais por combinar características dos marcadores SNPs, tais como a capacidade de analisar fragmentos curtos (menores que 250pb) e baixas taxas de mutação, com a facilidade da genotipagem dos STR em uma única PCR, seguida de detecção dos fragmentos amplificados por eletroforese. Com o objetivo de avaliar a eficiência dos Indels em aplicações forenses e esclarecer os detalhes da formação de diferentes populações brasileiras através de dados genéticos, amostras populacionais de diferentes estados brasileiros foram genotipadas através de dois sistemas multiplex. O primeiro (indelplex-HID) foi otimizado para fins de Identificação Humana (HID) e inclui um grupo de 38 marcadores Indels selecionados por apresentarem altos valores de diversidade genética dentro das principais populações continentais. Já o segundo (46-AI-indels), foi selecionado para estudos de ancestralidade e é composto por um conjunto de 46 marcadores informativos de ancestralidade (AIMs). Nesse último caso, ao contrário do anterior, o sistema multiplex inclui marcadores com alta divergência nas frequências alélicas entre populações continentais. Na primeira etapa, o multiplex HID foi aplicado em uma amostra populacional do Rio de Janeiro e em uma amostra populacional dos índios Terena. Um banco de dados de frequências alélicas foi construído para essas duas amostras populacionais. Os valores das frequências alélicas foram utilizados nas comparações estatísticas e parâmetros de vínculos genéticos e forenses foram calculados. O Poder de Discriminação acumulado na população do Rio de Janeiro para os 38 loci testados foi de 0,9999999999999990 e na população dos índios Terena de 0,9999999999997, validando o uso desse sistema numa população heterogênea como a brasileira. A eficiência do indelplex-HID também mostrou-se elevada nas amostras de casos forenses comprometidas, apresentando melhor resultados que marcadores STR em termos de número de loci genotipados e de qualidade de amplificação. Na segunda etapa, o multiplex 46-AI-indels foi aplicado com objetivo de avaliar a ancestralidade em amostras de diferentes estados do Brasil por permitir a identificação de diferenças entre frequências alélicas de grupos populacionais separados geograficamente. A maioria das populações analisadas apresentou elevada herança européia. As populações do Rio de Janeiro, Pernambuco, Mato Grosso do Sul, Amazonas, Alagoas, Minas Gerais e São Paulo apresentaram cerca de 50% de ancestralidade européia, enquanto que nas populações que formam o sul do país e o Espírito Santo este percentual girou em torno de 70%. De uma maneira geral, as contribuições ameríndias e africanas variaram um pouco de acordo com a região. As amostras de Santa Isabel do Rio Negro e dos índios Terena (amostras indicadas como ameríndio-descendentes) de fato mostraram majoritariamente ancestralidade ameríndia (>70%). Os resultados obtidos indicaram que os dados gerados a partir da tipagem dos AIMs estão em estreita concordância com os registros históricos e com outros estudos genéticos acerca da formação da população brasileira e os loci do sistema HID evidenciaram que os são altamente informativos, constituindo uma ferramenta importante em estudos de identificação humana e de relações de parentesco.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Processos de produção precisam ser avaliados continuamente para que funcionem de modo mais eficaz e eficiente possível. Um conjunto de ferramentas utilizado para tal finalidade é denominado controle estatístico de processos (CEP). Através de ferramentas do CEP, o monitoramento pode ser realizado periodicamente. A ferramenta mais importante do CEP é o gráfico de controle. Nesta tese, foca-se no monitoramento de uma variável resposta, por meio dos parâmetros ou coeficientes de um modelo de regressão linear simples. Propõe-se gráficos de controle χ2 adaptativos para o monitoramento dos coeficientes do modelo de regressão linear simples. Mais especificamente, são desenvolvidos sete gráficos de controle χ2 adaptativos para o monitoramento de perfis lineares, a saber: gráfico com tamanho de amostra variável; intervalo de amostragem variável; limites de controle e de advertência variáveis; tamanho de amostra e intervalo de amostragem variáveis; tamanho de amostra e limites variáveis; intervalo de amostragem e limites variáveis e por fim, com todos os parâmetros de projeto variáveis. Medidas de desempenho dos gráficos propostos foram obtidas através de propriedades de cadeia de Markov, tanto para a situação zero-state como para a steady-state, verificando-se uma diminuição do tempo médio até um sinal no caso de desvios pequenos a moderados nos coeficientes do modelo de regressão do processo de produção. Os gráficos propostos foram aplicados a um exemplo de um processo de fabricação de semicondutores. Além disso, uma análise de sensibilidade dos mesmos é feita em função de desvios de diferentes magnitudes nos parâmetros do processo, a saber, no intercepto e na inclinação, comparando-se o desempenho entre os gráficos desenvolvidos e também com o gráfico χ2 com parâmetros fixos. Os gráficos propostos nesta tese são adequados para vários tipos de aplicações. Neste trabalho também foi considerado características de qualidade as quais são representadas por um modelo de regressão não-linear. Para o modelo de regressão não-linear considerado, a proposta é utilizar um método que divide o perfil não-linear em partes lineares, mais especificamente, um algoritmo para este fim, proposto na literatura, foi utilizado. Desta forma, foi possível validar a técnica proposta, mostrando que a mesma é robusta no sentido que permite tipos diferentes de perfis não-lineares. Aproxima-se, portanto um perfil não-linear por perfis lineares por partes, o que proporciona o monitoramento de cada perfil linear por gráficos de controle, como os gráficos de controle desenvolvidos nesta tese. Ademais apresenta-se a metodologia de decompor um perfil não-linear em partes lineares de forma detalhada e completa, abrindo espaço para ampla utilização.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Multi-Processor System-on-Chip (MPSoC) possui vários processadores, em um único chip. Várias aplicações podem ser executadas de maneira paralela ou uma aplicação paralelizável pode ser particionada e alocada em cada processador, a fim de acelerar a sua execução. Um problema em MPSoCs é a comunicação entre os processadores, necessária para a execução destas aplicações. Neste trabalho, propomos uma arquitetura de rede de interconexão baseada na topologia crossbar, com memória compartilhada. Esta arquitetura é parametrizável, possuindo N processadores e N módulos de memórias. A troca de informação entre os processadores é feita via memória compartilhada. Neste tipo de implementação cada processador executa a sua aplicação em seu próprio módulo de memória. Através da rede, todos os processadores têm completo acesso a seus módulos de memória simultaneamente, permitindo que cada aplicação seja executada concorrentemente. Além disso, um processador pode acessar outros módulos de memória, sempre que necessite obter dados gerados por outro processador. A arquitetura proposta é modelada em VHDL e seu desempenho é analisado através da execução paralela de uma aplicação, em comparação à sua respectiva execução sequencial. A aplicação escolhida consiste na otimização de funções objetivo através do método de Otimização por Enxame de Partículas (Particle Swarm Optimization - PSO). Neste método, um enxame de partículas é distribuído igualmente entre os processadores da rede e, ao final de cada interação, um processador acessa o módulo de memória de outro processador, a fim de obter a melhor posição encontrada pelo enxame alocado neste. A comunicação entre processadores é baseada em três estratégias: anel, vizinhança e broadcast. Essa aplicação foi escolhida por ser computacionalmente intensiva e, dessa forma, uma forte candidata a paralelização.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Técnicas não-intrusivas de medição de vazão constituem uma necessidade crescente em diversas aplicações. Atualmente, diversos estudos têm sido realizados com o objetivo de desenvolver técnicas de medição não-intrusivas que possam suprir as deficiências das técnicas existentes. Este trabalho visa desenvolver um medidor de vazão baseado no princípio de convecção forçada (termal) não-intrusivo inteligente. O medidor utiliza dois transdutores RTD comerciais do tipo PT100, um aquecido, que é responsável pela medição da velocidade de escoamento, e o outro utilizado como referência de set-point de temperatura do sensor aquecido. Uma Rede Neural é responsável por corrigir os erros de medição do instrumento. Para a avaliação do medidor construído, foi desenvolvida uma bancada de realização de ensaios, possibilitando a variação da vazão e temperatura na seção de teste. Com o intuito de prover a bancada de uma referência para comparação, foi instalado também um medidor do tipo Venturi normalizado segundo a ABNT.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação investiga a aplicação dos algoritmos evolucionários inspirados na computação quântica na síntese de circuitos sequenciais. Os sistemas digitais sequenciais representam uma classe de circuitos que é capaz de executar operações em uma determinada sequência. Nos circuitos sequenciais, os valores dos sinais de saída dependem não só dos valores dos sinais de entrada como também do estado atual do sistema. Os requisitos cada vez mais exigentes quanto à funcionalidade e ao desempenho dos sistemas digitais exigem projetos cada vez mais eficientes. O projeto destes circuitos, quando executado de forma manual, se tornou demorado e, com isso, a importância das ferramentas para a síntese automática de circuitos cresceu rapidamente. Estas ferramentas conhecidas como ECAD (Electronic Computer-Aided Design) são programas de computador normalmente baseados em heurísticas. Recentemente, os algoritmos evolucionários também começaram a ser utilizados como base para as ferramentas ECAD. Estas aplicações são referenciadas na literatura como eletrônica evolucionária. Os algoritmos mais comumente utilizados na eletrônica evolucionária são os algoritmos genéticos e a programação genética. Este trabalho apresenta um estudo da aplicação dos algoritmos evolucionários inspirados na computação quântica como uma ferramenta para a síntese automática de circuitos sequenciais. Esta classe de algoritmos utiliza os princípios da computação quântica para melhorar o desempenho dos algoritmos evolucionários. Tradicionalmente, o projeto dos circuitos sequenciais é dividido em cinco etapas principais: (i) Especificação da máquina de estados; (ii) Redução de estados; (iii) Atribuição de estados; (iv) Síntese da lógica de controle e (v) Implementação da máquina de estados. O Algoritmo Evolucionário Inspirado na Computação Quântica (AEICQ) proposto neste trabalho é utilizado na etapa de atribuição de estados. A escolha de uma atribuição de estados ótima é tratada na literatura como um problema ainda sem solução. A atribuição de estados escolhida para uma determinada máquina de estados tem um impacto direto na complexidade da sua lógica de controle. Os resultados mostram que as atribuições de estados obtidas pelo AEICQ de fato conduzem à implementação de circuitos de menor complexidade quando comparados com os circuitos gerados a partir de atribuições obtidas por outros métodos. O AEICQ e utilizado também na etapa de síntese da lógica de controle das máquinas de estados. Os circuitos evoluídos pelo AEICQ são otimizados segundo a área ocupada e o atraso de propagação. Estes circuitos são compatíveis com os circuitos obtidos por outros métodos e em alguns casos até mesmo superior em termos de área e de desempenho, sugerindo que existe um potencial de aplicação desta classe de algoritmos no projeto de circuitos eletrônicos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho propõe uma arquitetura reutilizável que permite a gerência de uma infraestrutura de suporte para aplicações Web, utilizando máquinas virtuais. O objetivo da arquitetura é garantir qualidade de serviço, atuando nos servidores físicos (hospedeiros) ou manipulando as máquinas virtuais, e avaliando o cumprimento das restrições de operação (tempo de resposta máximo). Além disso, através do uso racional dos recursos utilizados, a proposta visa à economia de energia. O trabalho também inclui uma avaliação de desempenho realizada sobre um sistema implementado com base na arquitetura. Esta avaliação mostra que a proposta é funcional e o quanto ela pode ser vantajosa do ponto de vista do uso de recursos, evitando desperdício, mantendo-se ainda a qualidade de serviço em níveis aceitáveis pela aplicação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Controle de processos é uma das muitas aplicações que aproveitam as vantagens do uso da teoria de conjuntos nebulosos. Nesse tipo de aplicação, o controlador é, geralmente, embutido no dispositivo controlado. Esta dissertação propõe uma arquitetura reconfigurável eficiente para controladores nebulosos embutidos. A arquitetura é parametrizável, de tal forma, que permite a configuração do controlador para que este possa ser usado na implementação de qualquer aplicação ou modelo nebuloso. Os parâmetros de configuração são: o número de variáveis de entrada (N); o número de variáveis de saída (M); o número de termos linguísticos (Q); e o número total de regras (P). A arquitetura proposta proporciona também a configuração das características que definem as regras e as funções de pertinência de cada variável de entrada e saída, permitindo a escalabilidade do projeto. A composição das premissas e consequentes das regras são configuráveis, de acordo com o controlador nebuloso objetivado. A arquitetura suporta funções de pertinência triangulares, mas pode ser estendida para aceitar outras formas, do tipo trapezoidal, sem grandes modificações. As características das funções de pertinência de cada termo linguístico, podem ser ajustadas de acordo com a definição do controlador nebuloso, permitindo o uso de triângulos. Virtualmente, não há limites máximos do número de regras ou de termos linguísticos empregados no modelo, bem como no número de variáveis de entrada e de saída. A macro-arquitetura do controlador proposto é composta por N blocos de fuzzificação, 1 bloco de inferência, M blocos de defuzzificação e N blocos referentes às características das funções de pertinência. Este último opera apenas durante a configuração do controlador. A função dos blocos de fuzzificação das variáveis de entrada é executada em paralelo, assim como, os cálculos realizados pelos blocos de defuzzificação das variáveis de saída. A paralelização das unidades de fuzzificação e defuzzificação permite acelerar o processo de obtenção da resposta final do controlador. Foram realizadas várias simulações para verificar o correto funcionamento do controlador, especificado em VHDL. Em um segundo momento, para avaliar o desempenho da arquitetura, o controlador foi sintetizado em FPGA e testado em seis aplicações para verificar sua reconfigurabilidade e escalabilidade. Os resultados obtidos foram comparados com os do MATLAB em cada aplicação implementada, para comprovar precisão do controlador.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O efeito de instalação de estacas cravadas em areia, que promove um aumento da compacidade do solo e de seus parâmetros de resistência e deformabilidade, é analisado nesta dissertação em conjunto com o efeito de grupo. O procedimento estabelecido objetiva quantificar a melhoria após a instalação de um grupo de estacas e foi desenvolvido nesta pesquisa a partir da contribuição de Alves (1998). Para a utilização deste procedimento, foram propostas correlações do módulo de Young do solo em função da resistência à penetração NSPT (ou da resistência à penetração normalizada N60), a partir de um banco de dados obtido da literatura, visando não apenas as aplicações implementadas neste estudo, como também nortear futuras aplicações práticas. Na análise de casos documentados da literatura, foi utilizado o programa Plaxis 3D Foundation. Inicialmente foi procedida a calibração do programa através da reprodução de um caso de instrumentação de um grupo de estacas na argila rija de Londres, muito bem documentado por Cooke et al. (1980). Os resultados das simulações, com parâmetros do solo obtidos da literatura, se ajustaram muito bem aos resultados experimentais, seja nos valores de recalque, seja nos diagramas de transferência de carga. Posteriormente, a melhoria do solo por efeito da instalação foi estimada, através do procedimento estabelecido nesta dissertação, baseado em Alves (1998), a partir das características iniciais do solo antes da instalação de um grupo de estacas em modelo reduzido em solo arenoso. Obtidos os parâmetros melhorados previstos para o solo após a instalação, estes foram aplicados a um grupo de 9 estacas, para diferentes espaçamentos relativos, como dados de entrada no programa Plaxis. A comparação dos resultados experimentais com aqueles simulados numericamente sinaliza para o potencial tanto do programa Plaxis, na reprodução do comportamento do conjunto, como do modelo de Alves (1998), que norteou o procedimento proposto nesta pesquisa. O fator de escala, ressaltado na dissertação, bem como outros aspectos relevantes observados nas análises realizadas, são propostos como temas futuros a serem investigados na continuidade desta linha de pesquisa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O clareamento dental se tornou um dos tratamentos estéticos mais realizados nos consultórios odontológicos, devido à simplicidade técnica e popularização através da mídia. Consiste na utilização de géis à base de peróxido de carbamida, peróxido de hidrogénio e, em uma menor escala, de perborato de sódio, com intuito de oxidar moléculas responsáveis pela pigmentação da estrutura dentária. Apesar da grande quantidade de estudos sobre o tema, não se sabe os efeitos do uso excessivo desses agentes sobre a estrutura dentária. O objetivo deste estudo foi avaliar os efeitos sobre a rugosidade superficial e conteúdo mineral do esmalte dental humano submetido a regimes de sobreclareamento associados ao uso de géis clareadores caseiros: peróxido de carbamida 10% (Opalescence PF Regular 10%, Ultradent do Brasil Produtos Odontológicos Ltda., Indaiatuba, São Paulo), peróxido de hidrogênio 9,5% (DayWhite 9,5%, Discus, LLC Culver City, EUA), bem como tiras clareadoras (Oral-B WhiteStrips, Anderson Packaging, Rockford, Estados Unidos). Quatro fragmentos de esmalte obtidos a partir de cinco dentes foram submetidos a um diferente tratamento: Grupo I - armazenamento em saliva artificial por oito semanas; Grupo 2 oito semanas de tratamento com gel de peróxido de carbamida 10% por 6 horas diárias; Grupo 3 oito semanas de tratamento com gel de peróxido de hidrogênio 9,5% com duas aplicações diárias de 30 minutos; Grupo 4 oito semanas de tratamento com tiras clareadoras duas aplicações diárias de 30 minutos. A alteração no conteúdo mineral foi avaliada semanalmente em seis pontos de cada fragmento devidamente identificados através de um sistema de coordenadas (X, Y e Z) utilizando-se a técnica de fluorescência de raios X (Artax 200). Alterações na rugosidade superficial das amostras também foram avaliadas através de um rugosímetro 3D (FormTalysurf 60, Taylor Leicester, Reino Unido). Apenas o grupo 3 apresentou diferenças estatísticas significativas com relação aos níveis de rugosidade (p<0,05), porém não consideradas como clinicamente significativos. Para os demais tratamentos e intervalos propostos, não foram encontradas diferenças estatisticamente significativas (p>0,05). Desse modo, não houve alterações compatíveis com um processo de desmineralização ou aumento real da rugosidade da superfície. Nas condições desse estudo in vitro os géis clareadores caseiros foram considerados seguros. São necessários novos estudos in situ e in vitro que analisem os efeitos de regimes de sobreclareamento quando em condições de somatório de desafios intra-orais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho investiga a implementação de sistemas fuzzy com circuitos eletrônicos. Tais sistemas têm demonstrado sua capacidade de resolver diversos tipos de problemas em várias aplicações de engenharia, em especial nas relacionadas com controle de processos. Para processos mais complexos, o raciocínio aproximado da lógica fuzzy fornece uma maneira de compreender o comportamento do sistema, permitindo a interpolação aproximada entre situações observadas de entrada e saída. A implementação de um sistema fuzzy pode ser baseada em hardware, em software ou em ambos. Tipicamente, as implementações em software utilizam ambientes de programação integrados com simulação, de modo a facilitar o trabalho do projetista. As implementações em hardware, tradicionais ou evolutivas, podem ser analógicas ou digitais e viabilizam sistemas de maior desempenho. Este trabalho tem por objetivo pesquisar a implementação eletrônica de sistemas fuzzy, a fim de viabilizar a criação de sistemas reais capazes de realizar o mapeamento de entrada e saída adequado. O foco é a utilização de uma plataforma com uma arquitetura analógico-digital baseada em uma tabela de mapeamento armazenada em uma memória de alta capacidade. Memórias do tipo SD (Secure Digital) foram estudadas e utilizadas na construção do protótipo eletrônico da plataforma. Também foram desenvolvidos estudos sobre a quantização, especificamente sobre a possibilidade de redução do número de bits. Com a implementação realizada é possível desenvolver um sistema fuzzy num ambiente simulado (Matlab), configurar a plataforma e executar o sistema fuzzy diretamente na plataforma eletrônica. Os testes com o protótipo construído comprovaram seu bom funcionamento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Aplicações ubíquas e pervasivas são cientes do contexto dos recursos utilizados no que diz respeito à disponibilidade e qualidade. Esta classe de aplicações pode se beneficiar de mecanismos para descobrir recursos que atendam aos requisitos não-funcionais desejados, e mecanismos para monitorar a qualidade destes recursos. Neste trabalho é proposta uma arquitetura para dois serviços que deveriam ser incluídos na infra-estrutura de suporte a ser utilizada pelas aplicações mencionadas: um Serviço de Contexto, que provê acesso a informações de contexto, e um Serviço de Descoberta, que permite a descoberta dinâmica de recursos, levando em conta restrições de contexto a serem satisfeitas. Estes serviços se apóiam em Agentes de Recursos, que efetivamente monitoram os recursos e sensores. Uma implementação de referência foi desenvolvida, oferecendo os serviços mencionados na forma de Serviços Web e implementando os Agentes de Recursos empregando um padrão de projeto simples. Para avaliar os serviços estes foram utilizados como infra-estrutura para o desenvolvimento de um sistema tolerante a falhas e uma aplicação de assistência domiciliar remota (tele-saúde). O desempenho dos serviços também foi avaliado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Geração e Simplificação da Base de Conhecimento de um Sistema Híbrido Fuzzy- Genético propõe uma metodologia para o desenvolvimento da base de conhecimento de sistemas fuzzy, fundamentada em técnicas de computação evolucionária. Os sistemas fuzzy evoluídos são avaliados segundo dois critérios distintos: desempenho e interpretabilidade. Uma metodologia para a análise de problemas multiobjetivo utilizando a Lógica Fuzzy foi também desenvolvida para esse fim e incorporada ao processo de avaliação dos AGs. Os sistemas fuzzy evoluídos foram avaliados através de simulações computacionais e os resultados obtidos foram comparados com os obtidos por outros métodos em diferentes tipos de aplicações. O uso da metodologia proposta demonstrou que os sistemas fuzzy evoluídos possuem um bom desempenho aliado a uma boa interpretabilidade da sua base de conhecimento, tornando viável a sua utilização no projeto de sistemas reais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nesta dissertação são analisados métodos de localização baseados na rede, com destaque para os métodos de correlação de assinaturas de rádio-frequência (DCM - Database Correlation Methods). Métodos baseados na rede não requerem modificações nos terminais móveis (MS - Mobile Stations), sendo portanto capazes de estimar a localização de MS legados, i.e., sem suporte específico a posicionamento. Esta característica, associada a alta disponibilidade e precisão dos métodos DCM, torna-os candidatos viáveis para diversas aplicações baseadas em posição, e em particular para a localização de chamadas para números de emergência - polícia, defesa civil, corpo de bombeiros, etc. - originadas de telefones móveis celulares. Duas técnicas para diminuição do tempo médio para produção de uma estimativa de posição são formuladas: a filtragem determinística e a busca otimizada utilizando algoritmos genéticos. Uma modificação é realizada nas funções de avaliação utilizadas em métodos DCM, inserindo um fator representando a inacurácia intrínseca às medidas de nível de sinal realizadas pelos MS. As modificações propostas são avaliadas experimentalmente em redes de telefonia móvel celular de segunda e terceira gerações em ambientes urbanos e suburbanos, assim como em redes locais sem fio em ambiente indoor. A viabilidade da utilização de bancos de dados de correlação (CDB - Correlation Database) construídos a partir de modelagem de propagação é analisada, bem como o efeito da calibração de modelos de propagação empíricos na precisão de métodos DCM. Um dos métodos DCM propostos, utilizando um CDB calibrado, teve um desempenho superior ao de vários outros métodos DCM publicados na literatura, atingindo em área urbana a precisão exigida dos métodos baseados na rede pela regulamentação FCC (Federal Communications Commission) para o serviço E911 (Enhanced 911 ).