893 resultados para Arquitetura crustal
Resumo:
A comparação entre o Complexo Juiz de Fora e a Unidade Granulítica Ponte de Zinco (Mangaratiba - RJ) revelou que existem diferenças significativas entre essas unidades. Na Unidade Granulítica Ponte de Zinco, são encontrados ortogranulitos de composição granítica e granodiorítica, que representam o embasamento da Unidade, denominada aqui de Ortogranulitos Ribeirão das Lajes. Dois outros litotipos ortoderivados também foram encontrados: (i) um ortognaisse com granada (MAN-JEF-03a), sendo que a granada ocorre de forma subordinada; (ii) ortognaisse leucocrático (MAN-JEF-04), com características miloníticas. Além dessas, rochas metassedimentares também afloram na Unidade Granulítica Ponte de Zinco. Foi interpretado que um ortogranulito (MAN-JEF-01a) de alto-K, com composição monzogranítica, cristalizou em ca. 2653 37 Ma (U-Pb em zircão por LA-ICPMS), afetado por um evento no Neoproterozóico, que gerou os minerais máficos hidratados, observados na análise petrográfica e como mostram as borda de sobrecrescimento em zircão. Sua idade modelo de Nd de 2,7 Ga e seu εNd positivo de +2,1, apontam para uma gênese mantélica, tendo assimilado rochas crustais, pois são encontrados grãos de zircão herdados de aproximadamente 2996 17 Ma e 3343 3.8 Ma. Os dados de litogeoquímica e sua razão 87Sr/86 Sr(t) (0,70529), são compatíveis com uma geração em um arco continental. O ortognaisses com granada do ponto MAN-JEF-03 possui composição granodiorítica. A idade de cristalização interpretada pela análise geocronológica U-Pb em zircão (LA-ICPMS), foi ca. 2117 15 Ma. Esse litotipo foi metamorfizado no Neoproterozóico, sendo a idade obtida pelo intercepto inferior de 631 40 Ma. Seus dados isotópicos apontam para uma rocha juvenil gerada a partir do manto (TDM ≈ de 2,1 Ga e εNd = +3,4). Sua alta razão 87Sr/86 Sr(t) (0,710 ) juntamente com os grãos de zircão herdados (2,6 Ga) e a presença de enclaves, indicam assimilação de rochas crustais. O ortognaisse leucocrático (MAN-JEF-04) classificado como alto-K, possui composição monzogranítica, idade 2132 9,4 Ma U-Pb em zircão (LA-ICPMS). Um único grão relíquiar de ortopiroxênio encontrado em lâmina, , indica que a rocha já foi submetida a metamorfismo de fácies granulito, porém esse evento não deixou registro nos grãos analisados. O retrometamorfismo pode ter ocorrido em dois momentos, 647 11 Ma e 595 38 Ma, calculados através da concordia age, em sobrecrescimentos homogêneos e, pelo intercepto inferior, respectivamente. Sua baixa razão 87Sr/86 Sr(t) (≈ 0,703) associada com εNd positivo (+2,3) e sua idade modelo de aproximadamente 2,1 Ga, revelam que a rocha foi formada por um material mantélico juvenil. Já as análises geocronológicas em U-Pb em zircão (LA-ICPMS) na região de Juiz de Fora (MG), revelaram a existência de dois litotipos Arqueanos: um ortogranulito granodiorítico (MB-JEF-01b), de baixo-K com idade de 2849 11 Ma e com herança de 2975 10 Ma. Seu εNd positivo (+5,9) aponta para uma gênese a partir do manto depletado, já sua alta razão 87Sr/86Sr(t) (≈0,709) indica contaminação de Rb de fontes externas, talvez causada pela assimilação da crosta, como revelam os zircões herdados e/ou fluidos retrometamorficos. Outro litotipo é uma rocha gabróica do tipo E-MORB, cuja idade foi calculada em 2691 14 Ma, com retrometamorfismo ocorrido no intervalo de 604 67 Ma, obtida pelo intercepto inferior. Seu εNd igual a +3,4 e sua razão 87Sr/86 Sr(t) (≈0,701) mostram extração a partir do manto depletado. Novos dados isotópicos do CJF na região de Três Rios (RJ) e Juiz de Fora (MG), sugerem que os ortogranulitos calcioalcalinos podem representar grupos distintos. Rochas com εNd positivos são consequentemente associadas ao manto depletado, porém rochas com εNd negativos devem ter sido geradas por fusão crustal, que podem ser fusão de crosta inferior, devido a razão 87Sr/86 Sr(t) (0,70514) encontrada no amostra MB-JEF-02a (ortogranulito de alto-K) ou tendo a crosta contribuição nas gênese dessas rochas. Os ortogranulitos básicos possuem εNd positivos com baixas razões 87Sr/86 Sr(t) , o que indica extração a partir do manto depletado, porém sua razões La/YbN e La/NbN maiores que 1, revelam alguma contribuição de uma fonte enriquecida, assim também mostram suas razões Pb/Pb, que são maiores do que as razões calculadas para evolução de Pb na Terra. Essas interpretações ainda podem ser estendidas para um ortoanfibolito da série alcalina, encontrado na região de Três Rios (RJ).
Resumo:
Técnicas de limpeza química ou mecânica são comumente empregadas para evitar a formação de biofilmes e problemas associados com a colonização de superfícies por micro-organismos. Neste trabalho, amostras de aço inox 304L foram submetidas a ensaios acelerados de crescimento de biofilme, o qual foi posteriormente removido por tratamentos de limpeza e desinfecção (choque térmico com água a 70C por 1h, limpeza com ácido fosfórico 20 % v/v por 30min e desinfecção com peróxido de hidrogênio 0,17 % v/v por 1h). Com o objetivo de verificar a influência destes tratamentos na remoção do biofilme, este foi caracterizado (por quantificação microbiana e análises de espectroscopia de impedância eletroquímica - EIE), antes e após a aplicação dos tratamentos. Dois casos foram estudados. No primeiro caso, simularam-se condições presentes em tubulações de ambientes hospitalares e sistemas de distribuição de água quente. O micro-organismo utilizado foi a bactéria Serratia marcences. O processo de formação de biofilme e posterior limpeza e desinfecção foi realizado de modo contínuo durante 15 semanas. Os resultados de quantificação microbiana e de EIE mostraram que desde a primeira semana de exposição e ao longo dos ensaios, formou-se um biofilme aderente à superfície do aço e que o emprego dos tratamentos de limpeza e desinfecção não foi eficaz na remoção do biofilme. Em um segundo caso, simularam-se condições presentes em tubulações da indústria de água mineral, empregando-se a bactéria Pseudomonas aeruginosa. Neste caso, as técnicas de limpeza e desinfecção foram aplicadas individualmente e em conjunto. A aplicação de choque térmico, assim como da limpeza ácida, sobre um biofilme com 72 h de formação foi capaz de eliminar as bactérias viáveis, presentes na superfície do aço. Entretanto, a desinfecção com peróxido de hidrogênio não foi capaz de eliminá-las. Nas duas condições, porém, as análises de EIE do sistema aço/biofilme mostraram que o mesmo não foi completamente removido da superfície do metal. Correlacionando os dois casos, pode-se inferir que a superfície do aço inox 304L é rapidamente colonizada pelas duas espécies microbianas e que as técnicas de limpeza e desinfecção são capazes de reduzir e até eliminar as células viáveis, embora não removam completamente o biofilme da superfície. Por outro lado, é importante ressaltar que fatores como a arquitetura, espessura e porosidade do biofilme, e propriedades intrínsecas da superfície, são fatores que afetam os valores de impedância medidos, sendo necessário considerá-los na análise, tanto da formação do biofilme, quanto dos efeitos dos procedimentos de limpeza e desinfecção
Escolhas lexicais e iconicidade textual: uma análise do insólito no romance Sombras de Reis Barbudos
Resumo:
Esta tese dedicou-se a descrever e interpretar a tessitura textual dos fenômenos insólitos no romance Sombras de Reis Barbudos, de José J. Veiga, com base na associação entre a Teoria da Iconicidade Verbal e a Linguística de Córpus . Centrou-se, especificamente, nas marcas linguísticas que representam ideias ou conduzem o intérprete à percepção de que o insólito é construído no texto por meio itens léxicos que constituem pistas icônicas. Merecem especial interesse, sobretudo, os substantivos, que, por serem palavras com alta iconicidade, participam da construção/representação de fenômenos insólitos e criam, por meio da trilha léxica, o itinerário de leitura para o texto-córpus. Para que os resultados fossem significativos, análise apoiou-se nos recursos digitais da Linguística de Córpus (SARDINHA, 2004; 2009), que possibilitaram realizar uma pesquisa baseada em um córpus. A utilização da Linguística de Córpus como metodologia permitiu levantar, quantificar e tabular os signos que corroboram com a compreensão da incongruência e da iconicidade lexical dos fenômenos insólitos em um texto literário, identificando os substantivos-nódulos e seus colocados, para avaliá-los quanto à incompatibilidade das escolhas lexicais realizadas por José J. Veiga em relação às estruturas lexicogramaticais da Língua Portuguesa. Fundamentou-se a discussão no insólito como categoria essencial do fantástico modal (BESSIÈRE, 2009; COVIZZI, 1978, FURTADO, s.d.; PRADA OROPREZA, 2006); na Semiótica de extração peirceana, com enfoque na Teoria da Iconicidade Verbal (SIMÕES, 2007,2009) e na colocação lexical (BÉNJOINT, 1994; SINCLAIR, 1987, 1991, 2004; TAGNIN, 1989). A tese demonstra que a incongruência e a iconicidade lexical são identificadas a partir da seleção vocabular obtida pelo processamento digital e pelo confronto com o Córpus do Português. A análise comprova que os substantivos, como categorias linguísticas caracterizáveis semanticamente, têm a função designatória ou de nomeação na arquitetura de um texto em que se manifesta o insólito. Revela também que a incongruência lexical constitui-se em uma chave para a construção do ilógico, mágico, fantástico, misterioso, sobrenatural, irreal e suprarreal no texto-córpus
Resumo:
O uso de Internet para a distribuição de fluxos de vídeo tem se mostrado uma tendência atual e traz consigo grandes desafios. O alicerce sobre qual a Internet está fundamentada, comutação por pacotes e arquitetura cliente-servidor, não proporciona as melhores condições para este tipo de serviço. A arquitetura P2P (peer-to-peer) vem sendo considerada como infraestrutura para a distribuição de fluxos de vídeo na Internet. A idéia básica da distribuição de vídeo com o suporte de P2P é a de que os vários nós integrantes da rede sobreposta distribuem e encaminham pedaços de vídeo de forma cooperativa, dividindo as tarefas, e colocando à disposição da rede seus recursos locais. Dentro deste contexto, é importante investigar o que ocorre com a qualidade do serviço de distribuição de vídeo quando a infraestrutura provida pelas redes P2P é contaminada por nós que não estejam dispostos a cooperar, já que a base desta arquitetura é a cooperação. Neste trabalho, inicialmente é feito um estudo para verificar o quanto a presença de nós não-cooperativos pode afetar a qualidade da aplicação de distribuição de fluxo de vídeo em uma rede P2P. Com base nos resultados obtidos, é proposto um mecanismo de incentivo à cooperação para que seja garantida uma boa qualidade de vídeo aos nós cooperativos e alguma punição aos nós não-cooperativos. Os testes e avaliações foram realizados utilizando-se o simulador PeerSim.
Resumo:
Este trabalho avalia o desempenho de um controlador fuzzy (tipo Takagi-Sugeno-Kang) quando, utilizando tecnologia sem fio para conectar as entradas e a saída do controlador aos sensores/atuadores, sofre perda das informações destes canais, resultado de perdas de pacotes. Tipicamente são utilizados controladores PID nas malhas de controle. Assim, o estudo realizado compara os resultados obtidos com os controladores fuzzy com os resultados dos controladores PID. Além disso, o trabalho visa estudar o comportamento deste controlador implementado em uma arquitetura microprocessada utilizando números inteiros nos cálculos, interpolação com segmentos de reta para as funções de pertinência da entrada e singletons nas funções de pertinência da saída. Para esse estudo foi utilizado, num ambiente Matlab/Simulink, um controlador fuzzy e o aplicativo True Time para simular o ambiente sem fio. Desenvolvido pelo Departamento de Controle Automático da Universidade de Lund, o True Time é baseado no Matlab/Simulink e fornece todas as ferramentas necessárias para a criação de um ambiente de rede (com e sem fio) virtual. Dado o paradigma de que quanto maior for a utilização do canal, maior a degradação do mesmo, é avaliado o comportamento do sistema de controle e uma proposta para diminuir o impacto da perda de pacotes no controle do sistema, bem como o impacto da variação das características internas da planta e da arquitetura utilizada na rede. Inicialmente são realizados ensaios utilizando-se o controlador fuzzy virtual (Simulink) e, posteriormente, o controlador implementado com dsPIC. Ao final, é apresentado um resumo desses ensaios e a comprovação dos bons resultados obtidos com um controlador fuzzy numa malha de controle utilizando uma rede na entrada e na saída do controlador.
Resumo:
Amostras de DNA são encontradas em fragmentos, obtidos em vestígios de uma cena de crime, ou coletados de amostras de cabelo ou sangue, para testes genéticos ou de paternidade. Para identificar se esse fragmento pertence ou não a uma sequência de DNA, é necessário compará-los com uma sequência determinada, que pode estar armazenada em um banco de dados para, por exemplo, apontar um suspeito. Para tal, é preciso uma ferramenta eficiente para realizar o alinhamento da sequência de DNA encontrada com a armazenada no banco de dados. O alinhamento de sequências de DNA, em inglês DNA matching, é o campo da bioinformática que tenta entender a relação entre as sequências genéticas e suas relações funcionais e parentais. Essa tarefa é frequentemente realizada através de softwares que varrem clusters de base de dados, demandando alto poder computacional, o que encarece o custo de um projeto de alinhamento de sequências de DNA. Esta dissertação apresenta uma arquitetura de hardware paralela, para o algoritmo BLAST, que permite o alinhamento de um par de sequências de DNA. O algoritmo BLAST é um método heurístico e atualmente é o mais rápido. A estratégia do BLAST é dividir as sequências originais em subsequências menores de tamanho w. Após realizar as comparações nessas pequenas subsequências, as etapas do BLAST analisam apenas as subsequências que forem idênticas. Com isso, o algoritmo diminui o número de testes e combinações necessárias para realizar o alinhamento. Para cada sequência idêntica há três etapas, a serem realizadas pelo algoritmo: semeadura, extensão e avaliação. A solução proposta se inspira nas características do algoritmo para implementar um hardware totalmente paralelo e com pipeline entre as etapas básicas do BLAST. A arquitetura de hardware proposta foi implementada em FPGA e os resultados obtidos mostram a comparação entre área ocupada, número de ciclos e máxima frequência de operação permitida, em função dos parâmetros de alinhamento. O resultado é uma arquitetura de hardware em lógica reconfigurável, escalável, eficiente e de baixo custo, capaz de alinhar pares de sequências utilizando o algoritmo BLAST.
Resumo:
Fontes radioativas possuem radionuclídeos. Um radionuclídeo é um átomo com um núcleo instável, ou seja, um núcleo caracterizado pelo excesso de energia que está disponível para ser emitida. Neste processo, o radionuclídeo sofre o decaimento radioativo e emite raios gama e partículas subatômicas, constituindo-se na radiação ionizante. Então, a radioatividade é a emissão espontânea de energia a partir de átomos instáveis. A identificação correta de radionuclídeos pode ser crucial para o planejamento de medidas de proteção, especialmente em situações de emergência, definindo o tipo de fonte de radiação e seu perigo radiológico. Esta dissertação apresenta a aplicação do método de agrupamento subtrativo, implementada em hardware, para um sistema de identificação de elementos radioativos com uma resposta rápida e eficiente. Quando implementados em software, os algoritmos de agrupamento consumem muito tempo de processamento. Assim, uma implementação dedicada para hardware reconfigurável é uma boa opção em sistemas embarcados, que requerem execução em tempo real, bem como baixo consumo de energia. A arquitetura proposta para o hardware de cálculo do agrupamento subtrativo é escalável, permitindo a inclusão de mais unidades de agrupamento subtrativo para operarem em paralelo. Isso proporciona maior flexibilidade para acelerar o processo de acordo com as restrições de tempo e de área. Os resultados mostram que o centro do agrupamento pode ser identificado com uma boa eficiência. A identificação desses pontos pode classificar os elementos radioativos presentes em uma amostra. Utilizando este hardware foi possível identificar mais do que um centro de agrupamento, o que permite reconhecer mais de um radionuclídeo em fontes radioativas. Estes resultados revelam que o hardware proposto pode ser usado para desenvolver um sistema portátil para identificação radionuclídeos.
Resumo:
Este trabalho propõe uma arquitetura reutilizável que permite a gerência de uma infraestrutura de suporte para aplicações Web, utilizando máquinas virtuais. O objetivo da arquitetura é garantir qualidade de serviço, atuando nos servidores físicos (hospedeiros) ou manipulando as máquinas virtuais, e avaliando o cumprimento das restrições de operação (tempo de resposta máximo). Além disso, através do uso racional dos recursos utilizados, a proposta visa à economia de energia. O trabalho também inclui uma avaliação de desempenho realizada sobre um sistema implementado com base na arquitetura. Esta avaliação mostra que a proposta é funcional e o quanto ela pode ser vantajosa do ponto de vista do uso de recursos, evitando desperdício, mantendo-se ainda a qualidade de serviço em níveis aceitáveis pela aplicação.
Resumo:
Controle de processos é uma das muitas aplicações que aproveitam as vantagens do uso da teoria de conjuntos nebulosos. Nesse tipo de aplicação, o controlador é, geralmente, embutido no dispositivo controlado. Esta dissertação propõe uma arquitetura reconfigurável eficiente para controladores nebulosos embutidos. A arquitetura é parametrizável, de tal forma, que permite a configuração do controlador para que este possa ser usado na implementação de qualquer aplicação ou modelo nebuloso. Os parâmetros de configuração são: o número de variáveis de entrada (N); o número de variáveis de saída (M); o número de termos linguísticos (Q); e o número total de regras (P). A arquitetura proposta proporciona também a configuração das características que definem as regras e as funções de pertinência de cada variável de entrada e saída, permitindo a escalabilidade do projeto. A composição das premissas e consequentes das regras são configuráveis, de acordo com o controlador nebuloso objetivado. A arquitetura suporta funções de pertinência triangulares, mas pode ser estendida para aceitar outras formas, do tipo trapezoidal, sem grandes modificações. As características das funções de pertinência de cada termo linguístico, podem ser ajustadas de acordo com a definição do controlador nebuloso, permitindo o uso de triângulos. Virtualmente, não há limites máximos do número de regras ou de termos linguísticos empregados no modelo, bem como no número de variáveis de entrada e de saída. A macro-arquitetura do controlador proposto é composta por N blocos de fuzzificação, 1 bloco de inferência, M blocos de defuzzificação e N blocos referentes às características das funções de pertinência. Este último opera apenas durante a configuração do controlador. A função dos blocos de fuzzificação das variáveis de entrada é executada em paralelo, assim como, os cálculos realizados pelos blocos de defuzzificação das variáveis de saída. A paralelização das unidades de fuzzificação e defuzzificação permite acelerar o processo de obtenção da resposta final do controlador. Foram realizadas várias simulações para verificar o correto funcionamento do controlador, especificado em VHDL. Em um segundo momento, para avaliar o desempenho da arquitetura, o controlador foi sintetizado em FPGA e testado em seis aplicações para verificar sua reconfigurabilidade e escalabilidade. Os resultados obtidos foram comparados com os do MATLAB em cada aplicação implementada, para comprovar precisão do controlador.
Resumo:
A Otimização por Enxame de Partículas (PSO, Particle Swarm Optimization) é uma técnica de otimização que vem sendo utilizada na solução de diversos problemas, em diferentes áreas do conhecimento. Porém, a maioria das implementações é realizada de modo sequencial. O processo de otimização necessita de um grande número de avaliações da função objetivo, principalmente em problemas complexos que envolvam uma grande quantidade de partículas e dimensões. Consequentemente, o algoritmo pode se tornar ineficiente em termos do desempenho obtido, tempo de resposta e até na qualidade do resultado esperado. Para superar tais dificuldades, pode-se utilizar a computação de alto desempenho e paralelizar o algoritmo, de acordo com as características da arquitetura, visando o aumento de desempenho, a minimização do tempo de resposta e melhoria da qualidade do resultado final. Nesta dissertação, o algoritmo PSO é paralelizado utilizando três estratégias que abordarão diferentes granularidades do problema, assim como dividir o trabalho de otimização entre vários subenxames cooperativos. Um dos algoritmos paralelos desenvolvidos, chamado PPSO, é implementado diretamente em hardware, utilizando uma FPGA. Todas as estratégias propostas, PPSO (Parallel PSO), PDPSO (Parallel Dimension PSO) e CPPSO (Cooperative Parallel PSO), são implementadas visando às arquiteturas paralelas baseadas em multiprocessadores, multicomputadores e GPU. Os diferentes testes realizados mostram que, nos problemas com um maior número de partículas e dimensões e utilizando uma estratégia com granularidade mais fina (PDPSO e CPPSO), a GPU obteve os melhores resultados. Enquanto, utilizando uma estratégia com uma granularidade mais grossa (PPSO), a implementação em multicomputador obteve os melhores resultados.
Resumo:
O conhecimento do tema da interação solo-estrutura permite que as edificações sejam projetadas de maneira mais realista com o comportamento físico. Há décadas atrás seria inviável um dimensionamento considerando a deformabilidade do solo de fundação, e as estruturas eram dimensionadas adotando-se as fundações como indeslocáveis, sob uma base rígida. Essa consideração conduz a respostas estruturais inadequadas, por vezes comprometendo a segurança e a estabilidade do conjunto estrutural. Atualmente, o avanço tecnológico permite a obtenção de resultados de milhões de cálculos matemáticos em questões de segundos, podendo-se obter soluções mais arrojadas e dinâmicas, facilitando o dimensionamento estrutural de forma a atender ao novo padrão de construção e arquitetura. A relevância de tal assunto motivou a análise numérica de um edifício de 4 pavimentos de estrutura mista (aço-concreto), considerando o efeito da interação solo-estrutura. As análises foram conduzidas com o programa ANSYS, de elementos finitos, substituindo-se os apoios indeslocáveis por molas discretas, lineares e elásticas, com rigidez equivalente ao solo, conforme hipótese de Winkler. Os parâmetros dos solos de fundação foram adquiridos a partir de correlações empíricas existentes na literatura e da utilização do programa computacional PLAXIS para a determinação das constantes elásticas das molas. Neste trabalho, foram comparados os resultados de reações verticais, esforços normais, momentos fletores e deslocamentos da estrutura obtidos pelo modelo clássico de projeto, que considera apoios indeslocáveis, e pelo modelo de Winkler, que considera a interação solo-estrutura. As análises foram executadas para seis diferentes tipos de solos argilosos, siltosos e arenosos. Os resultados obtidos mostraram claramente a redistribuição dos momentos fletores, esforços normais e reações verticais nos pilares com diferenças significativas para os pilares de canto e periféricos. Observou-se uma tendência de alívio dos esforços nos pilares mais solicitados, adotando a estrutura assentada em uma base rígida. As análises ressaltaram a relevância da interação solo-estrutura, com efeitos provenientes do rearranjo do solo de fundação nos elementos estruturais das edificações.
Resumo:
Este trabalho investiga a implementação de sistemas fuzzy com circuitos eletrônicos. Tais sistemas têm demonstrado sua capacidade de resolver diversos tipos de problemas em várias aplicações de engenharia, em especial nas relacionadas com controle de processos. Para processos mais complexos, o raciocínio aproximado da lógica fuzzy fornece uma maneira de compreender o comportamento do sistema, permitindo a interpolação aproximada entre situações observadas de entrada e saída. A implementação de um sistema fuzzy pode ser baseada em hardware, em software ou em ambos. Tipicamente, as implementações em software utilizam ambientes de programação integrados com simulação, de modo a facilitar o trabalho do projetista. As implementações em hardware, tradicionais ou evolutivas, podem ser analógicas ou digitais e viabilizam sistemas de maior desempenho. Este trabalho tem por objetivo pesquisar a implementação eletrônica de sistemas fuzzy, a fim de viabilizar a criação de sistemas reais capazes de realizar o mapeamento de entrada e saída adequado. O foco é a utilização de uma plataforma com uma arquitetura analógico-digital baseada em uma tabela de mapeamento armazenada em uma memória de alta capacidade. Memórias do tipo SD (Secure Digital) foram estudadas e utilizadas na construção do protótipo eletrônico da plataforma. Também foram desenvolvidos estudos sobre a quantização, especificamente sobre a possibilidade de redução do número de bits. Com a implementação realizada é possível desenvolver um sistema fuzzy num ambiente simulado (Matlab), configurar a plataforma e executar o sistema fuzzy diretamente na plataforma eletrônica. Os testes com o protótipo construído comprovaram seu bom funcionamento.
Resumo:
Aplicações ubíquas e pervasivas são cientes do contexto dos recursos utilizados no que diz respeito à disponibilidade e qualidade. Esta classe de aplicações pode se beneficiar de mecanismos para descobrir recursos que atendam aos requisitos não-funcionais desejados, e mecanismos para monitorar a qualidade destes recursos. Neste trabalho é proposta uma arquitetura para dois serviços que deveriam ser incluídos na infra-estrutura de suporte a ser utilizada pelas aplicações mencionadas: um Serviço de Contexto, que provê acesso a informações de contexto, e um Serviço de Descoberta, que permite a descoberta dinâmica de recursos, levando em conta restrições de contexto a serem satisfeitas. Estes serviços se apóiam em Agentes de Recursos, que efetivamente monitoram os recursos e sensores. Uma implementação de referência foi desenvolvida, oferecendo os serviços mencionados na forma de Serviços Web e implementando os Agentes de Recursos empregando um padrão de projeto simples. Para avaliar os serviços estes foram utilizados como infra-estrutura para o desenvolvimento de um sistema tolerante a falhas e uma aplicação de assistência domiciliar remota (tele-saúde). O desempenho dos serviços também foi avaliado.
Resumo:
Neste trabalho é apresentada uma nova abordagem para obter as respostas impulsivas biauriculares (BIRs) para um sistema de aurilização utilizando um conjunto de redes neurais artificiais (RNAs). O método proposto é capaz de reconstruir as respostas impulsivas associadas à cabeça humana (HRIRs) por meio de modificação espectral e de interpolação espacial. A fim de cobrir todo o espaço auditivo de recepção, sem aumentar a complexidade da arquitetura da rede, uma estrutura com múltiplas RNAs (conjunto) foi adotada, onde cada rede opera uma região específica do espaço (gomo). Os três principais fatores que influenciam na precisão do modelo arquitetura da rede, ângulos de abertura da área de recepção e atrasos das HRIRs são investigados e uma configuração ideal é apresentada. O erro de modelagem no domínio da frequência é investigado considerando a natureza logarítmica da audição humana. Mais ainda, são propostos novos parâmetros para avaliação do erro, definidos em analogia com alguns dos bem conhecidos parâmetros de qualidade acústica de salas. Através da metodologia proposta obteve-se um ganho computacional, em redução do tempo de processamento, de aproximadamente 62% em relação ao método tradicional de processamento de sinais utilizado para aurilização. A aplicabilidade do novo método em sistemas de aurilização é reforçada mediante uma análise comparativa dos resultados, que incluem a geração das BIRs e o cálculo dos parâmetros acústicos biauriculares (IACF e IACC), os quais mostram erros de magnitudes reduzidas.
Resumo:
Desde os primórdios da humanidade, a descoberta do método de processamento cerebral do som, e consequentemente da música, fazem parte do imaginário humano. Portanto, as pesquisas relacionadas a este processo constituem um dos mais vastos campos de estudos das áreas de ciências. Dentre as inúmeras tentativas para compreensão do processamento biológico do som, o ser humano inventou o processo automático de composição musical, com o intuito de aferir a possibilidade da realização de composições musicais de qualidade sem a imposição sentimental, ou seja, apenas com a utilização das definições e estruturas de música existentes. Este procedimento automático de composição musical, também denominado música aleatória ou música do acaso, tem sido vastamente explorado ao longo dos séculos, já tendo sido utilizado por alguns dos grandes nomes do cenário musical, como por exemplo, Mozart. Os avanços nas áreas de engenharia e computação permitiram a evolução dos métodos utilizados para composição de música aleatória, tornando a aplicação de autômatos celulares uma alternativa viável para determinação da sequência de execução de notas musicais e outros itens utilizados durante a composição deste tipo de música. Esta dissertação propõe uma arquitetura para geração de música harmonizada a partir de intervalos melódicos determinados por autômatos celulares, implementada em hardware reconfigurável do tipo FPGA. A arquitetura proposta possui quatro tipos de autômatos celulares, desenvolvidos através dos modelos de vizinhança unidimensional de Wolfram, vizinhança bidimensional de Neumann, vizinhança bidimensional Moore e vizinhança tridimensional de Neumann, que podem ser combinados de 16 formas diferentes para geração de melodias. Os resultados do processamento realizado pela arquitetura proposta são melodias no formato .mid, compostas através da utilização de dois autômatos celulares, um para escolha das notas e outro para escolha dos instrumentos a serem emulados, de acordo com o protocolo MIDI. Para tal esta arquitetura é formada por três unidades principais, a unidade divisor de frequência, que é responsável pelo sincronismo das tarefas executadas pela arquitetura, a unidade de conjunto de autômatos celulares, que é responsável pelo controle e habilitação dos autômatos celulares, e a unidade máquina MIDI, que é responsável por organizar os resultados de cada iteração corrente dos autômatos celulares e convertê-los conforme a estrutura do protocolo MIDI, gerando-se assim o produto musical. A arquitetura proposta é parametrizável, de modo que a configuração dos dados que influenciam no produto musical gerado, como por exemplo, a definição dos conjuntos de regras para os autômatos celulares habilitados, fica a cargo do usuário, não havendo então limites para as combinações possíveis a serem realizadas na arquitetura. Para validação da funcionalidade e aplicabilidade da arquitetura proposta, alguns dos resultados obtidos foram apresentados e detalhados através do uso de técnicas de obtenção de informação musical.