9 resultados para Graphen, Organische Elektronik, Transparente Elektroden

em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho busca a implementação da replicação de objetos através da linguagem Java e de seu sistema de invocação remota de métodos (Remote Method Invocation - RMI). A partir deste sistema, define-se uma classe de replicação - a máquina de replicação – onde a implementação de grupos de objetos é estruturada de acordo com a arquitetura cliente/servidor, sendo o cliente o representante (a interface) de um grupo de objetos e os servidores representam os demais componentes do grupo. A classe de replicação atende a uma necessidade importante dos sistemas distribuídos - o desenvolvimento de aplicações tolerantes a falhas. Fundamentalmente, a tolerância a falhas é obtida por redundância e, no caso de mecanismos de tolerância a falhas por software, esta redundância significa basicamente replicação de dados, processos ou objetos. A tolerância a falhas para tal tipo de sistema é importante para garantir a transparência do mesmo, visto que, assim como um sistema distribuído pode auxiliar muito o usuário pelas facilidades oferecidas, o não cumprimento de suas atividades de acordo com o esperado pode, em algumas situações, causar-lhe transtornos e erros irrecuperáveis nas aplicações. Finalmente, como principal contribuição, este trabalho descreve e implementa a solução completa para a construção de uma biblioteca de classes que oferece a replicação de forma totalmente transparente para o usuário.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Conforme os sites Web crescem em número de páginas, sua manutenção torna-se mais complicada. Assim, os administradores dos sites de métodos e ferramentas que tornem sua manutenção mais organizada e automatizada. Entretanto, a criação de tais mecanismos é dificultada pelo formato das páginas Web (HTML), que mistura o conteúdo e a formatação da página em um mesmo arquivo. Uma solução usual para esse problema é separar estes componentes da página em documentos XML (conteúdo) e folhas de estilo XSLT (formatação). Pode-se notar várias semelhanças entre páginas Web e programas de computador (software), pois ambos têm componentes de tipos diferentes que evoluem com o tempo. Assim, técnicas oriundas da área de Gerência de Configuração de Software, como controle de versões, podem ser adaptadas para auxiliar a manuutenção de sites. Além da melhoria na manutenção, outra necessidade cada vez mais comum aos sites é a adaptação automática das páginas. Por meio desta, páginas podem ser automaticamente adequadas (adaptadas) e determinado usuário, o que potencialmente atrai um maior número de visitantes ao site. Se forem mantidas versões de cada componente de página, pode-se combiná-las para gerar muitas páginas alternativas. Através da escolha cuidadosa das versões dos ocmponentes que compõem uma página, é possível obter páginas adaptadas automaticamente. Na área de Gerência de Configuração de Software, o chamado proceesso de configuração é responsável por selecionar automaticamente versões de módulos para compor um programa completo. O presente trabalho propõe uma infra-estrutura para um servidor Web que realiza controle de versões e suporta a adaptação de páginas Web de forma transparente ao visitante. Para tanto, é projetado um modelo de versões de páginas que separa conteúdo e formatação em componentes distintos. É proposto um processo de configuração que é responsável pela geração de páginas dinâmicas, o que é suportado por informações presentes no modelo de versões. Os autores de páginas e o próprio servidor Web podem interferir nas escolhas doprocesso de configuração, fornecendo critérios de seleção de versões. Esses critérios guiam as escolhas do processo de configuração, pois representam características que as versões escolhidas devem (necessariamente ou preferencialmente) apresentar.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tolerância a falhas é um dos aspectos mais importantes a serem considerados no desenvolvimento de aplicações, especialmente com a participação cada vez maior de sistemas computacionais em áreas vitais da atividade humana. Dentro deste cenário, um dos fatores a serem considerados na persecução deste objetivo é o gerenciamento de atomicidade. Esta propriedade, por sua vez, apresenta duas vertentes principais: o controle de concorrência e a recuperação de estados. Considerando-se a tolerância a falhas e, particularmente, a atomicidade como requisitos com alto grau de recorrência em aplicações, verifica-se a importância de sua reutilização de forma simples e transparente e do estudo de meios de prover tal capacidade. O presente trabalho procurou pesquisar e aplicar meios de produzir soluções reutilizáveis para implementação de programas tolerantes a falhas, mais especificamente de técnicas de controle de atomicidade, utilizando vários paradigmas computacionais. Neste intuito, foram pesquisados mecanismos de introdução de atomicidade em aplicações e suas respectivas demandas, para então extrair critérios de análise dos paradigmas a serem utilizados na implementações das soluções. Buscou-se suporte nestes paradigmas às demandas previamente pesquisadas nos mecanismos de gerenciamento de atomicidade e procurou-se chegar a soluções reutilizáveis mantendo simplicidade de uso, possibilidade de alteração dinâmica, transparência, adaptabilidade e velocidade de desenvolvimento. Devido à existência de uma grande diversidade de situações que requerem diferentes implementações de atomicidade, alguns cenários típicos foram selecionados para aplicação e avaliação das técnicas aqui sugeridas, procurando abranger o maior número possível de possibilidades. Desta maneira, este trabalho comparou situações opostas quanto à concorrência pelos dados, implementando cenários onde ocorrem tanto acesso cooperativo quanto competitivo aos dados. Dentro de cada um dos cenários estudados, buscaram-se situações propícias ao emprego das características dos paradigmas e analisou-se o resultado de sua aplicação quanto aos critérios definidos anteriormente. Várias soluções foram analisadas e comparadas. Além dos mecanismos de gerenciamento de atomicidade, também foram estudados vários paradigmas que pudessem ser empregados na implementação de soluções com alto grau de reutilização e adaptabilidade. As análises e sugestões posteriores às implementações serviram como substrato para conclusões e sugestões sobre a melhor maneira de empregar tais soluções nos cenários atômicos estudados. Com isso, foi possível relacionar características e capacidades de cada paradigma com a melhor situação de demanda de atomicidade na qual os mesmos são aplicáveis, moldando uma linha de soluções que favoreçam sua reutilização. Um dos objetivos mais importantes do trabalho foi, entretanto, observar o funcionamento conjunto destes paradigmas, estudando como os mesmos podem atuar de forma simbiótica e de que forma os conceitos de um paradigma podem complementar os de outro.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho descreve uma implementação de um modelo de escalonamento para a linguagem de programação DPC++. Esta linguagem, desenvolvida no Instituto de Informática da UFRGS, possibilita que uma aplicação orientada a objetos seja distribuída entre vários processadores através de objetos distribuídos. Muito mais que uma simples biblioteca de comunicação, o DPC ++ torna a troca de mensagens totalmente transparente aos objetos. A integração do DPC++ com o DECK, também em desenvolvimento, trará grandes inovações ao DPC++, principalmente pelo uso de theads. O escalonador proposto para este modelo utiliza estes recursos para implantar os chamados processos espiões, que monitoram a carga de uma máquina, enviando seus resultados ao escalonador. O escalonador implementado possui, desta forma, dois módulos: objetos espiões implementados como um serviço do DECK e o escalonador propriamente dito, incluído no objeto Diretório, parte integrante do DPC++.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O estudo da distribuição da extinção na direção da Pequena Nuvem de Magalhães (PNM) é feito atravéss da contagem de galáxias de ”fundo”, e espectroscopicamente pela comparação de espectros nucleares de uma amostra das mesmas com os de galáxias de referência de similar população estelar. O método de contagens é baseado em um novo catálogo realizado no presente trabalho, contendo 3037 galáxias estendendo-se até a magnitude limite B¼ 20 em 6 placas do ESO/SERC na região da PNM e seus arredores. O método espectroscópico foi aplicado a uma amostra de 16 galáxias na mesma região, assim como numa outra de 27 galáxias na direção da Grande Nuvem de Magalhães, para comparação. A deficiência de galáxias indicada pelo método de contagens sugere E(B-V)=0.35 nas partes centrais da PNM, e E(B-V)=0.15 a 6º do centro. Por outro lado o método espectroscópico indica que a PNM é basicamente transparente. Sugerem-se as seguintes explicações para esta diferença: (i) a deficiência de galáxias nas regiões centrais detectadas pelo método de contagens é signifivativamente afetada pela alta concentração de estrelas e objetos extendidos pertencentes à PNM; (ii) a amostra espectroscópica conteria tipicamente galáxias em zonas menos avermelhadas, o que indicaria que a absorção ocorre em nuvens de poeira com uma distribuição preferencialmente discreta. A aplicação do m´etodo espectroscópico na GNM também sugere a presença de nuvens de poeira discretas nas suas regiões centrais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho está relacionado às áreas de Sistemas Multiagentes, Simulação Computacional e Emoções. A partir do estudo destas áreas de pesquisa, foi proposto e desenvolvido um protótipo para um ambiente de simulação baseado em agentes com emoções. Os sistemas multiagentes têm sido utilizados nas mais diversas áreas de pesquisa, não apenas para a área acadêmica, mas também para fins comerciais. Isso ocorre devido a características importantes que estes possuem, como flexibilidade e cooperação. Estas características são úteis para um grande número de aplicações, como para simulação de situações reais, pois os modelos de simulação desenvolvidos utilizando a tecnologia de agentes são muito eficazes e versáteis no estudo dos mais diferentes problemas. Emoções vêm sendo estudadas há algum tempo, pois elas influenciam a tomada de decisão de todas as suas atividades. A tentativa de expressar emoções é algo complexo, dependendo de diversos fatores, tanto sociais como fisiológicos. Objetivando a abrangência das pesquisas na área de sistemas multiagentes, este trabalho propõe o desenvolvimento de um protótipo para um ambiente de simulação baseado em agentes com emoções, utilizando como base para a estruturação das emoções o modelo OCC. Este novo ambiente é chamado AFRODITE. De forma a melhor definir como o AFRODITE seria implementado, foram estudados quatro ambientes de simulação baseados em agentes existentes - SIEME, SWARM, SeSAm e SIMULA, e alguns aspectos destes foram utilizados na construção do novo ambiente. Para demonstrar como o AFRODITE é utilizado, três exemplos de aplicações de áreas de conhecimentos diferentes foram modelados: o IPD (Iterated Prisoner’s Dilemma), da área de Teoria dos Jogos; Simulação de Multidões, da área de Engenharia de Segurança; e Venda de aparelhos celulares com serviço WAP, da área de Telecomunicações. Através dos três exemplos modelados foi possível demonstrar que o ambiente proposto é de fácil utilização e que a tarefa de inserção de emoções nas regras de comportamento pode ser realizada pelo usuário de forma transparente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A presente tese, A Produção da Anormalidade Surda nos Discursos da Educação Especial, insere-se no terreno das discussões que pretendem examinar as relações entre normalidade/anormalidade e poder/saber. Tendo como foco principal a Política Nacional de Educação Especial (PNEE), ela aponta para as formas como um dispositivo pedagógico torna possível a produção de um aparato de verdades que, ao dizer coisas sobre os sujeitos deficientes e ao definir modelos para conduzir a ação pedagógica a eles dirigida, operam na constituição de subjetividades anormais. Tal empreendimento analítico foi constituído a partir de um conjunto de ferramentas extraídas do campo dos Estudos Culturais, principalmente aqueles que estão próximos a uma perspectiva pós-estruturalista; entre elas, destaco as noções foucaultianas de poder disciplinar, biopoder e normalização. Tais ferramentas possibilitaram-me operar sobre as formas como os discursos instituídos pelas práticas da Educação Especial colocam em funcionamento estratégias de normalização para os sujeitos surdos. Mostrei, por meio da análise desses discursos, como os surdos são constituídos como sujeitos patológicos e como se incide sobre eles uma terapêutica que é capaz de acionar mecanismos de correção, exame e vigilância, uma vez que analisam, decompõem e classificam esses sujeitos e estabelecem sobre eles a partilha entre normalidade e anormalidade. Também problematizei a norma como uma estratégia de gerenciamento do risco social. Faço isso por meio da análise dos discursos das políticas de inclusão voltadas para os sujeitos surdos. Evidencio, ao final, a pedagogia da diversidade como uma estratégia normalizadora que, ao enaltecer as diferenças, captura-as a partir de uma norma transparente, colocando em funcionamento uma operação de apagamento das diferenças.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A linguagem de programação Java vem sendo uma das escolhidas para a implementação de aplicações compostas por objetos distribuídos. Estas aplicações caracterizam-se por possuir comportamento complexo e, portanto, são mais difíceis de depurar e refinar para obter melhores desempenhos. Considerando a necessidade do desenvolvimento de uma ferramenta de monitoração para o modelo de objetos distribuídos, que colete informações mais detalhadas sobre a execução da aplicação, é apresentado neste trabalho um ambiente de monitoração de aplicações distribuídas escritas em Java, o DOMonitor. Um dos objetivos do DOMonitor é obter o comportamento que a aplicação apresenta durante a execução, possibilitando a detecção de comportamentos equivocados e seu respectivo refinamento. O DOMonitor é voltado para aplicações compostas por objetos distribuídos e caracteriza-se por identificar principalmente: (i) o comportamento dinâmico das threads; (ii) a utilização dos métodos de sincronização; e (iii) a comunicação entre os entes distribuídos da aplicação. O DOMonitor está fundamentado em quatro premissas: (i) ser transparente para o usuário, não exigindo anotações no código fonte; (ii) apresentar uma organização modular, e por isto ser flexível e expansível; (iii) ser portável, não exigindo nenhuma alteração na Maquina Virtual Java; e (iv) operar de forma a garantir a ordem dos eventos previstos pelo programa. Os dados produzidos pelo DOMonitor podem ser utilizados com diversas finalidades tais como visualização da execução, escalonamento e como suporte à execução de aplicações móveis. Para comprovar esta versatilidade, foi proposta a integração do sistema a dois outros projetos, o Pajé e o ISAM. O projeto ISAM utilizará os dados monitorados para tomadas de decisão durante o curso da execução e o projeto Pajé permite a visualização gráfica das características dinâmicas de uma aplicação Java.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A recuperação por retorno baseada em checkpointing é largamente usada como técnica de tolerância a falhas. O modelo complexo de sistemas distribuídos tem motivado o desenvolvimento de diversos algoritmos na tentativa de encontrar soluções mais simples e eficientes. Os processos que formam o sistema distribuído podem coordenar suas operações para garantir que o conjunto de checkpoints locais componha um estado global consistente (linha de recuperação). A partir desse estado, no caso de ocorrência de falhas, o sistema pode ser recuperado e a computação retomada a partir de um momento anterior ao da manifestação da falha, evitando o retrocesso para o estado inicial da computação e prevenindo a ocorrência de prejuízos com a perda de todo processamento até então realizado. No Grupo de Tolerância a Falhas da UFRGS foi proposto recentemente um algoritmo que é voltado para aplicações que executam em sistemas distribuídos assíncronos que se comunicam exclusivamente pela troca de mensagens. Ele opera com salvamento coordenado de checkpoints (não bloqueando as aplicações) e prevê o tratamento de mensagens órfãs e perdidas. Os mecanismos do algoritmo sugerem que nenhuma alteração deveria ser realizada no código das aplicações, criando a possibilidade de implementação transparente sob o ponto de vista dos usuários e dos programadores das aplicações. Como o algoritmo não requer o bloqueio das aplicações, a sobrecarga imposta pelos mecanismos à execução livre de falhas é pequena. Além disso, o processo de recuperação tende a ser efetuado rapidamente, uma vez que é garantida a existência de uma linha de recuperação consistente, facilmente identificada Este trabalho apresenta as decisões de projeto, a implementação, os resultados e a avaliação de desempenho desse algoritmo. A avaliação das alternativas de implementação resultou na decisão de uma implementação então realizada diretamente sobre o sistema operacional Linux, sem recorrer a protocolos auxiliares para garantir a execução dos serviços e sem a necessidade de adaptações no código das aplicações nem no código do sistema operacional. Adicionalmente, os resultados comprovaram a expectativa inicial de que o algoritmo causaria pouca sobrecarga no sistema (menos de 2%), embora ele ainda apresente alta dependência do tamanho dos checkpoints salvos.