195 resultados para Arquitetura sustentavel


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Alta disponibilidade é uma das propriedades mais desejáveis em sistemas computacionais, principalmente em aplicações comerciais que, tipicamente, envolvem acesso a banco de dados e usam transações. Essas aplicações compreendem sistemas bancários e de comércio eletrônico, onde a indisponibilidade de um serviço pode representar substanciais perdas financeiras. Alta disponibilidade pode ser alcançada através de replicação. Se uma das réplicas não está operacional, outra possibilita que determinado serviço seja oferecido. No entanto, réplicas requerem protocolos que assegurem consistência de estado. Comunicação de grupo é uma abstração que tem sido aplicada com eficiência a sistemas distribuídos para implementar protocolos de replicação. Sua aplicação a sistemas práticos com transações e com banco de dados não é comum. Tipicamente, sistemas transacionais usam soluções ad hoc e sincronizam réplicas com protocolos centralizados, que são bloqueantes e, por isso, não asseguram alta disponibilidade. A tecnologia baseada em componentes Enterprise JavaBeans (EJB) é um exemplo de sistema prático que integra distribuição, transações e bancos de dados. Em uma aplicação EJB, o desenvolvedor codifica o serviço funcional que é dependente da aplicação, e os serviços não–funcionais são inseridos automaticamente. A especificação EJB descreve serviços não–funcionais de segurança, de transações e de persistência para bancos de dados, mas não descreve serviços que garantam alta disponibilidade. Neste trabalho, alta disponibilidade é oferecida como uma nova propriedade através da adição de serviços não–funcionais na tecnologia EJB usando abstrações de comunicação de grupo. Os serviços para alta disponibilidade são oferecidos através da arquitetura HA (highly-available architecture) que possui múltiplas camadas. Esses serviços incluem replicação, chaveamento de servidor, gerenciamento de membros do grupo e detecção de membros falhos do grupo. A arquitetura HA baseia-se nos serviços já descritos pela especificação EJB e preserva os serviços EJB existentes. O protocolo de replicação corresponde a uma subcamada, invisível para o usuário final. O serviço EJB é executado por membros em um grupo de réplicas, permitindo a existência de múltiplos bancos de dados idênticos. Conflitos de acesso aos múltiplos bancos de dados são tratados estabelecendo–se uma ordem total para aplicação das atualizações das transações. Esse grupo é modelado como um único componente e gerenciado por um sistema de comunicação de grupo. A combinação de conceitos de bancos de dados com comunicação de grupo demonstra uma interessante solução para aplicações com requisitos de alta disponibilidade, como as aplicações EJB. Os serviços adicionais da arquitetura HA foram implementados em protótipo. A validação através de um protótipo possibilita que experimentos sejam realizados dentro de um ambiente controlado, usando diferentes cargas de trabalho sintéticas. O protótipo combina dois sistemas de código aberto. Essa característica permitiu acesso à implementação e não somente à interface dos componentes dos sistemas em questão. Um dos sistemas implementa a especificação EJB e outro implementa o sistema de comunicação de grupos. Os resultados dos testes realizados com o protótipo mostraram a eficiência da solução proposta. A degradação de desempenho pelo uso de réplicas e da comunicação de grupo é mantida em valores adequados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Com o advento dos processos submicrônicos, a capacidade de integração de transistores tem atingido níveis que possibilitam a construção de um sistema completo em uma única pastilha de silício. Esses sistemas, denominados sistemas integrados, baseiam-se no reuso de blocos previamente projetados e verificados, os quais são chamados de núcleos ou blocos de propriedade intelectual. Os sistemas integrados atuais incluem algumas poucas dezenas de núcleos, os quais são interconectados por meio de arquiteturas de comunicação baseadas em estruturas dedicadas de canais ponto-a-ponto ou em estruturas reutilizáveis constituídas por canais multiponto, denominadas barramentos. Os futuros sistemas integrados irão incluir de dezenas a centenas de núcleos em um mesmo chip com até alguns bilhões de transistores, sendo que, para atender às pressões do mercado e amortizar os custos de projeto entre vários sistemas, é importante que todos os seus componentes sejam reutilizáveis, incluindo a arquitetura de comunicação. Das arquiteturas utilizadas atualmente, o barramento é a única que oferece reusabilidade. Porém, o seu desempenho em comunicação e o seu consumo de energia degradam com o crescimento do sistema. Para atender aos requisitos dos futuros sistemas integrados, uma nova alternativa de arquitetura de comunicação tem sido proposta na comunidade acadêmica. Essa arquitetura, denominada rede-em-chip, baseia-se nos conceitos utilizados nas redes de interconexão para computadores paralelos. Esta tese se situa nesse contexto e apresenta uma arquitetura de rede-em-chip e um conjunto de modelos para a avaliação de área e desempenho de arquiteturas de comunicação para sistemas integrados. A arquitetura apresentada é denominada SoCIN (System-on-Chip Interconnection Network) e apresenta como diferencial o fato de poder ser dimensionada de modo a atender a requisitos de custo e desempenho da aplicação alvo. Os modelos desenvolvidos permitem a estimativa em alto nível da área em silício e do desempenho de arquiteturas de comunicação do tipo barramento e rede-em-chip. São apresentados resultados que demonstram a efetividade das redes-em-chip e indicam as condições que definem a aplicabilidade das mesmas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This thesis presents the study and development of fault-tolerant techniques for programmable architectures, the well-known Field Programmable Gate Arrays (FPGAs), customizable by SRAM. FPGAs are becoming more valuable for space applications because of the high density, high performance, reduced development cost and re-programmability. In particular, SRAM-based FPGAs are very valuable for remote missions because of the possibility of being reprogrammed by the user as many times as necessary in a very short period. SRAM-based FPGA and micro-controllers represent a wide range of components in space applications, and as a result will be the focus of this work, more specifically the Virtex® family from Xilinx and the architecture of the 8051 micro-controller from Intel. The Triple Modular Redundancy (TMR) with voters is a common high-level technique to protect ASICs against single event upset (SEU) and it can also be applied to FPGAs. The TMR technique was first tested in the Virtex® FPGA architecture by using a small design based on counters. Faults were injected in all sensitive parts of the FPGA and a detailed analysis of the effect of a fault in a TMR design synthesized in the Virtex® platform was performed. Results from fault injection and from a radiation ground test facility showed the efficiency of the TMR for the related case study circuit. Although TMR has showed a high reliability, this technique presents some limitations, such as area overhead, three times more input and output pins and, consequently, a significant increase in power dissipation. Aiming to reduce TMR costs and improve reliability, an innovative high-level technique for designing fault-tolerant systems in SRAM-based FPGAs was developed, without modification in the FPGA architecture. This technique combines time and hardware redundancy to reduce overhead and to ensure reliability. It is based on duplication with comparison and concurrent error detection. The new technique proposed in this work was specifically developed for FPGAs to cope with transient faults in the user combinational and sequential logic, while also reducing pin count, area and power dissipation. The methodology was validated by fault injection experiments in an emulation board. The thesis presents comparison results in fault coverage, area and performance between the discussed techniques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Devido a sua baixa latência de banda, os clusters equipados com o adaptador SCI são uma alternativa para sistemas de tempo real distribuídos. Esse trabalho apresenta o projeto e implementação de uma plataforma de comunicação de tempo real sobre clusters SCI. O hardware padrão do SCI não se mostra adequado para a transmissão de tráfego de tempo real devido ao problema da contenção de acesso ao meio que causa inversão de prioridade. Por isso uma disciplina de acesso ao meio é implementada como parte da plataforma. Através da arquitetura implementada é possível o estabelecimento de canais de comunicação com garantia de banda. Assim, aplicações multimídias, por exemplo, podem trocar com taxa constante de conunicação. Cada mensagem é enviada somente uma vez. Assim, mensagens som a semântica de eventos podem ser enviadas. Além disso, a ordem e o tamanho das mensagens são garantidos. Além do tráfego com largura de banda garantida, a plataforma possibilita a troca de pacotes IP entre diferentes máquinas do cluster. Esses pacotes são inseridos no campo de dados dos pacotes próprios da plataforma e após são enviados através do uso de pacotes IP. Além disso, essa funcionalidade da plataforma permite também a execução de bibliotecas de comunicação baseadas em TCP/IP como o MPI sobre o cluster SCI. A plataforma de comunicação é implementada como modulos do sistema operacional Linux com a execução de tempo real RTAI. A valiação da plataforma mostrou que mesmo em cenários com muita comunicação entre todos os nodos correndo, a largura de banda reservada para cada canal foi mantida.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta pesquisa visa a modelagem de clusters de computadores, utilizando um modelo analítico simples que é representado por um grafo valorado denominado grafo da arquitetura. Para ilustrar tal metodologia, exemplificou-se a modelagem do cluster Myrinet/SCI do Instituto de Informática da UFRGS, que é do tipo heterogêneo e multiprocessado. A pesquisa visa também o estudo de métodos e tecnologias de software para o particionamento de grafos de aplicações e seu respectivo mapeamento sobre grafos de arquiteturas. Encontrar boas partições de grafos pode contribuir com a redução da comunicação entre processadores em uma máquina paralela. Para tal, utilizou-se o grafo da aplicação HIDRA, um dos trabalhos do GMCPAD, que modela o transporte de substâncias no Lago Guaíba. Um fator importante é o crescente avanço da oferta de recursos de alto desempenho como os clusters de computadores. Os clusters podem ser homogêneos, quando possuem um arquitetura com nós de mesma característica como: velocidade de processamento, quantidade de memória RAM e possuem a mesma rede de interconexão interligando-os. Eles também podem ser heterogêneos, quando alguns dos componentes dos nós diferem em capacidade ou tecnologia. A tendência é de clusters homogêneos se tornarem em clusters heterogêneos, como conseqüência das expansões e atualizações. Efetuar um particionamento que distribua a carga em clusters heterogêneos de acordo com o poder computacional de cada nó não é uma tarefa fácil, pois nenhum processador deve ficar ocioso e, tampouco, outros devem ficar sobrecarregados Vários métodos de particionamento e mapeamento de grafos foram estudados e três ferramentas (Chaco, Jostle e o Scotch) foram testadas com a aplicação e com a arquitetura modeladas. Foram realizados, ainda, vários experimentos modificando parâmetros de entrada das ferramentas e os resultados foram analisados. Foram considerados melhores resultados aqueles que apresentaram o menor número de corte de arestas, uma vez que esse parâmetro pode representar a comunicação entre os processadores de uma máquina paralela, e executaram o particionamento/mapeamento no menor tempo. O software Chaco e o software Jostle foram eficientes no balanceamento de carga por gerarem partições com praticamente o mesmo tamanho, sendo os resultados adequados para arquiteturas homogêneas. O software Scotch foi o único que permitiu o mapeamento do grafo da aplicação sobre o grafo da arquitetura com fidelidade, destacando-se também por executar particionamento com melhor qualidade e pela execução dos experimentos em um tempo significativamente menor que as outras ferramentas pesquisadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho expõe uma análise sobre duas arquiteturas disponíveis para o desenvolvimento de sistemas que utilizam a tecnologia de workflow. Estas arquiteturas são: a Arquitetura Baseada em Modelagem e Execução em um ùnico Ambiente e a Arquitetura Baseada em Modelagem e Execução e Ambientes Distintos. São expostas: características, vantagens e desvantagens destas arquiteturas. A Aquitetura Baseada em Modelagem e Expressões em Ambientes Distintos é analisada em seu principal ponto negativo: a falta de independência existente entre as apliciações e os processos modelados, bem como são discutidos os problemas que esta falta de independência gera no desenvolvimemto e manutenção das aplicações. Uma alternativa à dependência entre o motor de workflow (engine) e as aplicações é proposta para a Arquitetura Baseada na Modelagem e Execução em Ambientes Distintos. Esta proposta é baseada em um modelo que consiste de uma Camada Intermediária, armazenada em um banco de dados relacional, capaz de extender as funcionalidades do motor de workflow. Este banco de dados armazena toda a estrrutura dos processos modelados, sendo responsável pela função que atualmente é repassada às aplicações: o controle da lógica dos processos. Estes trabalho produziu de uma Camada Intermediária, dividida em Camada de Independência (suportando a independência) e Camada de Integrgação (responsável pela comunicação com o motor de workflow). O estudo apresentada as estruturas do banco de dados, as funções disponibilizadas pela API da Camada Intermediária e um pequeno protótipo para dedmonstrar a arquitetura proposta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Muitos aplicativos atuais, envolvendo diversos domínios de conhecimento, são estruturados como arquiteturas de software que incorporam, além dos requisitos funcionais, requisitos não funcionais, como segurança, por exemplo. Tais requisitos podem constituir um domínio próprio, e, portanto, serem comuns a várias outras arquiteturas de software. Tecnologias como Programação Orientada a Aspectos, Reflexão Computacional e Padrões de Projeto colaboram no desenvolvimento de arquiteturas que provêem a separação de requisitos não funcionais. Porém, sua experimentação e adoção no domínio da segurança computacional ainda é incipiente. O foco deste trabalho é a elaboração de um padrão de projeto voltado à segurança, utilizando como arquitetura conceitual programação orientada a aspectos, e como arquitetura de implementação, reflexão computacional. A composição destas tecnologias resulta em um middleware orientado à segurança, voltado a aplicações desenvolvidas em Java. Estuda-se as tecnologias, seus relacionamentos com a área de segurança, seguido da proposta de uma arquitetura de referência, a partir da qual é extraído um protótipo do middleware de segurança. Este, por sua vez, provê mecanismos de segurança tão transparentes quanto possível para as aplicações que suporta. Com o objetivo de realizar a implementação do middleware de segurança, também são estudadas os mecanismos de segurança da plataforma Java, porém limitado ao escopo deste trabalho. Segue-se o estudo da base conceitual das tecnologias de Reflexão Computacional, o modelo de implementação, seguido de Programação Orientada a Aspectos, o modelo conceitual, e, por fim, têm-se os Padrões de Projeto, a arquitetura de referência. Integrando as três tecnologias apresentadas, propõe-se um modelo, que estabelece a composição de um Padrão Proxy, estruturado de acordo com a arquitetura reflexiva. Este modelo de arquitetura objetiva implementar o aspecto de segurança de acesso a componentes Java, de forma não intrusiva,. Baseado no modelo, descreve-se a implementação dos diversos elementos do middleware, estruturados de forma a ilustrar os conceitos propostos. Ao final, apresenta-se resultados obtidos durante a elaboração deste trabalho, bem como críticas e sugestões de trabalhos futuros.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste trabalho é fazer uma análise tipológica da arquitetura do período eclético na região sul do estado do Rio Grande do Sul, mais precisamente no município de Jaguarão, ou seja, trata-se de uma contribuição sobre o reconhecimento da arquitetura produzida no tempo e no território em análise, onde identificam-se através de um levantamento iconográfico os elementos arquitetônicos que caracterizam a cidade de Jaguarão e que preservados, permitem uma leitura atual do desenvolvimento tipológico de estruturas edilícias produzidas no período em análise. Não se encontrará uma hipótese a ser demonstrada, pois não se trata de uma tese doutoral; na condição de dissertação de mestrado, almeja representar uma contribuição para a indagação sobre o tema do conhecimento da arquitetura produzida no período e no território considerado, a partir da pesquisa e da organização dos elementos levantados. Esta por sua vez, será composta de três partes: a primeira parte que abordará conceitos como partido, tipo, história e ecletismo que servirão como base no desenvolvimento deste estudo, a segunda parte que fala sobre a história do município de Jaguarão, desde sua origem como guarnição militar, as disputas pelas terras entre Portugal e Espanha e a demarcação da fronteira entre Brasil e Uruguai e a terceira parte que retrata o Ecletismo Arquitetônico em Jaguarão, identificando as características formais de cada período, principalmente as regionais que, segundo Glenda Pereira da Cruz, o diferenciam do restante do país.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O volume cada vez maior de informações que as pessoas estão precisando ter acesso, as especificidades dos ambientes onde elas encontram-se e suas características individuais são responsáveis pelo crescimento da área hipermídia adaptativa. Os sistemas desta área tentam antecipar as necessidades e desejos dos usuários, entregando-lhes um sistema o mais personalizado possível. Este trabalho distingue sistema hipermídia adaptável de sistema hipermídia adaptativo, conforme a participação do usuário na indicação de suas características ao sistema. Qualquer um destes sistemas podem ser usados em áreas tais como hipermídia educacional, informação on-line, ajuda on-line, recuperação de informações, informação institucional e gerenciamento de visões personalizadas em espaços de informações. Um sistema hipermídia com característica de adaptatividade deve considerar dados do usuário, dados de utilização e dados do ambiente. Os dados do usuário são considerados na maioria dos sistemas e usados para construir o modelo do usuário, que é uma das principais partes de um sistema da área hipermídia adaptativa. O modelo do usuário geralmente mantém informações sobre preferências, conhecimento, interesse, objetivos, background e traços de personalidade do usuário. Além do modelo do usuário, existem também o modelo do domínio e as formas de adaptação presentes em muitos modelos. Por exemplo, o modelo AHAM (Adaptive Hypermedia Application Model) define através de regras os referidos modelos e é apresentado de forma sucinta neste trabalho. As formas de adaptação de um sistema hipermídia são realizadas, usando duas tecnologias principais de adaptação: apresentação adaptativa, que inclui todas as técnicas que adaptam o conteúdo de uma página de acordo com o modelo do usuário e suporte à navegação adaptativa, que abrange as técnicas que manipulam os links de uma apresentação para adequar o hiperespaço navegacional conforme o modelo do usuário. Atualmente, existem diversos sistemas com ferramentas de autoria que permitem construir apresentações adaptativas e controlar seu processo de adaptação. Um dos sistemas que considera a maior quantidade de características adaptativas do usuário e que está disponível para as plataformas mais difundidas é o sistema AHA! (Adaptive Hypermedia Architecture) que é apresentado neste trabalho. A percepção de que o uso de uma ferramenta de autoria para hipermídia adaptativa não garante que uma apresentação seja construída com alto grau de adaptatividade impulsionou o desenvolvimento de um sistema chamado AdaptAvaliador, capaz de avaliar o grau de adaptatividade de uma apresentação em diversos aspectos. Devido às diferenças de sintaxe das apresentações criadas por diferentes ferramentas de autoria, o AdapAvaliador apenas avalia apresentações construídas no AHA!. As características, arquitetura e funcionamento do sistema de avaliação de apresentações hipermídia adaptativas são apresentadas em detalhes no presente trabalho. Para testar a eficácia do AdaptAvaliador foi desenvolvido um curso, usando o AHA!, e submetido para avaliação pelo AdaptAvaliador. O curso e os resultados obtidos com a avaliação são também apresentados neste trabalho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho constitui-se numa reflexão acerca das possibilidades que se abrem para a preservação de bens arquitetônicos, na medida em que se viabiliza sua utilização por funções distintas das que originalmente levaram a sua construção. São analisados aspectos relativos à evolução das preocupações com a preservação de edificações de caráter histórico e excepcional, assim como da chamada arquitetura vernacular. Recebem especial atenção questões vinculadas a políticas públicas e à prática da arquitetura envolvidas nas intervenções realizadas em preexistências. A análise de projetos de variadas escalas e repercussões serve de pano de fundo para a discussão de metodologias e procedimentos empregados por arquitetos em diversas realidades. O estudo procura identificar os principais temas que se fazem presente quando a arquitetura proposta tem como ponto de partida uma arquitetura já existente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente estudo trata do uso comercial em projetos de reabilitação. Otrabalho analisa,primeiramente, o uso comercial do espaço na cidade contemporânea, procurando refletir sobre algumas quiestões como o papel do comércio nas cidades, as relações dos estabelecimentos comerciais e o tecido urbano, as maneiras pelas quais as edificações apresentam-se associadas com o sítio em que se encontram e o processo de criação do espaço público que esta atividade ajuda a desenvolver. Em seguida, é proposta uma reflexão sobre a memória e alguns conceitos adotados, seu grau de indeterminação, sua urgência e valores que assumem na atualidade. A respeito da forma de preservar essa memória na arquitetura, foram discutidos alguns conceitos e idéias das teorias formuladas no passado, até formar um escopo teórico contemporâneo que delineia uma trajetória para o processo do projeto nas intervenções nesses bens. Por fim, foram selecionados exemplos que demonstram a maneira pela qual os problemas levantados anteriormente dão uma resposta satisfatória às necessidades dos projetos. Para cada grupo de projetos apresentados, foi estabelecido um critério, pontuado com exemplos do cenário local, internacional ou considerados arquétipos deste tipo de uso e intervenção.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Improvisação tem sido considerada uma característica importante para agentes que pretendem operar de maneira consistente com a situação do momento, exibindo um comportamento credível e interessante. A improvisação deve estar presente tanto nos agentes individuais quanto nas sociedades de agentes. Desta maneira, esta tese irá abordar estes dois aspectos da improvisação. Propomos a visão de que, agentes capazes de realizar improvisação, os agentes improvisacionais, são um tipo de agente deliberativo capaz de solucionar problemas por improvisação. Neste sentido, buscamos identificar dentro de uma arquitetura clássica de agentes deliberativos, a arquitetura BDI (belief-desire-intention), a existência e/ou a possibilidade da inclusão de componentes de improvisação nesta arquitetura. Para resolver problemas complexos, estes agentes precisam estar agrupados em sociedades e estas sociedades, por sua vez, precisam produzir comportamentos coerentes. A coordenação é a área da Inteligência Artificial responsável por este objetivo. Propomos que a coordenação de agentes que improvisam pode ser realizada por meio de um processo de direção improvisacional, no sentido usado no contexto do teatro improvisacional. Ao longo deste documento, iremos mostrar nosso entendimento sobre agentes improvisacionais como agentes deliberativos e coordenação como direção improvisacional. Com isto, defende-se nesta tese que o uso da improvisação em agentes improvisacionais possibilita que os agentes improvisem comportamentos interativos, de maneira coerente, melhorando seu desempenho como solucionadores de problemas, criando e mantendo uma ilusão de vida para os agentes interativos e contribuindo para o aperfeiçoamento dos sistemas multiagentes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Coordenação Modular pode ser entendida como a ordenação dos espaços na construção civil. Surgiu entre a Primeira (1914-1918) e a Segunda (1939-1945) Guerras Mundiais e contribuiu de forma fundamental na reconstrução de edificações residenciais nos países destruídos pela guerra, principalmente na Alemanha, em função da rapidez e da redução de custos proporcionadas pela sua utilização. A partir de então, muitos estudos surgiram, aprofundando o assunto e mostrando os imensos benefícios que a Coordenação Modular trouxe para a racionalização e a industrialização na construção civil em um grande número de países, sendo amplamente difundida e, hoje se sabe, utilizada. O Brasil foi um dos pioneiros, em nível mundial, a aprovar uma norma de Coordenação Modular, a NB-25R, em 1950, tendo os anos 70 e início dos 80 tomados por seus conceitos e estudos a respeito. Apesar disso, poucos objetivos foram alcançados mesmo com toda a promoção para a racionalização da construção. As atuais preocupações com as questões ambientais, de produtividade e de redução de custos no setor são aliados para uma retomada dos estudos de Coordenação Modular, que se mostra como um fator fundamental para que se traga à construção civil os benefícios que a industrialização trouxe a outros setores industriais. Foi realizado um levantamento histórico, em que são abordadas as questões relativas ao uso do módulo na arquitetura e sua evolução até a Coordenação Modular, os princípios e conceitos mais importantes de sua teoria e as ações realizadas em favor de sua implantação no Brasil As últimas ações identificadas foram as normas publicadas em 1982, pouco antes do fechamento do Banco Nacional da Habitação, até então o principal incentivador da Coordenação Modular. Em seguida a esse hiato de duas décadas em que ficou praticamente esquecida, estudou-se a situação atual da indústria da construção civil sob alguns aspectos e partiu-se em busca do que pode ser feito para a implementação da Coordenação Modular no país. Chegou-se à conclusão de que, apesar dos entraves existentes, o Programa Brasileiro de Produtividade e Qualidade no Habitat (PBQP-H) mostra-se como um instrumento propício para essa implementação, pois, além de contar com o suporte estatal, tem influência sobre todos os intervenientes da cadeia produtiva.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste trabalho é apresentar um modelo eficiente de representação de conhecimento que é construído a partir de relações de causa e efeito entre percepções e ações. Assume-se que é possível perceber o ambiente, é necessário fazer decisões mediante incerteza, é possível perceber a realimentação (feedback) referente ao sucesso ou fracasso das ações escolhidas, e é possível aprender com a experiência. Nós descrevemos uma arquitetura que integra o processo de percepção do ambiente, detecção de contexto, tomada de decisão e aprendizagem, visando obter a sinergia necessária para lidar com as dificuldades relacionadas. Além da descrição da arquitetura, é apresentada de forma sucinta uma metodologia chamada Computação Contextual, composta por duas fases principais: Definição e Operação. A fase de Definição envolve o projeto e modelagem de: i) Os subespaços de conhecimento conceitual e canônico; e ii) As regras de crescimento dinâmico. A fase de Operação complementa (isto é, estende e adapta) as definições iniciais através da aprendizagem feita pela interação com o ambiente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O fornecimento de facilidades de QoS em redes de computadores tem por objetivo introduzir níveis das garantias que são ausentes, por exemplo, no paradigma de melhor-esforço das redes IP. Diferentes arquiteturas de QoS possuem padrões diferentes para os serviços fornecidos, que conduzem a um cenário em que a QoS prevista não possa ser sempre fornecida corretamente pela arquitetura utilizada. Neste contexto, uma monitoração da QoS é necessária para verificar a QoS observada e para compará-la com a QoS esperada/ contratada. Em uma rede que utilize gerenciamento baseado em políticas, a QoS esperada é definido pelas políticas que regem o comportamento da rede. O Internet Engineering Task Force (IETF) tem padronizado vários elementos para um sistema de gerenciamento de redes baseado em políticas (PBNM), no qual políticas são definidas utilizando-se linguagem de alto nível, armazenadas em repositórios para políticas, aplicadas com o auxilio de Policy Decision Points (PDPs) e mantidas por Enforcement Points (PEPs). Pela definição do IETF, uma vez que uma política é aplicada com sucesso, o sistema de PBNM não mais checará o comportamento desta, e a QoS definida é assumida com a fornecida pela rede. De fato, isso nem sempre é verdade. A arquitetura da qual provém a QoS pode apresentar-se instável ou mediante problemas, logo a QoS esperada não seria atingida. Para verificar a degradação na QoS em ambientes de gerenciamento reais, atualmente, o administrador da rede monitora a rede e determina a QoS fornecida. Tal QoS é, por sua vez, manualmente comparada com a QoS definida pelas políticas de rede. Finalmente, se diferenças são encontradas, o administrador procede com medidas que levem a arquitetura a um estado consistente Nos dias de hoje, as definições e aplicações de políticas e monitoração de QoS são tarefas executadas separadamente pelas soluções disponíveis. Além disso, como demonstrado anteriormente, a verificação da QoS fornecida contra a QoS definida pelas políticas da rede é deixada a cargo do administrador da rede. Nesse contexto, a automação da monitoração das políticas de QoS e a integração entre as tarefas citadas são necessárias do ponto de vista do administrador da rede. Nesta dissertação, é proposta uma definição (e um sistema) para a monitoração de QoS em que as definições de políticas são dados de entrada utilizados para checar a QoS observada. No momento em que uma degradação na QoS é detectada, o sistema de monitoração notifica um gerente com suporte a SNMP utilizando mensagens do tipo InformRequest. A arquitetura do sistema é dividida internamente em monitores de QoS e controladores de monitores de QoS. Cada controlador de monitor de QoS controla vários monitores de QoS, os quais coletam dados da rede. Tais dados são comparados com as políticas traduzidas pelo controlador, e, caso sejam detectadas degradações, o controlador de monitor de QoS notifica o gerente. A comunicação entre controlador de monitores de QoS e monitores de QoS também é baseada em SNMP. O principal objetivo do trabalho é fornecer uma solução que integre monitoração de QoS e PBNM em um único ambiente de gerenciamento.