119 resultados para Seguranca : Computadores


Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho, através da interdisciplinaridade entre Sistemas de Informação e Marketing, foi desenvolvido com o objetivo de fornecer uma avaliação do grau de satisfação do cliente bancário, pessoa-física, com a utilização das tecnologias de informática e telecomunicações na realização dos serviços bancários, na cidade de Porto Alegre. Foram consideradas como tecnologias da informação os terminais de autoatendimento, Automated Teller Machines (ATMs) para saques e depósitos, cash-dispenser, terminais de depósitos, terminais de extratos e saldos e dispensadores de cheques, localizados em agências, ante-salas de agências, quiosques em locais públicos e em postos de atendimento, e centrais telefônicas com atendimento humano e URA (Unidade de Resposta Audível). O método seguido foi o proposto por ROSSI & SLONGO (1998), com duas etapas distintas, uma exploratória e a outra descritiva. Os indicadores de satisfação foram selecionados através de levantamento de dados secundários. A pesquisa foi realizada nos meses de julho e agosto 2000, nas salas de auto-serviço do Banco do Brasil. Os clientes entrevistados deveriam estar familiarizados com os serviços telefônicos da empresa pesquisada e terem realizado alguma transação nos terminais de autoatendimento. Para as análises da pesquisa, foram considerados fatores sobre postos de auto-atendimento, processamento de transações, comunicação com clientes, segurança, atendimento nas centrais telefônicas e erros relacionados a computadores. Concluiu-se que o Banco do Brasil está muito bem posicionado quanto à satisfação de seus clientes no que se refere às centrais telefônicas e auto-atendimento, ao seu site Internet Banking e à empresa como um todo. Todos com uma satisfação próxima ao nível máximo. Através de técnicas estatísticas, identificou-se que o indicador que trata de “pagamentos de contas, taxas e tributos nos terminais de auto-atendimento” recebeu o maior índice de satisfação, assim como o fator comunicação com clientes; e o indicador “agilidade na solução e problemas registrados nas centrais telefônicas” recebeu o maior índice de importância, assim como o fator postos de auto-atendimento. Assim, analisou-se, definiu-se e realizouse um modelo para avaliação da satisfação do cliente com as tecnologias da informação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O avanço tecnológico no projeto de microprocessadores, nos recentes anos, tem seguido duas tendências principais. A primeira tenta aumentar a freqüência do relógio dos mesmos usando componentes digitais e técnicas VLSI mais eficientes. A segunda tenta explorar paralelismo no nível de instrução através da reorganização dos seus componentes internos. Dentro desta segunda abordagem estão as arquiteturas multi-tarefas simultâneas, que são capazes de extrair o paralelismo existente entre e dentro de diferentes tarefas das aplicações, executando instruções de vários fluxos simultaneamente e maximizando assim a utilização do hardware. Apesar do alto custo da implementação em hardware, acredita-se no potencial destas arquiteturas para o futuro próximo, pois é previsto que em breve haverá a disponibilidade de bilhões de transistores para o desenvolvimento de circuitos integrados. Assim, a questão principal a ser encarada talvez seja: como prover instruções paralelas para uma arquitetura deste tipo? Sabe-se que a maioria das aplicações é seqüencial pois os problemas nem sempre possuem uma solução paralela e quando a solução existe os programadores nem sempre têm habilidade para ver a solução paralela. Pensando nestas questões a arquitetura SEMPRE foi projetada. Esta arquitetura executa múltiplos processos, ao invés de múltiplas tarefas, aproveitando assim o paralelismo existente entre diferentes aplicações. Este paralelismo é mais expressivo do que aquele que existe entre tarefas dentro de uma mesma aplicação devido a não existência de sincronismo ou comunicação entre elas. Portanto, a arquitetura SEMPRE aproveita a grande quantidade de processos existentes nas estações de trabalho compartilhadas e servidores de rede. Além disso, esta arquitetura provê suporte de hardware para o escalonamento de processos e instruções especiais para o sistema operacional gerenciar processos com mínimo esforço. Assim, os tempos perdidos com o escalonamento de processos e as trocas de contextos são insignificantes nesta arquitetura, provendo ainda maior desempenho durante a execução das aplicações. Outra característica inovadora desta arquitetura é a existência de um mecanismo de prébusca de processos que, trabalhando em cooperação com o escalonamento de processos, permite reduzir faltas na cache de instruções. Também, devido a essa rápida troca de contexto, a arquitetura permite a definição de uma fatia de tempo (fatia de tempo) menor do que aquela praticada pelo sistema operacional, provendo maior dinâmica na execução das aplicações. A arquitetura SEMPRE foi analisada e avaliada usando modelagem analítica e simulação dirigida por execução de programas do SPEC95. A modelagem mostrou que o escalonamento por hardware reduz os efeitos colaterais causados pela presença de processos na cache de instruções e a simulação comprovou que as diferentes características desta arquitetura podem, juntas, prover ganho de desempenho razoável sobre outras arquiteturas multi-tarefas simultâneas equivalentes, com um pequeno acréscimo de hardware, melhor aproveitando as fatias de tempo atribuídas aos processos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

No projeto de arquiteturas computacionais, a partir da evolução do modelo cliente-servidor, surgiram os sistemas distribuídos com a finalidade de oferecer características tais como: disponibilidade, distribuição, compartilhamento de recursos e tolerância a falhas. Estas características, entretanto, não são obtidas de forma simples. As aplicações distribuídas e as aplicações centralizadas possuem requisitos funcionais distintos; aplicações distribuídas são mais difíceis quanto ao projeto e implementação. A complexidade de implementação é decorrente principalmente da dificuldade de tratamento e de gerência dos mecanismos de comunicação, exigindo equipe de programadores experientes. Assim, tem sido realizada muita pesquisa para obter mecanismos que facilitem a programação de aplicações distribuídas. Observa-se que, em aplicações distribuídas reais, mecanismos de tolerância a falhas constituem-se em uma necessidade. Neste contexto, a comunicação confiável constitui-se em um dos blocos básicos de construção. Paralelamente à evolução tanto dos sistemas distribuídos como da área de tolerância a falhas, foi possível observar também a evolução das linguagens de programação. O sucesso do paradigma de orientação a objetos deve-se, provavelmente, à habilidade em modelar o domínio da aplicação ao invés da arquitetura da máquina em questão (enfoque imperativo) ou mapear conceitos matemáticos (conforme o enfoque funcional). Pesquisadores demonstraram que a orientação a objetos apresenta-se como um modelo atraente ao desenvolvimento de aplicações distribuídas modulares e tolerantes a falhas. Diante do contexto exposto, duas constatações estimularam basicamente a definição desta dissertação: a necessidade latente de mecanismos que facilitem a programação de aplicações distribuídas tolerantes a falhas; e o fato de que a orientação a objetos tem-se mostrado um modelo promissor ao desenvolvimento deste tipo de aplicação. Desta forma, nesta dissertação definem-se classes para a comunicação do tipo unicast e multicast, nas modalidades de envio confiável e não-confiável. Além destes serviços de comunicação básicos, foram desenvolvidas classes que permitem referenciar os participantes da comunicação através de nomes. As classes estão organizadas na forma de um pacote, compondo um framework. Sua implementação foi desenvolvida usando Java. Embora não tivessem sido requisitos básicos, as opções de projeto visaram assegurar resultados aceitáveis de desempenho e possibilidade de reuso das classes. Foram implementados pequenos trechos de código utilizando e testando a funcionalidade de cada uma das classes de comunicação propostas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho foi desenvolvido com o objetivo de fornecer uma avaliação do grau de satisfação do cliente bancário, pessoa-física, com a utilização das tecnologias da informação e do auto-atendimento na realização dos serviços bancários, na cidade de Lajeado. Foram consideradas como tecnologias da informação os terminais de auto -atendimento, Automated Teller Machines (ATMs) para saques e depósitos, cash-dispenser, terminais de depósitos, terminais de extratos e saldos e dispensadores de cheques, localizados em agências, salas de auto-atendimento, quiosques em locais públicos e em pontos de atendimento. O método seguido foi o proposto por ROSSI & SLONGO (1998), com duas etapas distintas, uma exploratória e a outra descritiva. Os indicadores de satisfação foram selecionados através de levantamento de dados secundários e entrevistas de profundidade. A pesquisa foi realizada nos meses de junho e julho de 2001, nas salas de auto-serviço do Banco do Brasil. Os clientes entrevistados deveriam ter realizado alguma transação nos terminais de auto-atendimento. Para as análises da pesquisa, foram considerados fatores sobre pontos de auto-atendimento, processamento de transações, comunicação com clientes, segurança e erros relacionados a computadores. Concluiu-se que o Banco do Brasil está muito bem posicionado quanto à satisfação de seus clientes no que se refere ao autoatendimento. Todos com uma satisfação próxima ao nível máximo. Através de técnicas estatísticas, identificou-se que o indicador que trata da “ rapidez e facilidade para retirar dinheiro” recebeu o maior índice de satisfação, assim como o bloco comunicação com clientes; e o indicador “emissão dos comprovantes das transações realizadas ” recebeu o maior índice de importância, assim como o bloco comunicação com os clientes. Assim, analisou-se, definiu-se e realizou-se um modelo para avaliação da satisfação do cliente com as tecnologias da informação nos serviços bancários.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

No presente trabalho apresenta-se um estudo numérico do escoamento de ar em um ambiente interno tridimensional típico, sujeito a um sistema de ventilação por deslocamento. O estudo numérico consiste na obtenção dos campos de velocidade e temperatura presentes no interior deste ambiente. A determinação dos campos de velocidade e temperatura é necessária na avaliação precisa das condições de conforto térmico, produzidas por um determinado sistema de climatização. Este tipo de estudo não serve somente para determinar a viabilidade da aplicação de um determinado sistema de distribuição de ar, mas através dele também se pode determinar as condições ótimas de uso deste sistema. De forma crescente observa-se o interesse dos projetistas de ar condicionado em aperfeiçoar as suas técnicas de cálculo, de modo que a simulação numérica poderá tornar-se uma técnica usual em pouco tempo. Atualmente duas técnicas estão disponíveis para o estudo do escoamento de ar em ambientes internos: investigação experimental e simulação numérica. Em princípio, medidas diretas dão informações mais realísticas relativas ao escoamento do ar interno, contudo, medições experimentais são muito caras e consomem muito tempo, inviabilizando a sua aplicação caso a caso. Devido às limitações da investigação experimental e à disponibilidade de computadores cada vez mais rápidos, o uso da simulação numérica surge como uma opção considerável nos dias de hoje O método de solução numérica, utilizado no presente trabalho, baseia-se na resolução das equações de conservação de massa, de quantidade de movimento e de energia, em um domínio de cálculo discretizado com o uso do Método dos Volumes Finitos. Os efeitos da turbulência são levados em conta através da utilização do modelo de turbulência K- ε e de um modelo de turbulência simplificado. Resultados bem convergidos para o problema abordado somente são obtidos com a utilização do modelo de turbulência simplificado. As simulações numéricas apresentadas no presente trabalho foram realizadas com o uso do código Fluent. Com base na comparação dos resultados numéricos obtidos no presente trabalho e os resultados experimentais de Yuan et al., 1999a, pode-se concluir que o modelo simplificado é adequado, ao menos provisoriamente, para determinar a distribuição de velocidade e de temperatura no escoamento de ar em ambientes internos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Problemas de escalonamento ocorrem com freqüência, principalmente em empresas de manufatura. Entretanto, na maioria das vezes, ferramentas matemáticas de apoio à decisão são pouco utilizadas, pois requerem profissionais capacitados, softwares caros e computadores muito potentes. Esta dissertação tem como objetivo mostrar uma heurística capaz de reduzir a quantidade de fôrmas na indústria calçadista. Inicialmente, foram comparadas as soluções fornecidas pela heurística com as soluções obtidas a partir do modelo matemático de programação linear, com a finalidade de verificar o quão próximas estão ambas as respostas. Em seguida, foram comparadas a solução fornecida pela heurística e a solução presentemente adotada por uma empresa de calçados denominada de Empresa de Calçados X. Os principais resultados obtidos foram: a) o resultado fornecido pela heurística apresenta menos de 10% de acréscimo no número de pares de fôrmas em relação ao resultado fornecido pelo modelo matemático de programação linear inteira tipo 0/1; b) a solução fornecida pela heurística reduz, em média, 23,4% a quantidade de fôrmas necessárias, podendo chegar próximo a 40%. Isto pode trazer uma estimativa de redução anual na ordem de R$ 288.100,00; c) o percentual de redução na quantidade de pares de fôrmas é variável, dependendo de cada caso.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A área de gerência de rede cresce à medida que redes mais seguras e menos vulneráveis são necessárias, e as aplicações que concorrem pelo seu uso, necessitam de alta disponibilidade e qualidade de serviço. Quando estamos focando a gerência da infra-estrutura física das redes de computadores, por exemplo, a taxa de uso de um segmento de rede, podemos dizer que esse tipo de gerenciamento encontra-se em um patamar bastante sedimentado e testado. Por outro lado, há ainda lacunas para pesquisar na área de gerenciamento de protocolos de alto nível. Entender o comportamento da rede como um todo, conhecer quais hosts mais se comunicam, quais aplicações geram mais tráfego e, baseado nessas estatísticas, gerar uma política para a distribuição de recursos levando em consideração as aplicações críticas é um dever nas redes atuais. O grupo de trabalho IETF RMON padronizou, em 1997, a MIB RMON2. Ela foi criada para permitir a monitoração de protocolos das camadas superiores (rede, transporte e aplicação), a qual é uma boa alternativa para realizar as tarefas de gerenciamento recém mencionadas. Outro problema para os gerentes de rede é a proliferação dos protocolos de alto nível e aplicações corporativas distribuídas. Devido a crescente quantidade de protocolos e aplicações sendo executados sobre as redes de computadores, os softwares de gerenciamento necessitam ser adaptados para serem capazes de gerenciá-los. Isso, atualmente, não é fácil porque é necessário usar linguagens de programação de baixo nível ou atualizar o firmware dos equipamentos de monitoração, como ocorre com os probes RMON2. Considerando este contexto, esse trabalho propõe o desenvolvimento de um agente RMON2 que contemple alguns grupos dessa MIB. O agente baseia-se na monitoração protocolos de alto nível e aplicações que são executados sobre o IP (Internet Protocol) e Ethernet (na camada de enlace). Além da implementação do agente, o trabalho apresenta um estudo de como obter estatísticas do agente RMON2 e usá-las efetivamente para gerenciar protocolos de alto nível e aplicações.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo desta tese é elaborar e testar um modelo para análise de organizações que operem em espaço cibernético. O trabalho faz uma revisão da literatura do contexto evolutivo das formas organizacionais, buscando a melhor visualização do ponto de inserção da Organização Virtual na teoria da Administração. Após esta revisão de literatura, preliminarmente à apresentação do modelo teórico para análise da Organização Virtual, trabalha-se sobre o conceito de Espaço Cibernético, explicitando os fundamentos teóricos que regem as ações e relações estabelecidas nas grandes redes atuais de computadores. A Internet é usada como exemplo de Espaço Cibernético. O estudo mostra algumas das principais características do Espaço Cibernético, o qual, sendo um espaço sistêmico, tem propriedades que se entrelaçam e interagem. Como, no âmbito da Administração, tais características podem ser exploradas? A resposta é delineada no esboço da Organização Virtual, cujo conceito é revisado. A resposta é delineada no esboço da Organização Virtual, cujo conceito é revisado. Suas características estruturais são: a existência de funções ativas sem funcionários, o resgate da confiança, a existência de fluxos distintos de autoridade, o cruzamento dos fluxos de informação e a integração entre atividades administrativas e operacionais. Suas características funcionais são: a existência de processos virtualizados, o pequeno porte físico, a proximidade ao mercado, a flexibilidade de resposta, o ciclo de produção abreviado, a fractalidade, a confiabilidade e o aprendizado organizacional. O modelo teórico de análise da Organização Virtual foi testado a campo em estudo de múltiplo caso. Os resultados indicam a aplicabilidade e adequação do modelo proposto, confirmando a emergência da organização Virtual no Espaço Cibernético.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A presente Dissertação propõe uma biblioteca de comunicação de alto desempenho, baseada em troca de mensagens, especificamente projetada para explorar eficientemente as potencialidades da tecnologia SCI (Scalable Coherent Interface). No âmago da referida biblioteca, a qual se denominou DECK/SCI, acham-se três protocolos de comunicação distintos: um protocolo de baixa latência e mínimo overhead, especializado na troca de mensagens pequenas; um protocolo de propósito geral; e um protocolo de comunicação que emprega uma técnica de zero-copy, também idealizada neste Trabalho, no intuito de elevar a máxima largura de banda alcançável durante a transmissão de mensagens grandes. As pesquisas desenvolvidas no decurso da Dissertação que se lhe apresenta têm por mister proporcionar um ambiente para o desenvolvimento de aplicações paralelas, que demandam alto desempenho computacional, em clusters que se utilizam da tecnologia SCI como rede de comunicação. A grande motivação para os esforços envidados reside na consolidação dos clusters como arquiteturas, a um só tempo, tecnologicamente comparáveis às máquinas paralelas dedicadas, e economicamente viáveis. A interface de programação exportada pelo DECK/SCI aos usuários abarca o mesmo conjunto de primitivas da biblioteca DECK (Distributed Execution Communication Kernel), concebida originalmente com vistas à consecução de alto desempenho sobre a tecnologia Myrinet. Os resultados auferidos com o uso do DECK/SCI revelam a eficiência dos mecanismos projetados, e a utilização profícua das características de alto desempenho intrínsecas da rede SCI, haja visto que se obteve uma performance muito próxima dos limites tecnológicos impostos pela arquitetura subjacente. Outrossim, a execução de uma clássica aplicação paralela, para fins de validação, testemunha que as primitivas e abstrações fornecidas pelo DECK/SCI mantêm estritamente a mesma semântica da interface de programação do original DECK.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Diante das atuais tendências de busca da eficiência, muitas vezes através de grandes investimentos em novas tecnologias, em infra-estrutura, em recursos humanos, entre outros, objetiva a presente pesquisa apresentar uma forma de mensurar a eficiência relativa que os diversos níveis de recursos utilizados possam, ou não, trazer às Escrivanias de Paz do Estado de Santa Catarina. Através da técnica “Data Envelopment Analisys” - DEA (Análise Envoltória de Dados), busca-se mostrar as relações que os diversos níveis de recursos possam ou não trazer na performance de cada empresa de forma relativa umas as outras. A pesquisa de campo busca levantar os diversos inputs, como instalações físicas, quantidade de funcionários, tempo médio de serviço dos funcionários, quantidade de linhas telefônicas, equipamentos de fax, copiadoras, computadores e software e os diversos outputs, como escrituras, procurações, autenticações, reconhecimentos de firmas, casamentos, nascimentos e óbitos existentes em cada uma das 266 Escrivanias de Paz do estado. Acredita-se que os procedimentos utilizados revelam-se como um instrumento de apoio decisório para essas empresas, além de mostrar as diferenças de desempenho organizacional com a utilização de diversos níveis de recursos. Os resultados obtidos através das analises, demonstram os principais pontos que devem sofrer alterações nas escrivanias não eficientes com relação ao conjunto. Estes pontos norteiam rumos de ações aos dirigentes para melhoria da eficiência destas empresas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho descreve uma implementação de um modelo de escalonamento para a linguagem de programação DPC++. Esta linguagem, desenvolvida no Instituto de Informática da UFRGS, possibilita que uma aplicação orientada a objetos seja distribuída entre vários processadores através de objetos distribuídos. Muito mais que uma simples biblioteca de comunicação, o DPC ++ torna a troca de mensagens totalmente transparente aos objetos. A integração do DPC++ com o DECK, também em desenvolvimento, trará grandes inovações ao DPC++, principalmente pelo uso de theads. O escalonador proposto para este modelo utiliza estes recursos para implantar os chamados processos espiões, que monitoram a carga de uma máquina, enviando seus resultados ao escalonador. O escalonador implementado possui, desta forma, dois módulos: objetos espiões implementados como um serviço do DECK e o escalonador propriamente dito, incluído no objeto Diretório, parte integrante do DPC++.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O uso da recuperação de processos para obter sistemas computacionais tolerantes a falhas não é um assunto novo. Entretanto, a discussão de algoritmos para a recuperação em sistemas distribuídos, notadamente aqueles que se enquadram na categoria assíncrona, ainda encontra pontos em aberto. Este é o contexto do presente trabalho. Este trabalho apresenta um novo algoritmo de recuperação por retorno, em sistemas distribuídos. O algoritmo proposto é do tipo coordenado, e seus mecanismos componentes determinam que seja classificado como um algoritmo baseado em índices (index-based coordinated). Desta forma, a tolerância a falhas é obtida através do estabelecimento de linhas de recuperação, o que possibilita um retorno consideravelmente rápido, em caso de falha. Seu desenvolvimento foi feito com o objetivo de minimizar o impacto ao desempenho do sistema, tanto quando este estiver operando livre de falhas como quando ocorrerem as falhas. Além disso, os mecanismos componentes do algoritmo foram escolhidos visando facilitar a futura tarefa de implementação. A satisfação dos objetivos decorre principalmente de uma importante característica assegurada pelos mecanismos propostos no algoritmo: o não bloqueio da aplicação, enquanto é estabelecida uma nova linha de recuperação. Esta característica, associada ao rápido retorno, oferece uma solução promissora, em termos de eficiência, para a recuperação, um vez que o impacto no desempenho tende a ser reduzido, quando o sistema encontra-se operando em ambas condições: livre de erros ou sob falha. Diferentemente da maioria dos algoritmos coordenados encontrados na literatura, o algoritmo proposto neste trabalho trata as mensagens perdidas. A partir da análise das características das aplicações, bem como dos canais de comunicação, quando estes interagem com o algoritmo de recuperação, concluiu-se que os procedimentos usados para recuperação de processos devem prever o tratamento desta categoria de mensagens. Assim, o algoritmo proposto foi incrementado com um mecanismo para tratamento das mensagens que têm o potencial de tornarem-se perdidas, em caso de retorno, ou seja, evita a existência de mensagens perdidas. Uma das decisões tomadas durante o desenvolvimento do algoritmo foi a de permitir um processamento não determinístico. Na realidade, esta escolha visou o aumento do espectro das falhas que poderiam ser tratadas pela recuperação. Tradicionalmente, a recuperação por retorno é empregada para tolerar falhas temporárias. Entretanto, a diversidade de ambiente, freqüente nos SDs, também pode ser usada para tolerar algumas falhas permanentes. Para verificar a correção do algoritmo, decidiu-se empregar um formalismo existente. Assim, a lógica temporal de Lamport (TLA) foi usada na especificação dos mecanismos do algoritmo bem como em sua demonstração de correção. O tratamento referente às mensagens perdidas, atrav´es do uso de mensagens de resposta, associado com o uso de uma lógica temporal, levou à necessidade de rever os critérios de consistência. Esta revisão gerou um conjunto de fórmulas de consistência ajustadas à existência de mensagens de diferentes classes: mensagens da aplicação e mensagens de resposta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Acredita-se que no futuro as redes de telecomunicação e dados serão integradas em uma só rede, baseada na comutação de pacotes IP. Esta rede deverá oferecer serviços com qualidade (QoS) para as aplicações atuais e futuras. Uma das tecnologias que deverá ser adotada no núcleo desta nova rede é MPLS. MPLS introduz o conceito de switching (comutação) no ambiente IP e também permite que seja implementada a Engenharia de Tráfego, otimizando sua utilização através do roteamento baseado em restrições. Junto com MPLS outras arquiteturas para fornecimento de QoS, como Serviços Integrados e Serviços Diferenciados, serão utilizadas. Entretanto, como nenhuma delas atende a todos os requisitos para garantia de QoS fim a fim e levando-se em consideração o fato de a Internet ser uma rede heterogênea, surge a necessidade de um framework que permita a interoperabilidade das diferentes arquiteturas existentes. Neste trabalho é proposto um modelo de integração que fornece garantias de QoS fim a fim para redes que utilizam tanto Serviços Integrados como Serviços Diferenciados através do emprego de uma infra-estrutura baseada em MPLS e Serviços Diferenciados. A aplicabilidade do modelo foi testada no simulador ns2 e os resultados são apresentados neste trabalho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A informática vem adquirindo papéis cada vez mais importantes na vida cotidiana. Um dos papéis mais significativos, hoje, é o suporte a comunicações; atualmente, é muito difícil pensar em comunicações – mesmo interpessoais – sem fazer associação às áreas de informática e redes. Dentre as aplicações que utilizam informática e redes como suporte, a tecnologia de videoconferência tem recebido papel de destaque. Os avanços na tecnologia de redes e conectividade, aliados à padronização e à crescente oferta de produtos de videoconferência, têm aumentado a aplicabilidade e a popularidade destes produtos, sobretudo utilizados sobre arquitetura de redes TCP/IP. Trata-se de uma tecnologia atraente em termos de resultado, por agregar, além do áudio – recurso comum há muito tempo como suporte à comunicação – os recursos de vídeo e aplicações integradas (como quadro-branco compartilhado, Chat, troca de arquivos e outros). Contudo, essas aplicações são bastante exigentes, tanto em termos de banda quanto de qualidade de serviço (QoS) da rede. O primeiro item se justifica pelo volume de dados gerados pelas aplicações de videoconferência; o segundo, pela significativa influência que os problemas de qualidade da infraestrutura de rede (como elevada latência, jitter e descartes) podem exercer sobre tais aplicações. A busca para as soluções destes problemas não é tarefa simples, pois muitas vezes envolve investimentos que desencorajam a adoção da tecnologia de videoconferência – principalmente para uso pessoal ou por empresas pequenas. Este trabalho propõe uma solução aos problemas mencionados, visando proporcionar uma melhor aceitação e maior disseminação da tecnologia de videoconferência, valendo-se de recursos com pouca demanda de investimento. A estratégia abordada é a adaptação de tráfego, com um enfoque diferenciado: o de levar em conta, para cada aplicação, o comportamento que o processo de adaptação apresentasse. A partir dessa orientação, é proposto um modelo de adaptação de tráfego orientado ao perfil da aplicação, voltado ao interesse do usuário, e que disponibilize uma forma ao mesmo tempo simples e eficiente para que o usuário realize a adequação do mecanismo de adaptação do sistema às suas necessidades e expectativas. A partir desta proposta, foi implementado um protótipo de aplicação, com o objetivo de verificar a funcionalidade do modelo em termos práticos. As observações dos resultados dos testes, bem como as conclusões geradas, serviram como validação da proposta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A crescente complexidade das aplicações, a contínua evolução tecnológica e o uso cada vez mais disseminado de redes de computadores têm impulsionado os estudos referentes ao desenvolvimento de sistemas distribuídos. Como estes sistemas não podem ser facilmente desenvolvidos com tecnologias de software tradicionais por causa dos limites destas em lidar com aspectos relacionados, por exemplo, à distribuição e interoperabilidade, a tecnologia baseada em agentes parece ser uma resposta promissora para facilitar o desenvolvimento desses sistemas, pois ela foi planejada para suportar estes aspectos, dentre outros. Portanto, é necessário também que a arquitetura dos ambientes de desenvolvimento de software (ADS) evolua para suportar novas metodologias de desenvolvimento que ofereçam o suporte necessário à construção de softwares complexos, podendo também estar integrada a outras tecnologias como a de agentes. Baseada nesse contexto, essa dissertação tem por objetivo apresentar a especificação de uma arquitetura de um ADS distribuído baseada em agentes (DiSEN – Distributed Software Engineering Environment). Esse ambiente deverá fornecer suporte ao desenvolvimento de software distribuído, podendo estar em locais geograficamente distintos e também os desenvolvedores envolvidos poderão estar trabalhando de forma cooperativa. Na arquitetura proposta podem ser identificadas as seguintes camadas: dinâmica, que será responsável pelo gerenciamento da (re)configuração do ambiente em tempo de execução; aplicação, que terá, entre os elementos constituintes, a MDSODI (Metodologia para Desenvolvimento de Software Distribuído), que leva em consideração algumas características identificadas em sistemas distribuídos, já nas fases iniciais do projeto e o repositório para armazenamento dos dados necessários ao ambiente; e, infra-estrutura, que proverá suporte às tarefas de nomeação, persistência e concorrência e incorporará o canal de comunicação. Para validar o ambiente será realizada uma simulação da comunicação que pode ser necessária entre as partes constituintes do DiSEN, por meio da elaboração de diagramas de use case e de seqüência, conforme a notação MDSODI. Assim, as principais contribuições desse trabalho são: (i) especificação da arquitetura de um ADS distribuído que poderá estar distribuído geograficamente; incorporará a MDSODI; proporcionará desenvolvimento distribuído; possuirá atividades executadas por agentes; (ii) os agentes identificados para o DiSEN deverão ser desenvolvidos obedecendo ao padrão FIPA (Foundation for Intelligent Physical Agents); (iii) a identificação de um elemento que irá oferecer apoio ao trabalho cooperativo, permitindo a integração de profissionais, agentes e artefatos.