54 resultados para Protocolos de comunicação
Resumo:
Esta dissertação aborda implicações das alternativas de comunicação oferecidas pela Internet na sociabilidade contemporânea. Para este estudo, foi desenvolvida pesquisa junto a usuários da Rede. A pesquisa Rotinas Digitais de Comunicação Pessoal buscou identificar alterações nas formas de comunicação interpessoal e mudanças nas rotinas comunicacionais do sujeito propiciadas por estas novas formas de comunicação, além de verificar implicações destas mudanças nas relações interpessoais. O suporte teórico da dissertação abordou aspectos referentes a tecnologia, informação, comunicação e sociabilidade, buscando subsídios teórico-metodológicos para a compreensão de características da sociabilidade contemporânea importantes para o alcance dos objetivos estabelecidos. Os resultados da investigação indicam que as novas alternativas para comunicação disponibilizadas pela Internet estão alterando as práticas comunicacionais dos indivíduos, incluindo no seu cotidiano rotinas digitais para o acesso à informação e aos meios de comunicação, para trabalho e para relacionamento social.
Resumo:
Replicação de objetos é usada para garantir uma maior disponibilidade de recursos em um sistema distribuído. Porém, com a replicação, surgem problemas como o controle da consistência das réplicas e onde estas réplicas devem estar posicionadas. A consistência é garantida por um protocolo de consistência de réplicas. Para facilitar a implementação dos protocolos de controle de réplicas, pode-se utilizar mecanismos de comunicação de grupo como suporte para a replicação. Outro problema importante que surge com a replicação é o posicionamento das réplicas. A carga de processamento em um sistema distribuído muda continuamente e num determinado instante pode ser necessário mudar a distribuição atual das réplicas pela adição de novas réplicas, remoção de réplicas desnecessárias ou pela mudança de posicionamento das réplicas. Um sistema de gerenciamento de réplicas pode realizar esta tarefa. Este trabalho apresenta o sistema RPM – Replica Placement Manager – responsável por fornecer ao serviço de gerenciamento de réplicas uma lista ordenada de nodos potencialmente ideais, num determinado momento do processamento, para receber uma réplica de um objeto. Esta lista é criada pelo RPM, considerando um pequeno conjunto de variáveis estáticas e dinâmicas, facilmente obtidas nos nodos do sistema distribuído.
Resumo:
Este trabalho é fruto de uma investigação que buscou elucidar a relação estabelecida entre os serviços de saúde e os seus usuários. Com esse objetivo, utilizou-se uma abordagem antropológica que teve como referência a experiência empírica ligada à Unidade Conceição do Serviço de Saúde Comunitária do Grupo Hospitalar Conceição, em Porto Alegre, RS. Funcionando nas dependências do Hospital Nossa Senhora Conceição, a Unidade Conceição é um posto de saúde vinculado ao Sistema Único de Saúde (SUS) em que médicos gerais comunitários e outros profissionais vêm prestando atendimento de saúde, há cerca de 15 anos, aos moradores da sua vizinhança, calculados atualmente em mais de 20 mil pessoas. Tendo como pano de fundo as influências da cultura no comportamento humano e na prestação de atendimento de saúde, os desdobramentos principais da relação entre a Unidade e os seus usuários foram analisados sob diversos eixos: a história da Unidade, seus conflitos com a instituição e outras especialidades médicas; a relação da Unidade com a área geográfica sob sua responsabilidade; a questão da participação popular nos serviços de saúde, mais especificamente a experiência do seu Conselho Gestor Local; e, por fim, a avaliação dos serviços de saúde, principalmente no que concerne à perspectiva dos pacientes. Sempre que possível, a análise feita procurou fazer uma ligação com as mudanças ocorridas no sistema de saúde brasileiro nos últimos anos. Resgatar os aspectos culturais como elemento essencial para o estabelecimento de uma comunicação efetiva entre os indivíduos e os serviços formais de saúde mostrou-se fundamental para permitir o aprofundamento desse tipo de análise e para qualificar as ações desenvolvidas pelos serviços de saúde.
Resumo:
O objetivo geral deste trabalho é identificar, através de uma pesquisa exploratória, quais são atualmente as principais estratégias de emprego da Internet como ferramenta de comunicação de marketing, analisando as estratégias mais utilizadas pelos 60 maiores anunciantes (ou maiores utilizadores da Internet como canal de comunicação publicitária) da Internet no Brasil (definidos na fase um deste trabalho - vide metodologia) sob os aspectos de quantidade e tipo de informação. Em seguida, é feita uma análise do conteúdo destes sites de acordo com os parâmetros apontados na revisão teórica, a fim de constatar se os anunciantes aplicam, mesmo que intuitivamente, as técnicas que seriam recomendadas em função da natureza e das características de seus produtos. Os dados coletados nesta pesquisa, depois de processados e analisados, deverão permitir ao final do trabalho responder à seguinte questão: Quando a utilização da Internet como ferramenta de marketing é mais indicada? Em quais situações e de que maneira?
Resumo:
A simulação paralela de eventos é uma área da computação que congrega grande volume de pesquisas, pela importância em facilitar o estudo de novas soluções nas mais diferentes áreas da ciência e tecnologia, sem a necessidade da construção de onerosos protótipos. Diversos protocolos de simulação paralela podem ser encontrados, divididos em dois grandes grupos de acordo com o algoritmo empregado para a execução em ordem dos eventos: os conservadores e os otimistas; contudo, ambos os grupos utilizam trocas de mensagens para a sincronização e comunicação. Neste trabalho, foi desenvolvido um novo protocolo de simulação paralela, fazendo uso de memória compartilhada, o qual foi implementado e testado sobre um ambiente de estações de trabalho, realizando, assim, simulação paralela com uso de memória compartilhada distribuída. O protocolo foi desenvolvido tendo como base de funcionamento os protocolos conservadores; utilizou diversas características dos mesmos, mas introduziu várias mudanças em seu funcionamento. Sua execução assemelha-se às dos protocolos de execução síncrona, utilizando conceitos como o lookahead e janelas de tempo para execução de eventos. A principal mudança que o novo protocolo sofreu foi proporcionada pelo acesso remoto à memória de um LP por outro, produzindo diversas outras nas funções relativas à sincronização dos processos, como o avanço local da simulação e o agendamento de novos eventos oriundos de outro LP. Um ganho adicional obtido foi a fácil resolução do deadlock, um dos grandes problemas dos protocolos conservadores de simulação paralela. A construção de uma interface de comunicação eficiente com uso de memória compartilhada é o principal enfoque do protocolo, sendo, ao final da execução de uma simulação, disponibilizado o tempo de simulação e o tempo de processamento ocioso (quantia utilizada em comunicação e sincronização). Além de uma implementação facilitada, propiciada pelo uso de memória compartilhada ao invés de trocas de mensagens, o protocolo oferece a possibilidade de melhor ocupar o tempo ocioso dos processadores, originado por esperas cada vez que um LP chega a uma barreira de sincronização. Em nenhum momento as modificações efetuadas infringiram o princípio operacional dos protocolos conservadores, que é não possibilitar a ocorrência de erros de causalidade local. O novo protocolo de simulação foi implementado e testado sobre um ambiente multicomputador de memória distribuída, e seus resultados foram comparados com dois outros simuladores, os quais adotaram as mesmas estratégias, com idênticas ferramentas e testados em um mesmo ambiente de execução. Um simulador implementado não utilizou paralelismo, tendo seus resultados sido utilizados como base para medir o speedup e a eficiência do novo protocolo. O outro simulador implementado utilizou um protocolo conservador tradicional, descrito na literatura, realizando as funções de comunicação e sincronização através de trocas de mensagens; serviu para uma comparação direta do desempenho do novo protocolo proposto, cujos resultados foram comparados e analisados.
Resumo:
A área de gerência de rede cresce à medida que redes mais seguras e menos vulneráveis são necessárias, e as aplicações que concorrem pelo seu uso, necessitam de alta disponibilidade e qualidade de serviço. Quando estamos focando a gerência da infra-estrutura física das redes de computadores, por exemplo, a taxa de uso de um segmento de rede, podemos dizer que esse tipo de gerenciamento encontra-se em um patamar bastante sedimentado e testado. Por outro lado, há ainda lacunas para pesquisar na área de gerenciamento de protocolos de alto nível. Entender o comportamento da rede como um todo, conhecer quais hosts mais se comunicam, quais aplicações geram mais tráfego e, baseado nessas estatísticas, gerar uma política para a distribuição de recursos levando em consideração as aplicações críticas é um dever nas redes atuais. O grupo de trabalho IETF RMON padronizou, em 1997, a MIB RMON2. Ela foi criada para permitir a monitoração de protocolos das camadas superiores (rede, transporte e aplicação), a qual é uma boa alternativa para realizar as tarefas de gerenciamento recém mencionadas. Outro problema para os gerentes de rede é a proliferação dos protocolos de alto nível e aplicações corporativas distribuídas. Devido a crescente quantidade de protocolos e aplicações sendo executados sobre as redes de computadores, os softwares de gerenciamento necessitam ser adaptados para serem capazes de gerenciá-los. Isso, atualmente, não é fácil porque é necessário usar linguagens de programação de baixo nível ou atualizar o firmware dos equipamentos de monitoração, como ocorre com os probes RMON2. Considerando este contexto, esse trabalho propõe o desenvolvimento de um agente RMON2 que contemple alguns grupos dessa MIB. O agente baseia-se na monitoração protocolos de alto nível e aplicações que são executados sobre o IP (Internet Protocol) e Ethernet (na camada de enlace). Além da implementação do agente, o trabalho apresenta um estudo de como obter estatísticas do agente RMON2 e usá-las efetivamente para gerenciar protocolos de alto nível e aplicações.
Resumo:
Técnicas de tolerância a falhas visam a aumentar a dependabilidade dos sistemas nos quais são empregadas. Entretanto, há necessidade de garantir a confiança na capacidade do sistema em fornecer o serviço especificado. A validação possui como objetivo propiciar essa garantia. Uma técnica de validação bastante utilizada é a injeção de falhas, que consiste na introdução controlada de falhas no sistema para observar seu comportamento. A técnica de injeção de falhas acelera a ocorrência de falhas em um sistema. Com isso, ao invés de esperar pela ocorrência espontânea das falhas, pode-se introduzi-las intencionalmente, controlando o tipo, a localização, o disparo e a duração das falhas. Injeção de falhas pode ser implementada por hardware, software ou simulação. Neste trabalho são enfocadas técnicas de injeção de falhas por software, desenvolvidas nos níveis da aplicação e do sistema operacional. O trabalho apresenta o problema da validação, através da injeção de falhas, de um protocolo de troca de pacotes. Enfoque especial é dado ao impacto resultante da inclusão de um módulo extra no protocolo, uma vez que o mesmo apresenta restrições temporais. O trabalho investiga alternativas de implementação de injetores de falhas por software que minimizem este impacto. Tais alternativas referem-se a localização do injetor de falhas no sistema, a forma de ativação das atividades do injetor de falhas e a operação de injeção de falhas em si. Um toolkit para experimentos de intrusão da injeção de falhas é apresentado. O alvo da injeção de falhas é um protocolo com característica tempo real. O toolkit desenvolvido, denominado INFIMO (INtrusiveless Fault Injector MOdule), visa a analisar, de forma experimental, a intrusão do injetor de falhas sobre o protocolo alvo. O INFIMO preocupa-se com protocolos com restrições temporais por esses constituírem um desafio sob o ponto de vista de injeção de falhas. O INFIMO suporta falhas de comunicação, as quais podem ocasionar a omissão de alguns pacotes. O INFIMO apresenta duas ferramentas de injeção de falhas: INFIMO_LIB, implementada no nível da aplicação e INFIMO_DBG implementada com auxílio de recursos do sistema operacional. Destacam-se ainda como contribuições do INFIMO a definição e a implementação do protocolo alvo para experimentos de injeção de falhas, o protocolo INFIMO_TAP. Além disso, o INFIMO apresenta métricas para avaliação da intrusão provocada pelo injetor de falhas no protocolo alvo.
Resumo:
Nos ultimos anos, com a crescente popularização das redes de computadores baseadas no protocolo IP, desde pequenas redes até metropolitanas começaram a se agrupar e a fazer do que hoje se conhece como a rede mundial de computadores.Apesar dos benefícios de comunicação e troca de informação da Internet, esse feômeno global também trouxe problemas de segurança, pois a origem e estrutura dos protocolos utilizados na comunicação entre as diversas máquinas limitam as possibilidades de prevenir, identificar ou detectar possíveis ataques ou intrusos. Assim, várias ferramentas surgiram para prevenir e auxiliar na tarefa de identicar problemas de segurança nas redes como firewalls, sniffers e sistemas de detecção de intrusão. Apesar dos benefícios trazidos por essas novas tecnologias, surgiram muitas dúvidas referentes a segurança que esses recursos proporcionam. Afinal, o desenvolvimento e validação desses sistemas são procedimentos bastante complexos e, freqüentemente, esses sitemas têm se tornado o alvo primário de um atacante. O resultado disso, não raramente, é uma falsa noção de segurança devido à utilização inadequada desses mecanismos, o que é, normalmente, mais prejudicial do que a simples inexistência de segurança em uma organização, mas cujas falhas são conhecidas por seus administradores. A realização de testes para verificação da segurança de uma organização é uma atividade fundamental a fim de alcançar um ambiente operacional seguro e de verificar a correta aplicação dos requisitos de segurança de uma organização.O uso de testes permite a uma empresa verificar com precisão a postura de segurança utilizada em seus sistemas ao mesmo tempo em que permite visualizar a sua rede da mesma maneira que um atacante a visualizaria. Ao visualizar a rede como atacante, pode-se verificar com que facilidade obtém-se informações da rede, quais suas fragilidades e a dificuldade que se tem para invadí-la. Assim, obtém-se uma visão mais realista da segurança de uma organização. Além de técnicas para a avaliação, é muito importante que se possua ferramentas para a realização desses testes. Assim, é possível automotizar a realização de testes e verificar com maior facilidade a existência de problemas em uma rede. A existência de ferramentas que testem sistemas de segurnaça é extremamente importante e necessária, pois, afinal, a segurança de toda uma rede pode depender fortemente de algum desses sistemas. Este trabalho apresenta as técncias existentes para a injecção de falhas visando verificar as que são mais eficientes para a valiação de sistemas de segurança de rede. Adicionalmente são apresentadas algumas técnicas para o teste de mecanismos de segurança e algumas ferramentas existentes para a realizão de tais testes. A partir desses estudos, é apresentado um modelo de ferramenta adequando as funções de um sistema de injeção de falhas ao teste de mecanismos de segurança em rede. Um protótipo essa ferramenta foi desenvolvido e é apresentado neste trabalho. Esse protótipo permite o envio e o recebimento de pacotes da pilha TCP/IP, podendo testar problemas em protocolos e sistemas utilizados na rede. E, através da utilização de plug-ins, permite que diversos tipos de ataque mais sofisticados possam ser realizados.
Resumo:
As redes de computadores experimentam um grande crescimento não apenas em tamanho, mas também no número de serviços oferecidos e no número de protocolos de alto nível e aplicações que são executados sobre elas. Boa parte desses software (ex.: ICQ e Napster), em geral, não está diretamente ligada a aplicações críticas, mas o seu uso não controlado pode degradar o desempenho da rede. Para que se possa medir o impacto dos mesmos sobre a infra-estrutura, mecanismos de gerência ligados à contabilização e caracterização de tráfego são desejáveis. Por outro lado, alguns protocolos, serviços e aplicações (ex. servidores DNS e Web) suportam aplicações e precisam ser monitorados e gerenciados com maior atenção. Para essa classe de software de rede, a simples contabilização e caracterização de tráfego não é suficiente; tarefas de gerência como teste de serviços, detecção e manipulação de falhas, medição de desempenho e detecção de intrusão são importantes para garantir alta disponibilidade e eficiência da rede e aplicações. As ferramentas existentes para essa finalidade são, entre aspectos, (a) não integradas (necessidade de uma ferramenta para monitorar cada aplicação), (b) centralizadas (não oferecem suporte à distribuição de tarefas de gerenciamento) e (c) pouco flexíveis (dificuldade em gerenciar novos protocolos, serviços e aplicações). Nesse contexto, a tese propõe uma arquitetura, centrada na monitoração passiva em temporal do tráfego de rede, para gerenciamento distribuído de protocolos de alto nível, serviços e aplicações em rede. Baseada da MIB (Management Information Base) Script do IETF (Internet Engineering Task Force), a arquitetura Trace oferece mecanismos para a delegação de tarefas de gerenciamento a gerentes intermediários, que interagem com agentes de monitoração e agentes de ação para executá-las. A tese propõe também PTSL (Protocol Trace Specification Language), uma linguagem gráfica/textual criada para permitir que gerentes de rede especificam as interações de protocolos (traços) que lhes interessam monitorar. As especificações são usadas pelso gerentes intermediários para programar os agentes de monitoração. Uma vez programadas, esses agentes passam a monitorar a ocorrência dos traços.As informações obtidas são analisadas pelos agentes intermediários, que podem requisitar de ação a execução de procedimentos (ex: scripts Perl), possibilitando a automação de diversas tarefas de gerenciamento. A arquitetura proposta é validada por um protótipo: a plataforma de gerenciamento Trace.
Resumo:
As ações de comunicação das empresas com seus públicos, exigem maior criatividade a todo o momento. Satisfazer os desejos de um consumidor cada vez mais consciente, é uma das razões que levam as empresas a ter presença constante nos veículos de comunicação. Porém, os altos custos da mídia tradicional estão afastando-as deste caminho, e levando-as a direcionar recursos para formas alternativas de relacionamento. Nesse contexto, surgem as entidades esportivas servindo como veículo de uma nova e criativa forma de comunicação, utilizada, ampliando os vínculos destas organizações com sua clientela. É crescente no mundo o número de organizações que vem destinando verbas promocionais para atividades esportivas. À ação de transferência desses recursos para eventos e entidades esportivas, com o intuito de promover as empresas, denominamos patrocínio esportivo. Porém, apesar do crescimento que se evidencia neste setor, ainda existe uma lacuna muito grande na academia. Os estudos científicos relacionados com o tema ainda são escassos e pouco difundidos. Nas últimas décadas, a partir dos anos 80, e de uma forma mais forte no fim da década de 90, nota-se um incremento nos trabalhos de pesquisa relacionados ao tema. Porém poucos pesquisadores direcionam suas atenções para a área, e isto trás como conseqüência muitas especulações em relação ao patrocínio, e poucas respostas concretas sobre o tema. Este estudo tem como objetivo, verificar possíveis razões que levam algumas empresas a patrocinar atividades esportivas, e os possíveis resultados colaborando assim, para o surgimento de formulações que permitam novos temas para pesquisa neste campo do conhecimento.
Resumo:
Neste trabalho são descritas a arquitetura e as propriedades características do protocolo PROFIBUS, nome dado a um entre os diversos protocolos existentes na área industrial. Utilizando uma versão do protocolo PROFIBUS desenvolvida no Laboratório de Instrumentação Eletro-Eletrônica da Universidade Federal do Rio Grande do Sul foi implementada uma rede composta por uma estação mestre e até 96 estações escravas. A fim de analisar o Tempo de Ciclo de Mensagem e o Tempo de Reação do Sistema foram realizados diversos testes, variando a taxa de comunicação utilizada, o tamanho dos quadros de comunicação e a quantidade de estações escravas que compunham a rede. No final foi feita uma comparação entre os valores práticos obtidos e valores calculados a partir de fórmulas teóricas. Os valores práticos obtidos possibilitam determinar a viabilidade da utilização desta rede em diversas aplicações reais.
Resumo:
O presente trabalho estuda a comunicação política governamental a partir do sistema de comunicação implantado pelo Governo Municipal de Porto Alegre, através da sua Coordenação de Comunicação Social, nas gestões 1989/92 e 1993/96, representantes de um projeto político denominado Administração Popular. Analisa a sua contribuição para a constituição de um novo modelo da referida comunicação e suas relações com o exercício de uma determinada cidadania. Utiliza o método histórico e documental. Apoia-se nos conceitos-chave de cidadania e democracia. Seu material empírico é constituído por documentos da Prefeitura Municipal, abrangendo formulações estratégicas, planos de governo, registros de seminários; documentos específicos sobre o setor de comunicação, abrangendo históricos, publicações, materiais gráficos e audiovisuais, planos de comunicação, campanhas publicitárias. Registra a ascensão ao governo municipal de uma frente política de esquerda, suas reeleições inéditas, sua projeção internacional sustentada, especialmente, por uma nova modalidade de administrar os investimentos públicos, denominada Orçamento Participativo. Descreve o perfil político-administrativo assumido pelos governos e a criação, a implantação, a centralização e as operações do setor de comunicação. Analisa a produção de ações estratégicas de comunicação e as decorrentes promoções da cidade, da cidadania e do modo de governar instaurado. Descreve as relações com a mídia, a monitoração sobre ela exercida, a utilização de meios próprios de comunicação e as medidas para a constituição de políticas públicas de comunicação.
Resumo:
Neste trabalho procuramos observar uma comunidade virtual no IRC (Internet Relay Chat), o canal #Pelotas. A partir de seu estudo, sob o viés da Grounded Theory, procuramos construir categorias básicas sobre diversos aspectos encontrados na comunidade, tais como questões de identidade, gênero e as próprias relações e convenções sociais. Ao mesmo tempo, procuramos construir um conceito de comunidade virtual que abarque nosso entendimento e os resultados da pesquisa empírica. Deste modo, sob vários aspectos, é possível analisar uma comunidade virtual, e principalmente, o modo sobre o qual ela se estrutura através da Comunicação Mediada por Computador.
Resumo:
Esta dissertação observa como se dá a relação entre a coluna política PÁGINA 10, do jornal Zero Hora, e o Partido dos Trabalhadores do Rio Grande do Sul, num período de três anos e meio até as eleições de 1998, quando o PT conquistou o governo do Estado. Neste período, em diferentes oportunidades, muitos textos da coluna motivaram manifestações de integrantes do PT, contestando a informação do colunista ou aproveitando-a para fazer críticas a adversários. A análise considera que a política e a comunicação – e dentro desta o jornalismo - são dois campos representados por PT e PÁGINA 10, respectivamente. Por isso, relata-se a formação da sociedade de comunicação, detalhando a formação do colunismo político no Rio Grande do Sul e seu posicionamento político e a formação do Partido dos Trabalhadores. Toma-se a hipótese de agenda-setting, que diz que os meios de comunicação têm capacidade de agendar a pauta da sociedade. Para ilustrar a tese, são reproduzidos tópicos da coluna que originaram manifestações de integrantes ou da direção do PT e suas respostas, como demonstração da importância dos meios de comunicação na política. Conclui-se que o PT movimenta-se para contestar muitas das manifestações do colunista – ou apenas corrigi-las, utiliza o espaço de imprensa para realizar seus embates internos ou comunicar-se com filiados e simpatizantes, que o colunismo político gaúcho tem características específicas diferentes do praticado no resto do País e que tem um perfil ideológico conservador.