12 resultados para PREBISCH, RAUL
em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul
Resumo:
Esta pesquisa apresenta um estudo sobre as estratégias políticas empregadas na campanha eleitoral na Internet pelos candidatos José Fogaça (PPS/PTB) e Raul Pont (Frente Popular), no segundo turno das eleições para a Prefeitura Municipal de Porto Alegre em 2004. Partindo da concepção de que a Internet apresenta novos padrões comunicacionais, através dos quais a comunicação se torna interativa, constante e em tempo real, essa tecnologia se configura como um novo campo de investigação para a propaganda política. Considerando isso, o objetivo principal deste trabalho é identificar as estratégias persuasivas utilizadas em campanhas eleitorais veiculadas na Internet. O corpus desta investigação compreende a análise dos sites dos candidatos Jose Fogaça e Raul Pont, no período entre os dias 5 e 31 de outubro de 2004.
Resumo:
Esta dissertação apresenta o desenvolvimento de um novo algoritmo de criptografia de chave pública. Este algoritmo apresenta duas características que o tornam único, e que foram tomadas como guia para a sua concepção. A primeira característica é que ele é semanticamente seguro. Isto significa que nenhum adversário limitado polinomialmente consegue obter qualquer informação parcial sobre o conteúdo que foi cifrado, nem mesmo decidir se duas cifrações distintas correspondem ou não a um mesmo conteúdo. A segunda característica é que ele depende, para qualquer tamanho de texto claro, de uma única premissa de segurança: que o logaritmo no grupo formado pelos pontos de uma curva elíptica de ordem prima seja computacionalmente intratável. Isto é obtido garantindo-se que todas as diferentes partes do algoritmo sejam redutíveis a este problema. É apresentada também uma forma simples de estendê-lo a fim de que ele apresente segurança contra atacantes ativos, em especial, contra ataques de texto cifrado adaptativos. Para tanto, e a fim de manter a premissa de que a segurança do algoritmo seja unicamente dependente do logaritmo elíptico, é apresentada uma nova função de resumo criptográfico (hash) cuja segurança é baseada no mesmo problema.
Resumo:
Monitorar significa, de forma genérica, acompanhar e avaliar dados fornecidos por aparelhagem técnica. Quando se fala em monitoramento de uma rede, não se está fugindo desta idéia. Para monitorar a rede são utilizados mecanismos para coletar dados da mesma, sendo estes dados posteriormente avaliados. O monitoramento da rede é, sob o ponto de vista da administração da mesma, uma atividade indispensável. Através desta operação é possível obter conclusões sobre a “saúde” da rede. A busca e análise dos dados da rede podem ser feitas com vários enfoques, cada um buscando cercar uma situação específica, onde entre outros, destacam-se a segurança e a carga da rede. A proposta de fazer uso de algum recurso que permita monitorar a rede fica cada vez mais importante, à medida que as redes têm crescido em tamanho e importância para as organizações. Atualmente, é comum se falar em redes locais com centenas e até milhares de computadores conectados. Associada a esta realidade existe ainda a conexão com a Internet, que faz com que o número de máquinas em contato, suba para valores gigantescos. Os usuários de computador que estão conectados a uma rede, podem estar, fisicamente, muito longe dos olhos do administrador da mesma. Com isso, este sente-se obrigado a utilizar ferramentas que permita monitorar a rede, uma vez que não tem controle sobre os usuários. Sob o ponto de vista da segurança, a preocupação está em verificar a possível ocorrência de ataques ou detectar problemas nas configurações dos mecanismos de segurança implementados. Já quanto à carga da rede, o enfoque é monitorar os tipos de acessos e serviços utilizados, a fim de identificar atividades supérfluas que possam estar sobrecarregando a rede. O presente trabalho tem por objetivo estudar meios para construir uma ferramenta que permita verificar, de forma on-line, as conexões TCP/IP que estão ativas na rede local, seja uma conexão entre duas máquinas da rede local, ou com a Internet, possibilitando visualizar os serviços que estão sendo acessados e a quantidade de tráfego gerada pelos computadores. Ao final será construído um protótipo a fim de validar o estudo feito. O estudo parte da análise do padrão de rede Ethernet, que é ambiente a ser utilizado neste estudo. Na seqüência serão estudadas as características dos principais protocolos da família TCP/IP, que é o conjunto de protocolo utilizado pela grande maioria das redes, inclusive pela maior delas, que é a Internet. Em uma fase posterior, serão estudadas as formas de se fazer o monitoramento em uma rede Ethernet e as ferramentas de monitoramento existentes. Na seqüência, os detalhes do protótipo para monitorar conexões TCP/IP são apresentados bem como os resultados dos testes de validação do mesmo.
Resumo:
Nos ultimos anos, com a crescente popularização das redes de computadores baseadas no protocolo IP, desde pequenas redes até metropolitanas começaram a se agrupar e a fazer do que hoje se conhece como a rede mundial de computadores.Apesar dos benefícios de comunicação e troca de informação da Internet, esse feômeno global também trouxe problemas de segurança, pois a origem e estrutura dos protocolos utilizados na comunicação entre as diversas máquinas limitam as possibilidades de prevenir, identificar ou detectar possíveis ataques ou intrusos. Assim, várias ferramentas surgiram para prevenir e auxiliar na tarefa de identicar problemas de segurança nas redes como firewalls, sniffers e sistemas de detecção de intrusão. Apesar dos benefícios trazidos por essas novas tecnologias, surgiram muitas dúvidas referentes a segurança que esses recursos proporcionam. Afinal, o desenvolvimento e validação desses sistemas são procedimentos bastante complexos e, freqüentemente, esses sitemas têm se tornado o alvo primário de um atacante. O resultado disso, não raramente, é uma falsa noção de segurança devido à utilização inadequada desses mecanismos, o que é, normalmente, mais prejudicial do que a simples inexistência de segurança em uma organização, mas cujas falhas são conhecidas por seus administradores. A realização de testes para verificação da segurança de uma organização é uma atividade fundamental a fim de alcançar um ambiente operacional seguro e de verificar a correta aplicação dos requisitos de segurança de uma organização.O uso de testes permite a uma empresa verificar com precisão a postura de segurança utilizada em seus sistemas ao mesmo tempo em que permite visualizar a sua rede da mesma maneira que um atacante a visualizaria. Ao visualizar a rede como atacante, pode-se verificar com que facilidade obtém-se informações da rede, quais suas fragilidades e a dificuldade que se tem para invadí-la. Assim, obtém-se uma visão mais realista da segurança de uma organização. Além de técnicas para a avaliação, é muito importante que se possua ferramentas para a realização desses testes. Assim, é possível automotizar a realização de testes e verificar com maior facilidade a existência de problemas em uma rede. A existência de ferramentas que testem sistemas de segurnaça é extremamente importante e necessária, pois, afinal, a segurança de toda uma rede pode depender fortemente de algum desses sistemas. Este trabalho apresenta as técncias existentes para a injecção de falhas visando verificar as que são mais eficientes para a valiação de sistemas de segurança de rede. Adicionalmente são apresentadas algumas técnicas para o teste de mecanismos de segurança e algumas ferramentas existentes para a realizão de tais testes. A partir desses estudos, é apresentado um modelo de ferramenta adequando as funções de um sistema de injeção de falhas ao teste de mecanismos de segurança em rede. Um protótipo essa ferramenta foi desenvolvido e é apresentado neste trabalho. Esse protótipo permite o envio e o recebimento de pacotes da pilha TCP/IP, podendo testar problemas em protocolos e sistemas utilizados na rede. E, através da utilização de plug-ins, permite que diversos tipos de ataque mais sofisticados possam ser realizados.
Resumo:
Este trabalho apresenta um modelo de mecanismo para o controle de integridade de arquivos em sistemas operacionais, com a capacidade de bloquear o acesso à arquivos inválidos de forma a conter os danos causados por possíveis ataques. O modelo foi inicialmente formulado a partir do estudo detalhado do processo de controle de integridade, revelando diversos pontos críticos de segurança nele existentes, e da avaliação dos mecanismos atualmente implementados nos sistemas operacionais que oferecem, mesmo que indiretamente, algum tipo de garantia de integridade dos arquivos do sistema. Durante o seu desenvolvimento, a segurança do próprio modelo foi detalhadamente analisada de forma a enumerar os seus pontos críticos e possíveis soluções a serem empregadas, resultando na definição dos requisitos mínimos de segurança que devem ser encontrados nesse tipo de mecanismo. Em seguida, visando a validação do modelo especificado e decorrente disponibilização do mecanismo para uso prático e em estudos futuros, um protótipo foi implementado no sistema operacional GNU/Linux. Procurando confirmar a sua viabilidade, foram realizadas análises do impacto causado sobre o desempenho do sistema. Por fim, foi confirmada a importância e viabilidade do emprego do modelo apresentado como mecanismo adicional de segurança em sistemas operacionais. Além disso, foi colocado em evidência um campo de pesquisa ainda pouco explorado e portanto atrativo para a realização de novos estudos.
Resumo:
Uma aplicação distribuída freqüentemente tem que ser especificada e implementada para executar sobre uma rede de longa distância (wide-área network-WAN), tipicamente a Internet. Neste ambiente, tais aplicações são sujeitas a defeitos do tipo colapso(falha geral num dado nó), teporização (flutuações na latência de comunicação) e omissão (perdas de mensagens). Para evitar que este defeitos gerem comseqüências indesejáveis e irreparáveis na aplicação, explora-se técnicas para tolerá-los. A abstração de detectores de defeitos não confiáveis auxilia a especificação e trato de algoritmos distribuídos utilizados em sistemas tolerantes a falhas, pois permite uma modelagem baseada na noção de estado (suspeito ou não suspeito) dos componentes (objetos, processo ou processadores) da aplicação. Para garantir terminação, os algoritmos de detecção de defeitos costumam utilizar a noção de limites de tempo de espera (timeout). Adicionalmente, para minimizar seu erro (falasas suspeitas) e não comprometer seu desempenho (tempo para detecção de um defeito), alguns detectores de defeitos ajustam dinamicamente o timeout com base em previsões do atraso de comunicação. Esta tese explora o ajuste dinâmico do timeout realizado de acordo com métodos de previsão baseados na teoria de séries temporais. Tais métodos supõem uma amostragem periódica e fornececm estimativas relativamente confiáveis do comportamento futuro da variável aleatória. Neste trabalho é especificado uma interface para transformar uma amostragem aperiódica do atraso de ida e volta de uma mensagem (rtt) numa amostragem periódica, é analisado comportamento de séries reais do rtt e a precisão dee sete preditores distintos (três baseados em séries temporais e quatrro não), e é avaliado a influência destes preditores na qualidade de serviço de um detector de defeitos do estilopull. Uma arquitetura orientada a objetos que possibilita a escolha/troca de algoritmos de previsão e de margem de segurança é também proposta. Como resultado, esta tese mostra: (i) que embora a amostragem do rtt seja aperiódica, pode-se modelá-la como sendo uma série temporal (uma amostragem periódica) aplciando uma interface de transformação; (ii) que a série temporal rtt é não estacionária na maioria dos casos de teste, contradizendo a maioria das hipóteses comumente consideradas em detectores de defeitos; (iii) que dentre sete modelos de predição, o modelo ARIMA (autoregressive integrated moving-average model) é o que oferece a melhor precisão na predição de atrasos de comunicação, em termos do erro quadrático médio: (iv) que o impacto de preditores baseados em séries temporais na qualidade de serviço do detector de defeitos não significativo em relação a modelos bem mais simples, mas varia dependendo da margem de segurança adotada; e (v) que um serviço de detecção de defeitos pode possibilitar a fácil escolha de algoritmos de previsão e de margens de segurança, pois o preditor pode ser modelado como sendo um módulo dissociado do detector.
Resumo:
A área de Detecção de Intrusão, apesar de muito pesquisada, não responde a alguns problemas reais como níveis de ataques, dim ensão e complexidade de redes, tolerância a falhas, autenticação e privacidade, interoperabilidade e padronização. Uma pesquisa no Instituto de Informática da UFRGS, mais especificamente no Grupo de Segurança (GSEG), visa desenvolver um Sistema de Detecção de Intrusão Distribuído e com características de tolerância a falhas. Este projeto, denominado Asgaard, é a idealização de um sistema cujo objetivo não se restringe apenas a ser mais uma ferramenta de Detecção de Intrusão, mas uma plataforma que possibilite agregar novos módulos e técnicas, sendo um avanço em relação a outros Sistemas de Detecção atualmente em desenvolvimento. Um tópico ainda não abordado neste projeto seria a detecção de sniffers na rede, vindo a ser uma forma de prevenir que um ataque prossiga em outras estações ou redes interconectadas, desde que um intruso normalmente instala um sniffer após um ataque bem sucedido. Este trabalho discute as técnicas de detecção de sniffers, seus cenários, bem como avalia o uso destas técnicas em uma rede local. As técnicas conhecidas são testadas em um ambiente com diferentes sistemas operacionais, como linux e windows, mapeando os resultados sobre a eficiência das mesmas em condições diversas.
Resumo:
Este trabalho trata de identificar a presença de uma marca da política na Administração Popular, através das estruturas e ações de Comunicação da Frente Popular, sob a hegemonia do Partido dos Trabalhadores, na Prefeitura Municipal de Porto Alegre, de 1989 a 2002. As marcas da política são os produtos e as obras da luta pela visibilidade, e seu campo de ação está na totalidade de suas comunicações, sintetizadas graficamente em uma logomarca. Os governos da Frente Popular, com o PT, em Porto Alegre, imprimiram uma marca, e esta a cada gestão, recebeu ajustes políticos e publicitários. Neste sentido, o estudo abrange as quatro gestões da Administração Popular na cidade: Administração 1 (1989-1992) governantes: Olívio Dutra e Tarso Genro; Administração 2 (1993-1996) governantes: Tarso Genro e Raul Pont; Administração 3 (1997-2000) governantes: Raul Pont e José Fortunati; Administração 4 (2001-2002) governantes: Tarso Genro e João Verle, e (2002-2004) governante João Verle. São analisadas as diferentes apresentações visuais e simbólicas da Administração Popular, suas logomarcas, a partir da compreensão da marca como signo ideológico.
Resumo:
A população dos municípios do litoral norte do Rio Grande do Sul vem crescendo nas últimas duas décadas (IBGE, 2004). Em conseqüência, disso, começaram a surgir diversos problemas ambientais nessa região. Com o objetivo de avaliar o impacto ambiental produzido por esse crescimento foi criado, de forma inédita, um método para aferir o Índice de Qualidade de Praia (IQP), constituído por cinco indicadores, são eles: limites de segurança de praia, plano de manejo de dunas, balneabilidade da água, qualidade sanitária da areia e adequação da disposição final dos resíduos sólidos. Esse método foi testado na zona de balneário do município de Capão da Canoa, no período de dezembro de 2001 a março de 2002. Para tanto, foram atribuídos pesos para cada indicador por parte dos atores – técnicos, turistas e residentes – por meio do método de pesquisa de opinião-técnica Delphi. O somatório do produto do peso pela nota de cada indicador (0 ou 1), resultou numa classificação da praia do tipo C. Nessa categoria a balneabilidade é imprópria para banho. Não existe programa de limites de segurança de praia. Já a qualidade da areia é satisfatória, há área adequada para o depósito dos resíduos sólidos e há plano de manejo de dunas em funcionamento. De acordo com esse resultado, pode-se sugerir uma agenda de ações mitigadoras, ordenadas por prioridades, tendo em vista a gestão ambiental. Essa agenda e a avaliação confirmada com base no IQP pode, a longo prazo, contribuir para melhorar a qualidade de vida dos freqüentadores das praias, diminuir a degradação do ambiente costeiro e medir as melhorias implementadas.
Resumo:
O presente trabalho apresenta um novo esquema de criptografia de chave pública baseado no emprego de funções para representar as mensagens original e cifrada. No esquema proposto – denominado Rafaella -, o processo de cifração consiste na aplicação de um deslocamento no argumento da função que representa a mensagem, de modo que se f(x) descreve a mensagem original, então f(x+z) representa a respectiva mensagem cifrada. O deslocamento z representa um número complexo que, no esquema proposto, representa a forma das chaves privadas dos participantes. A dificuldade da resolução do problema inversos concentra-se na obtenção das partes real e imaginária do deslocamento z, que pode ser efetuada através de método de força bruta, ou da resolução de um problema de contorno. A segunda alternativa envolve a resolução de equações diferenciais. Dentre os métodos disponíveis para a resolução de equações diferenciais, o emprego dos chamados grupos de Lie constitui, via de regra, a estratégia mais apropriada para a obtenção de soluções analíticas, que demandam menor tempo de processamento do que as formulações numéricas. Mesmo assim, a solução obtida através da utilização dos grupos de Lie requer elevado número de operações simbólicas.
Resumo:
Este trabalho trata de um estudo correlacionando horas-extras e acidentes de trabalho, queixas osteomusculares, absenteísmo e produtividade em uma empresa metalúrgica de Porto Alegre no período de janeiro de 2002 a dezembro de 2003. Verificou-se que a realização de horas-extras não tem influência evidente sobre a ocorrência de acidentes do trabalho, queixas osteomusculares e absenteísmo. Em relação à produtividade, ficou evidente que a realização de horas-extras não gerou um aumento na produção, enquanto que a não realização de horas-extras aumentou a produção. A localização mais freqüente das queixas osteomusculares foram em ordem decrescente: ombro, punho, coluna, antebraço e cotovelo. Na análise dos acidentes de trabalho quanto ao dia da semana em que ocorreram, houve predomínio na quarta-feira . Em relação ao horário em que mais aconteceram, houve uma maior incidência entre 10 e 12 h. Os dedos foram a parte do corpo mais atingidos pelos acidentes. As pessoas até os 30 anos de idade foram as mais acometidas. O percentual maior dos acidentes incidiu nas pessoas com até 5 anos de empresa e entre 1 e 5 anos na função.
Resumo:
Este trabalho é uma pesquisa sobre os investimentos urbanos realizados pela Administração Popular de Porto Alegre, Rio Grande do Sul, Brasil, entre 1991 e 2000. A pesquisa objetiva investigar se os investimentos urbanos realizados em abastecimento de água, esgoto, habitação e transporte, foram planejados e se a Administração Popular, ao contrário de suas declarações, fez planejamento urbano nesse período. Além disso, procura apreender o papel e a importância que o planejamento urbano tem para a Administração Popular no discurso das três primeiras gestões: Olívio Dutra, Tarso Genro e Raul Pont.