996 resultados para Cidades e vilas - Controle de acesso
Resumo:
Portugal viveu um dos períodos mais sombrios da sua História no Século XX, com o regime autoritário liderado por António de Oliveira Salazar, que governou o país com «mão de ferro» durante mais de três décadas, concretamente entre 1933 e 1968, uma vez que se considera que há alteração de regime sempre que muda o referencial e a Constituição do Estado Novo é de 1933. Para além da ausência de democracia e liberdade, o povo português conviveu com a fome e a ignorância durante décadas, foi perseguido e torturado nas prisões continentais e ultramarinas, nomeadamente no Tarrafal, que se localiza no arquipélago de Cabo Verde. Em 18 de janeiro de 1934, o movimento operário português saiu à rua em várias cidades e vilas de Portugal, entre as quais a Marinha Grande. Na origem do movimento revolucionário esteve a decisão do Presidente do Conselho, através da Constituição de 1933, de impedir o funcionamento de sindicatos livres. Contudo, aquela que se previa ser unicamente uma greve geral contra a decisão do regime acabou por ir mais além, sobretudo na cidade vidreira, onde o quartel da GNR foi tomado, tal como a estação dos Correios, existindo ainda hoje dúvidas sobre a constituição de um soviete. Mais de sete décadas após o ato insurrecional continua muito por esclarecer. Esta Dissertação visa, precisamente, obter respostas a questões tão diversas como quem esteve realmente por detrás do 18 de janeiro de 1934 na Marinha Grande, que consequências teve para a política do Estado Novo e, finalmente, que importância teve na conjuntura. Importa ainda esclarecer por que razão esta derrota do movimento operário português é hoje recordada, com pompa e circunstância, na Marinha Grande, como se tivesse sido uma vitória. De facto, na atualidade, fala-se de uma jornada heroica, mas o Partido Comunista Português praticamente ignorou esse movimento até abril de 1974 e o seu líder à época, Bento Gonçalves (1971, p. 138), apelidou-o de “anarqueirada”.
Resumo:
As redes ATM têm se constituído na solução tecnológica ideal para o desenvolvimento da RDSI-FL. O ATM foi desenvolvido para dar suporte, com altas velocidades e com garantia de qualidade, a uma ampla variedade de serviços. A demanda por serviços de comunicação de dados, em velocidades maiores do que as redes de pacotes atuais são capazes de oferecer, tem crescido rapidamente, estimulando o desenvolvimento da tecnologia ATM, que tem sido muito promissora, devida a sua flexibilidade e eficiência. Para dar suporte à comunicação de dados em redes ATM, foram desenvolvidas soluções, como a emulação de redes locais (LANE), a interconexão de redes locais (LAN) e metropolitanas (MAN), e o protocolo IP sobre ATM. O ATM utiliza multiplexação estatística (assíncrona) para inserir os dados nos canais de comunicação de forma otimizada. Esta técnica, permite atender uma quantidade maior de fontes heterogêneas sob num único canal, porém, pode causar congestionamento na rede. O uso da multiplexação estatística, aliada à necessidade de garantir níveis de qualidade diferentes, para cada tipo de serviço, torna necessária a adoção de uma combinação de técnicas de controle de tráfego e congestionamento. Com este propósito, foram desenvolvidos diversas funções e mecanismos, como, por exemplo, controle de acesso (CAC), controle dos parâmetros de uso (UPC), descarte seletivo de células e conformação de tráfego (TS), os quais necessitam conhecer as características do tráfego emitido pela fonte. Por esta razão, toda e qualquer conexão ATM está associada a um contrato de tráfego, que especifica as exigências do usuário, quanto à qualidade de serviço (QoS) a ser oferecida pela rede, através de um descritor de tráfego. O trabalho apresentado nesta dissertação, tem por objetivo propor uma metodologia capaz de discriminar um fluxo de células ATM arbitrário, visando a obter os parâmetros descritores de UPC do mesmo. A discriminação de tráfego é relevante à medida que todos os usuários de redes ATM necessitam, de alguma forma, determinar os parâmetros que caracterizam seu fluxo, para poder negociar o contrato de trafego. Infelizmente, a maioria das aplicações ATM, não tem condições prévias de fornecer dados sobre o comportamento do fluxo que geram. Para estas situações, estamos propondo um Discriminador de Tráfego ATM (DTA), que infere a partir de uma amostra inicial do fluxo um conjunto mais provável de parâmetros, os quais constituirão o descritor de tráfego da fonte (STD).
Resumo:
A segurança no ambiente de redes de computadores é um elemento essencial para a proteção dos recursos da rede, dos sistemas e das informações. Os mecanismos de segurança normalmente empregados são criptografia de dados, firewalls, mecanismos de controle de acesso e sistemas de detecção de intrusão. Os sistemas de detecção de intrusão têm sido alvo de várias pesquisas, pois é um mecanismo muito importante para monitoração e detecção de eventos suspeitos em um ambiente de redes de computadores. As pesquisas nessa área visam aprimorar os mecanismos de detecção de forma a aumentar a sua eficiência. Este trabalho está focado na área de detecção de anomalias baseada na utilização de métodos estatísticos para identificar desvios de comportamento e controlar o acesso aos recursos da rede. O principal objetivo é criar um mecanismo de controle de usuários da rede, de forma a reconhecer a legitimidade do usuário através de suas ações. O sistema proposto utilizou média e desvio padrão para detecção de desvios no comportamento dos usuários. Os resultados obtidos através da monitoração do comportamento dos usuários e aplicação das medidas estatísticas, permitiram verificar a sua validade para o reconhecimento dos desvios de comportamento dos usuários. Portanto, confirmou-se a hipótese de que estas medidas podem ser utilizadas para determinar a legitimidade de um usuário, bem como detectar anomalias de comportamento. As análises dos resultados de média e desvio padrão permitiram concluir que, além de observar os seus valores estanques, é necessário observar o seu comportamento, ou seja, verificar se os valores de média e desvio crescem ou decrescem. Além da média e do desvio padrão, identificou-se também a necessidade de utilização de outra medida para refletir o quanto não se sabe sobre o comportamento de um usuário. Esta medida é necessária, pois a média e o desvio padrão são calculados com base apenas nas informações conhecidas, ou seja, informações registradas no perfil do usuário. Quando o usuário faz acessos a hosts e serviços desconhecidos, ou seja, não registrados, eles não são representados através destas medidas. Assim sendo, este trabalho propõe a utilização de uma medida denominada de grau de desconhecimento, utilizada para medir quantos acessos diferentes do seu perfil o usuário está realizando. O sistema de detecção de anomalias necessita combinar as medidas acima descritas e decidir se deve tomar uma ação no sistema. Pra este fim, propõe-se a utilização de sistemas de regras de produção e lógica fuzzy, que permitem a análise das medidas resultantes e execução do processo de decisão que irá desencadear uma ação no sistema. O trabalho também discute a integração do sistema de detecção de intrusão proposto à aplicação de gerenciamento SNMP e ao gerenciamento baseado em políticas.
Resumo:
Este trabalho apresenta um framework para editores distribuídos de manipulação colaborativa de documentos diagramáticos (FreDoc). FreDoc fornece um conjunto de classes que propicia um ambiente distribuído para edição colaborativa de diagramas de duas dimensões. Ele é constituído de 4 pacotes de classes: 1) de controle de acesso; 2) de controle de edição; 3) formas geométricas básicas; e 4) editor distribuído. Além disso, é apresentado um estudo sobre mecanismos para construção de editores distribuídos. Editores distribuídos são ferramentas úteis no processo de criação de documentos em um ambiente colaborativo tal como a World Wide Web. O uso de editores distribuídos torna o processo de colaboração mais rápido, pois o colaborador participa ativamente do processo de construção através da inserção de anotações que. Estas anotações podem ser aceitas ou rejeitadas total ou parcialmente pelo ou coordenador. Por fim, é descrito um protótipo, o FreDocUML, desenvolvido para testar a aplicação do framewrok FreDoc, mostrando um processo colaborativo de edição de diagrama de classes na notação UML é descrito.
Resumo:
Eco-villages are considered models of intentional communities or sustainable communities and have been incorporated by the United Nations in the Sustainable Communities Development Programme (SCDP) as a human scale settlement. They are characterized by human activities being integrated in a non-damaging way into the natural world in such a way as to give support to healthy human development so as to be able to continue indefinitely into the future. This text assesses the extent to which a project to create the Eco-village for Simple Living in Itamonte - Minas Gerais" is successful, based on the concepts of sustainability and local development succeeds, by examining the indicators and attributes that are able to be measured in the planning phase, describing the stages and discussions of the project, as well as assessing the members 'perception of "the concepts of the Eco-village", "sustainability" and "local development". Subsequent analysis of the degree of sustainability (ecological, social, economic, spacial and cultural / spiritual) and local development, based on the social economy, demonstrated the presence of a number of aspects used to support, guide, discuss, plan and implement actions in the creation of the Eco-village being studied. This work could be used as a guide to Eco-villages during the planning phase, indicating the importance of the concepts studied, especially for some communities which are self-proclaimed "Eco-villages" but which in fact do not show even the slightest structural aspects which would describe them as such, like solidarity in the relations between participants, or construction oriented with a view to the precepts of environmental preservation. "
Resumo:
A exposição realizada releva os aspectos jurídicos da dicotomia público/privado. Aborda as variações qualitativas da noção de propriedade privada. Na segunda, procura realçar os pontos importantes da formação de regras jurídicas para a instituição de relações de poder, particularmente aquelas relativas à formação do Estado Moderno - ao lado de um quadro sucinto daquelas referentes ao espaço urbano.
Resumo:
O tema do estudo é Destination Branding (DB), o processo de construção e desenvolvimento de marcas de destinos. O referencial teórico sobre o tema, bem como o estudo do branding da Nova Zelândia, estabeleceram as bases para a construção de um quadro de referência de DB, que foi estruturado em três macro etapas: ajuste do contexto, componentes de DB (aplicação de conceitos: imagem e identidade) e operacionalização (gestão, comunicação e avaliação). À luz desse quadro de referência, foi analisada a experiência de DB do Estado da Bahia ¿ um estudo de caso único, de caráter exploratório, com base em dados qualitativos.
Resumo:
A popularização das tecnologias de acesso à Internet por “banda larga” suportam a crescente proliferação de aplicações do tipo “par-a-par” (peer-to-peer), onde o usuário doméstico, tipicamente consumidor de informação, passa também a atuar como provedor. De forma simultânea, há uma popularização crescente dos jogos em rede, especialmente dos “jogos maciçamente multijogador” (MMG ou massively multiplayer game) onde milhares de jogadores interagem, em tempo real, em mundos virtuais de estado persistente. Os MMGs disponíveis atualmente, como EverQuest e Ultima Online, são implementados como sistemas centralizados, que realizam toda a simulação do jogo no “lado servidor”. Este modelo propicia controle de acesso ao jogo pelo servidor, além de ser muito resistente a jogadores trapaceiros. Porém, a abordagem cliente-servidor não é suficientemente escalável, especialmente para pequenas empresas ou projetos de pesquisa que não podem pagar os altos custos de processamento e comunicação dos servidores de MMGs centralizados. Este trabalho propõe o FreeMMG, um modelo híbrido, cliente-servidor e par-a-par, de suporte a jogos maciçamente multijogador de estratégia em tempo real (MMORTS ou massively multiplayer online real-time strategy). O servidor FreeMMG é escalável pois delega a maior parte da tarefa de simulação do jogo para uma rede par-apar, formada pelos clientes. É demonstrado que o FreeMMG é resistente a certos tipos de trapaças, pois cada segmento da simulação distribuída é replicado em vários clientes. Como protótipo do modelo, foi implementado o jogo FreeMMGWizards, que foi utilizado para gerar testes de escalabilidade com até 300 clientes simulados e conectados simultaneamente no mesmo servidor Os resultados de escalabilidade obtidos são promissores, pois mostram que o tráfego gerado em uma rede FreeMMG, entre servidor e clientes, é significativamente menor se comparado com uma alternativa puramente cliente-servidor, especialmente se for considerado o suporte a jogos maciçamente multijogador de estratégia em tempo real.
Resumo:
Durante a evolução da comunicação, diversos fatores contribuíram para melhorar a qualidade dos sistemas computacionais (Hardware e Software) em um ambiente industrial, onde o fator desempenho é um dos pontos importantes a ser considerado em um projeto de automação industrial. Nos últimos vinte anos, surgiram diversas propostas de padronização de protocolos para automação industrial e aplicações de tempo real, cada qual com características e tempos de resposta diferentes. Um estudo detalhado sobre as características técnicas de controle de tempo é de extrema importância, visto que esses sistemas, muitas vezes são implementados em situações de missão crítica, nas quais o tempo de resposta é um fator crucial para a aplicação. Nesta dissertação, apresentamos as etapas de evolução das técnicas de controle de acesso ao barramento, culminando inicialmente com o surgimento da proposta do protocolo FIELDBUS e em seguida com a proposta alemã, o PROFIBUS. O principal objetivo deste trabalho é propor um modelo analítico para a realização de avaliação de desempenho em uma rede PROFIBUS. O trabalho apresenta uma descrição das características funcionais do protocolo, bem como uma descrição detalhada dos tempos de controle utilizado pelo protocolo para controle e supervisão da rede. Uma descrição dos experimentos e o cruzamento dos dados obtidos na simulação com os dados obtidos através do modelo analítico demonstram a razão pela qual os modelos analíticos é uma ferramenta de extrema importância devido a sua agilidade em estimar o desempenho de uma rede PROFIBUS. Palavras-chave: Avaliação de desempenho, automação industrial, redes de campo, protocolos.
Resumo:
Cada vez mais tem se pensado em formas de aprimorar o ensino nas mais diversas áreas. E para isso, a Internet tem sido um ambiente de apoio à atualização e renovação das formas de ensino convencionais, bem como viabilizado o ensino a distância, tendo como base a possibilidade de acesso rápido às informações e a troca de idéias entre as pessoas. Acrescentando a isto a utilização de novas técnicas pedagógicas na preparação do material de ensino, pode-se pensar na criação de ambientes virtuais. Tem-se observado que cursos virtuais, em todas as áreas de interesse, têm sido oferecidos por universidades e escolas do Brasil e do mundo. Contudo, muitos destes cursos têm repetido fórmulas já desgastadas no ensino tradicional, e por esta razão, tornado-se experiências mal sucedidas de ensino a distância, com elevadas taxas de desistência e frustrações por parte dos alunos. Diversas experiências demonstram que a simples inovação na criação de material didático não resolve toda a problemática associada a esta nova forma de ensino. Há também a necessidade de criar mecanismos que promovam a interatividade entre professor e aluno, para que os mesmos possam prover comunicação. É importante, portanto, que sejam estudadas ferramentas e recursos que possam ser utilizados de forma eficaz para a criação de ambientes que permitam essa interação, como a transferência de dados multimídia (em tempo real ou não) na Internet. O uso de multimídia nas aplicações permite construir ambientes de aprendizagem apoiados por computador muito estimulantes e eficientes. A partir disso, detectou-se que uma das maiores desvantagens dos cursos a distância através da Web, nos quais não são previstos encontros síncronos, consta da falta de programação dos alunos. Isto significa que, como o horário é flexível, a tarefa de acompanhamento do curso acaba sendo substituída por outras tarefas do dia a dia. Desta forma, o presente trabalho apresenta o projeto de um ambiente para aulas virtuais multimídia na Web, apoiado na transmissão de dados multimídia em tempo real e interatividade entre os participantes da aula remota, cujo protótipo chama-se EMUVICS (Environment for MUltimedia VIrtual ClasseS). A transmissão ao vivo são as aulas programadas no conteúdo programático do curso, onde os alunos teriam o compromisso em um horário agendado para interagir com o professor e os outros alunos do curso. O ambiente baseia-se na integração de material didático disponibilizado com antecedência e transmissão de áudio e vídeo ao vivo, com controle de acesso e navegação, permitindo também acesso assíncrono, interatividade síncrona e assíncrona do referido material e aula ao vivo.
Resumo:
Com o crescente número de fabricantes de produtos, serviços e soluções de TI, direcionando boa parte de sua produção ao indivíduo, desenvolvendo dispositivos pessoais móveis, redes sociais, armazenamento remoto de arquivos, aplicativos grátis ou a custos acessíveis a boa parte dos profissionais do mercado de trabalho atual, os indivíduos estão, cada vez mais, se munindo de dispositivos e aplicações para organizar suas vidas, se relacionar com pessoas e grupos sociais e para se entreterem, entre outras coisas. Consequentemente, muitos levam estas tecnologias pessoais para dentro do ambiente corporativo e as utilizam para auxiliar em suas tarefas profissionais. Este fenômeno tem sido chamado, pelos estudos não-científicos sobre o tema, de Consumerização de TI ou BYOD (Bring Your Own Device). O objetivo deste estudo é identificar o conjunto de fatores críticos que as organizações devem levar em consideração no momento em que criam ou aprimoram sua política de utilização de tecnologias pessoais para a condução de atividades corporativas. Para identificar este conjunto de fatores críticos são utilizadas técnicas de análise de conteúdo, para analisar o material coletado, que são estudos não-científicos, tais como: pesquisas de empresas de consultoria na área de administração de TI, estudos de instituições de diferentes indústrias e entrevistas com pesquisadores e profissionais da área de TI e de outras áreas do Brasil e dos Estados Unidos da América. São identificados sete fatores, dos quais, três são críticos à política de utilização de tecnologias pessoais no ambiente corporativo, dois são impulsionadores do fenômeno e dois são fatores beneficiados pelo fenômeno.
Resumo:
O objetivo desse estudo é analisar se diferentes órgãos do Ministério Público brasileiro estão cumprindo com a Lei de Acesso à Informação adequadamente, tendo por base a metodologia de avaliação de transparência passiva desenvolvida pelo Programa de Transparência Pública da FGV. A equipe de pesquisadores envolvida neste projeto enviou 193 pedidos de acesso à informação para 29 diferentes órgãos do Ministério Público, sendo 3 órgãos do Ministério Público da União – o Ministério Público Federal (MPF), o Ministério Público do Trabalho (MPT) e o Ministério Público do Distrito Federal e Territórios (MPDFT) – além de 26 órgãos do Ministério Público Estadual. Os pedidos de acesso à informação enviados focavam em temas relevantes para uma análise do grau de transparência do MP, dentre os quais: a remuneração de promotores e procuradores de justiça, a existência de mecanismos de prevenção de nepotismo e os critérios de promoção dos membros do MP. Com esses temas em vista, o presente trabalho busca contribuir para a promoção de melhores práticas de transparência dentro dos órgãos do Ministério Público, tendo como diretriz a aproximação, na medida do possível, de um quadro ideal de acesso à informação.
Resumo:
The information technology - IT- benefits have been more perceived during the last decades. Both IT and business managers are dealing with subjects like governance, IT-Business alignment, information security and others on their top priorities. Talking about governance, specifically, managers are facing it with a technical approach, that gives emphasis on protection against invasions, antivirus systems, access controls and others technical issues. The IT risk management, commonly, is faced under this approach, that means, has its importance reduced and delegated to IT Departments. On the last two decades, a new IT risk management perspective raised, bringing an holistic view of IT risk to the organization. According to this new perspective, the strategies formulation process should take into account the IT risks. With the growing of IT dependence on most of organizations, the necessity of a better comprehension about the subject becomes more clear. This work shows a study in three public organizations of the Pernambuco State that investigates how those organizations manage their IT risks. Structured interviews were made with IT managers, and later, analyzed and compared with conceptual categories found in the literature. The results shows that the IT risks culture and IT governance are weakly understood and implemented on those organizations, where there are not such an IT risk methodology formally defined, neither executed. In addition, most of practices suggested in the literature were found, even without an alignment with an IT risks management process
Resumo:
Information is one of the most valuable organization s assets, mainly on a global and highly competitive world. On this scenery there are two antagonists forces: on one side, organizations struggle for keeping protected its information, specially those considered as strategic, on the other side, the invaders, leaded by innumerous reasons - such as hobby, challenge or one single protest with the intention of capturing and corrupting the information of other organizations. This thesis presents the descriptive results of one research that had as its main objective to identify which variables influence the Executives´ and CIOs´ perceptions toward Information Security. In addition, the research also identified the profile of Rio Grande do Norte s organizations and its Executives/CIOs concerning Information Security, computed the level of agreement of the respondents according to NBR ISO/IEC 17799 (Information technology Code of practice for information security management) on its dimension Access Control. The research was based on a model, which took into account the following variables: origin of the organization s capital, sector of production, number of PCs networked, number of employees with rights to network, number of attacks suffered by the organizations, respondent´s positions, education level, literacy on Information Technology and specific training on network. In the goal´s point of view, the research was classified as exploratory and descriptive, and, in relation of the approach, quantitative. One questionnaire was applied on 33 Executives and CIOs of the 50 Rio Grande do Norte s organizations that collected the highest taxes of ICMS - Imposto sobre Circulação de Mercadorias on 2000. After the data collecting, cluster analysis and chi-square statistical tools were used for data analysis. The research made clear that the Executives and CIOs of Rio Grande do Norte s organizations have low level of agreement concerning the rules of the NBR ISO/IEC 17799. It also made evident that the Executives and CIOs have its perception toward Information Security influenced by the number of PCs networked and by the number of attacks suffered by the organizations
Resumo:
This thesis proposes the specification and performance analysis of a real-time communication mechanism for IEEE 802.11/11e standard. This approach is called Group Sequential Communication (GSC). The GSC has a better performance for dealing with small data packets when compared to the HCCA mechanism by adopting a decentralized medium access control using a publish/subscribe communication scheme. The main objective of the thesis is the HCCA overhead reduction of the Polling, ACK and QoS Null frames exchanged between the Hybrid Coordinator and the polled stations. The GSC eliminates the polling scheme used by HCCA scheduling algorithm by using a Virtual Token Passing procedure among members of the real-time group to whom a high-priority and sequential access to communication medium is granted. In order to improve the reliability of the mechanism proposed into a noisy channel, it is presented an error recovery scheme called second chance algorithm. This scheme is based on block acknowledgment strategy where there is a possibility of retransmitting when missing real-time messages. Thus, the GSC mechanism maintains the real-time traffic across many IEEE 802.11/11e devices, optimized bandwidth usage and minimal delay variation for data packets in the wireless network. For validation purpose of the communication scheme, the GSC and HCCA mechanisms have been implemented in network simulation software developed in C/C++ and their performance results were compared. The experiments show the efficiency of the GSC mechanism, especially in industrial communication scenarios.