55 resultados para Medida de segurança


Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente estudo elabora um índice de violência para o Estado do Rio Grande do Sul, em seus 467 municípios, durante o período de 1992 a 1999. Não se buscaram explicações para o comportamento das taxas, mas somente uma descrição de sua evolução ao longo do período. Desta forma, procura-se um processo analítico que permita que, mais tarde, sejam trabalhadas as relações, conceitos e papéis frente ao processo de desenvolvimento humano e regional. A pesquisa trabalha com índices de criminalidade que se fundamentam no critério da agilidade da informação, proporcionada por estas medidas, para o diagnóstico dos problemas da violência municipal e para a elaboração de políticas voltadas à segurança. Em janeiro de 2000 foi divulgado o trabalho desenvolvido pela Fundação de Economia e Estatística Siegfried Emanuel Heuser (FEE)1, intitulado Índice Social Municipal Ampliado (ISMA) para o Rio Grande do Sul (1991-1996). O objetivo do mesmo era comparar as posições intermunicipais a partir de “indicadores sociais que foram selecionados”2 e definidos em blocos de educação, saúde, renda e condições de domicílio e saneamento. Desta forma, comparou-se e classificou-se num ranking os melhores e piores municípios do Estado do Rio Grande do Sul pela média do período de 1991 a 1996. Buscando complementar e aprimorar o trabalho, este estudo tem a proposta de acrescer, nos mesmos municípios, o bloco segurança, proporcionando uma maior integração dos resultados a partir dos dados sintetizados e complementados. Reunindo os resultados anteriormente apurados pela pesquisa da FEE com aqueles que serão obtidos por este trabalho atingir-seá um melhor conhecimento da realidade sócio-econômica gaúcha. Faz parte integrante deste trabalho um disco compacto, cujas especificações encontram-se no Capítulo 5.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação trata da configuração e forma urbana associada à segurança dos usuários, em área central urbana da cidade de Pelotas, RS. Considera especificamente relações entre ocorrência de crimes, níveis de satisfação do usuário com a segurança e aspectos contextuais como tipo habitacional, conexões visuais e funcionais, possibilidade de refúgio, territorialidade, iluminação noturna, potencial de movimento e aparência. Ainda são examinadas as relações envolvendo aspectos composicionais como gênero, faixa etária, além de interação social. A base teórico-conceitual utilizada compreende a área de estudos Ambiente e Comportamento, a qual considera o comportamento e as atitudes dos usuários como indicadores de desempenho espaciais; portanto, como aspectos principais na avaliação da qualidade do espaço urbano, incluindo a segurança. Dessa forma, diferentes métodos, tais como informações de arquivo, questionários, levantamento físico e análise sintática, são utilizados para identificar, analisar e avaliar as relações pré-estabelecidas. Nesta investigação, contata-se a existência de efeitos no comportamento e na satisfação dos usuários com a área urbana estudada; reconhece-se que estes avaliam o ambiente de acordo com a percepção de segurança. Os principais resultados sugerem que de fato aspectos da configuração e da forma urbana tendem a aumentar a vulnerabilidade quanto ao crime, influenciando a qualidade do espaço urbano e seu potencial de uso. A relevância do tema abordado é evidenciada pela necessidade de intervenções físicas e projetos urbanos para melhorar a segurança da população; assim sendo, o uso do espaço e a qualidade de vida urbana.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Monitorar significa, de forma genérica, acompanhar e avaliar dados fornecidos por aparelhagem técnica. Quando se fala em monitoramento de uma rede, não se está fugindo desta idéia. Para monitorar a rede são utilizados mecanismos para coletar dados da mesma, sendo estes dados posteriormente avaliados. O monitoramento da rede é, sob o ponto de vista da administração da mesma, uma atividade indispensável. Através desta operação é possível obter conclusões sobre a “saúde” da rede. A busca e análise dos dados da rede podem ser feitas com vários enfoques, cada um buscando cercar uma situação específica, onde entre outros, destacam-se a segurança e a carga da rede. A proposta de fazer uso de algum recurso que permita monitorar a rede fica cada vez mais importante, à medida que as redes têm crescido em tamanho e importância para as organizações. Atualmente, é comum se falar em redes locais com centenas e até milhares de computadores conectados. Associada a esta realidade existe ainda a conexão com a Internet, que faz com que o número de máquinas em contato, suba para valores gigantescos. Os usuários de computador que estão conectados a uma rede, podem estar, fisicamente, muito longe dos olhos do administrador da mesma. Com isso, este sente-se obrigado a utilizar ferramentas que permita monitorar a rede, uma vez que não tem controle sobre os usuários. Sob o ponto de vista da segurança, a preocupação está em verificar a possível ocorrência de ataques ou detectar problemas nas configurações dos mecanismos de segurança implementados. Já quanto à carga da rede, o enfoque é monitorar os tipos de acessos e serviços utilizados, a fim de identificar atividades supérfluas que possam estar sobrecarregando a rede. O presente trabalho tem por objetivo estudar meios para construir uma ferramenta que permita verificar, de forma on-line, as conexões TCP/IP que estão ativas na rede local, seja uma conexão entre duas máquinas da rede local, ou com a Internet, possibilitando visualizar os serviços que estão sendo acessados e a quantidade de tráfego gerada pelos computadores. Ao final será construído um protótipo a fim de validar o estudo feito. O estudo parte da análise do padrão de rede Ethernet, que é ambiente a ser utilizado neste estudo. Na seqüência serão estudadas as características dos principais protocolos da família TCP/IP, que é o conjunto de protocolo utilizado pela grande maioria das redes, inclusive pela maior delas, que é a Internet. Em uma fase posterior, serão estudadas as formas de se fazer o monitoramento em uma rede Ethernet e as ferramentas de monitoramento existentes. Na seqüência, os detalhes do protótipo para monitorar conexões TCP/IP são apresentados bem como os resultados dos testes de validação do mesmo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nos ultimos anos, com a crescente popularização das redes de computadores baseadas no protocolo IP, desde pequenas redes até metropolitanas começaram a se agrupar e a fazer do que hoje se conhece como a rede mundial de computadores.Apesar dos benefícios de comunicação e troca de informação da Internet, esse feômeno global também trouxe problemas de segurança, pois a origem e estrutura dos protocolos utilizados na comunicação entre as diversas máquinas limitam as possibilidades de prevenir, identificar ou detectar possíveis ataques ou intrusos. Assim, várias ferramentas surgiram para prevenir e auxiliar na tarefa de identicar problemas de segurança nas redes como firewalls, sniffers e sistemas de detecção de intrusão. Apesar dos benefícios trazidos por essas novas tecnologias, surgiram muitas dúvidas referentes a segurança que esses recursos proporcionam. Afinal, o desenvolvimento e validação desses sistemas são procedimentos bastante complexos e, freqüentemente, esses sitemas têm se tornado o alvo primário de um atacante. O resultado disso, não raramente, é uma falsa noção de segurança devido à utilização inadequada desses mecanismos, o que é, normalmente, mais prejudicial do que a simples inexistência de segurança em uma organização, mas cujas falhas são conhecidas por seus administradores. A realização de testes para verificação da segurança de uma organização é uma atividade fundamental a fim de alcançar um ambiente operacional seguro e de verificar a correta aplicação dos requisitos de segurança de uma organização.O uso de testes permite a uma empresa verificar com precisão a postura de segurança utilizada em seus sistemas ao mesmo tempo em que permite visualizar a sua rede da mesma maneira que um atacante a visualizaria. Ao visualizar a rede como atacante, pode-se verificar com que facilidade obtém-se informações da rede, quais suas fragilidades e a dificuldade que se tem para invadí-la. Assim, obtém-se uma visão mais realista da segurança de uma organização. Além de técnicas para a avaliação, é muito importante que se possua ferramentas para a realização desses testes. Assim, é possível automotizar a realização de testes e verificar com maior facilidade a existência de problemas em uma rede. A existência de ferramentas que testem sistemas de segurnaça é extremamente importante e necessária, pois, afinal, a segurança de toda uma rede pode depender fortemente de algum desses sistemas. Este trabalho apresenta as técncias existentes para a injecção de falhas visando verificar as que são mais eficientes para a valiação de sistemas de segurança de rede. Adicionalmente são apresentadas algumas técnicas para o teste de mecanismos de segurança e algumas ferramentas existentes para a realizão de tais testes. A partir desses estudos, é apresentado um modelo de ferramenta adequando as funções de um sistema de injeção de falhas ao teste de mecanismos de segurança em rede. Um protótipo essa ferramenta foi desenvolvido e é apresentado neste trabalho. Esse protótipo permite o envio e o recebimento de pacotes da pilha TCP/IP, podendo testar problemas em protocolos e sistemas utilizados na rede. E, através da utilização de plug-ins, permite que diversos tipos de ataque mais sofisticados possam ser realizados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação examina a situação geral dos Acidentes Viários, no contexto do transporte rodoviário, cujas evidências apontam o Fator Humano como o maior responsável por tais eventos. Entende-se que um maior conhecimento sobre ele possibilitará melhorar a segurança do tráfego e da produção transporte. O estudo pretende destacar a importância das análises relacionadas com a atividade transporte rodoviário, as variações da demanda do sistema de circulação e a tarefa do motorista, sob a ótica da ergonomia. Objetiva ele, também, mostrar importância desses estudos para melhor avaliar as interações dos fatores homemmáquina- ambiente viário e para o desenvolvimento de novas tecnologias e produtos de segurança viária. A revisão bibliográfica dos capítulos iniciais revelam o estado da arte e a importância da segurança de trânsito, em nível internacional. Também revelaram que todas nações sofrem do mesmo mal em suas redes viárias, que varia de acordo com a realidade de cada um. Embora o acidente de trânsito seja um fenômeno comum às nações, aqui eles atingiram a dimensão de flagelo social, em razão da sua severidade; e de calamidade econômica, face a elevação dos custos de produção na atividade do transporte rodoviário. São analisadas as características do fator humano, fundamentais na tarefa de condução, e o respectivo nexo causal das falhas com a gênese do acidente, num sistema multifatorial e interativo. O trabalho fundamenta-se em extensa revisão bibliográfica. O estudo de caso, desenvolvido a partir da revisão dos dados de uma pesquisa anterior, comprova a hipótese que o “álcool-direção”, considerado na literatura como o maior causador de acidentes viários, tem sua presença marcada por elevados índices nas rodovias do RS, contrariando a conclusão da pesquisa anterior. Ao final, também oferece recomendações para o desenvolvimento de ações objetivas para melhorar a segurança viária.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O experimento realizado avaliou, através de incubações ruminais de um volumoso misturado a diferentes concentrados, a ocorrência de influência mútua entre esses alimentos. Foi utilizado um animal Hereford fistulado no rúmen, em três períodos experimentais e foram incubados, por 24 horas, os seguintes ingredientes: farelo de soja, farelo de arroz integral, milho integral moído misturados com volumoso (feno de capim coast-cross) nas seguintes proporções de concentrado: 100, 50, 40, 30, 20 e 0%. Foi estudada a degradação da MS e da FDN das misturas, através do desaparecimento de amostra e da análise dos resíduos e amostras. Ao comparar-se as medidas obtidas com as estimadas através do cálculo proporcional das degradabilidades individuais dos ingredientes não se obteve diferença significativa entre a degradabilidade obtida e estimada da MS de nenhum dos alimentos em nenhuma das proporções A mesma comparação realizada com a FDN mostrou algumas diferenças numéricas entre as medidas observadas e estimadas nas misturas de feno + farelo de soja e feno + milho moído. No entanto, esses resultados não foram estatisticamente significativos (P>0,05) possivelmente pela alta variabilidade da técnica em relação ao pequeno numero de repetições testadas. O farelo de arroz utilizado nesse experimento apresentou características muito próximas às encontradas no feno e por isso não houve diferença significativa entre as degradabilidades obtida e estimada na mistura de farelo de arroz com o feno. A técnica “in situ”, da forma como a metodologia foi testada, não foi capaz de mostrar benefícios ou prejuízos estatisticamente significativos a degradação da MS e FDN dos alimentos misturados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Em planejamento de lavra, freqüentemente as campanhas de sondagem são complementadas por falta de segurança nas estimativas. Na maioria dos casos, essas sondagens adicionais são locadas sem o uso de qualquer procedimento matemático que indique os locais mais carentes de informação. Essa dissertação propõe uma metodologia fundamentada em simulação estocástica para tratar esse problema. Com a utilização desse método, é possível que seja considerada a variabilidade entre as informações, além da configuração espacial apresentada. Essa metodologia permite gerar várias estimativas equiprováveis do atributo em questão, reproduzindo o histograma e o variograma das informações originais. A variabilidade apresentada pelos conjuntos de n valores equiprováveis, em cada bloco discretizado da jazida, é medida por meio do cálculo de índices de incerteza. Esses índices são calculados após o processo de simulação estocástica por meio da compilação das n estimativas realizadas para cada bloco. Os índices de incerteza considerados nessa dissertação são: (i) variância condicional; (ii) coeficiente de variação condicional e (iii) intervalo entre quartis. A partir da classificação desses índices de incerteza, são identificados os setores que apresentam as maiores variabilidades em suas estimativas. Com essa classificação é possível a confecção de mapas de incerteza que auxiliam na visualização dos setores/blocos mais variáveis da jazida Nesses setores, são adicionadas informações oriundas da escolha aleatória de um dos n valores equiprováveis disponíveis para cada bloco simulado. Por meio dos índices de incerteza e de acordo com a metodologia, são propostas informações adicionais na área considerada, que contribuem na diminuição das incertezas globais e locais. Essa metodologia usa técnicas extremamente robustas, com embasamento teórico muito consistente, atacando diretamente os setores/blocos que apresentam as maiores flutuabilidades nas estimativas. Um estudo de caso em uma jazida de carvão verifica a aplicabilidade do método. Esse estudo, considera a variabilidade nas estimativas de espessura de uma camada carvão.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo dessa tese de doutorado foi desenvolver e aplicar um método de avaliação da segurança potencial de segmentos rodoviários rurais pavimentados de pista simples com base nas características físicas das rodovias. O método desenvolvido fundamentou-se na investigação da influência das características físicas da rodovia a partir da experiência e do conhecimento de profissionais que atuam junto à área de segurança rodoviária. O índice de segurança proposto recebeu a denominação de Índice de Segurança Potencial (ISP). O ISP tem a finalidade de refletir as condições latentes de segurança de segmentos rodoviários. Como resultado da aplicação do método proposto tem-se o perfil de segurança dos trechos rodoviários, através do qual é possível identificar aqueles segmentos que apresentam maiores deficiências nas condições de segurança. O índice proposto permite, ainda, que se faça uma avaliação desagregada das condições de segurança do segmento de forma a identificar as características físicas que mais contribuem para a carência de segurança.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente estudo propôs-se investigar de que forma os acordos assinados com a USAID sobre ensino superior no Brasil fizeram parte da estratégia dos Estados Unidos de construção de regimes internacionais mais amplos que deveriam sustentar a ordem mundial depois da Segunda Guerra Mundial. A hipótese central é a de que esses acordos estavam relacionados com a estratégia de promoção do desenvolvimento econômico e social que tinha, de um lado, a noção de que o desenvolvimento poderia ser planejado e implementado pelos governos e, de outro, uma visão de segurança internacional em que a promoção do desenvolvimento era entendida como fator essencial. Para a realização do estudo foram realizadas análise documental e entrevistas com pessoas que, de várias formas, estiveram ligadas às ações da USAID no ensino superior brasileiro na década de 1960, em especial ao caso de cooperação técnica com a Universidade Federal do Rio Grande do Sul. Os dados levantados pelo estudo permitiram confirmar em larga medida a hipótese levantada inicialmente, mas mostraram também que a questão é bem mais complexa. Os acordos da USAID sobre ensino superior no Brasil fizeram parte da estratégia de construção de regimes internacionais, mas representaram apenas uma etapa de um amplo programa de cooperação científica e tecnológica iniciada muito antes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Partindo do conceito de midiatização e das relações de visibilidade entre os campos da mídia e da política, duas Comissões Parlamentares de Inquérito realizadas pela Assembléia Legislativa do Rio Grande do Sul em 2001 são estudadas, revelando os processos de midiatização das mesmas, que dão origem a regimes de visibilidadediferentes. A CPI da Segurança Pùblica, marcada pelo escândalo político que relacionava o governo do Estado ao jogo do bicho, atingiu visibiliodade máxima n acena pública, chegando a um regime de espetacularização. A CPI do Leite, que revelou um escândalo de ordem econômica e social, obteve pouco espaço na zona de visibilidade midiática. A pesquisa baseia-se n acobertura de dois jornais, Zero Hora e Diário Gaúcho, da maior rede de comunicação do estado, a RBS, que tiveram participação intensa e mesmo direta na CPI da Segurança, delegando pouca importância à do Leite. A análise revela a importância do grau de intervenção da mídia no acontecimento, bem como da participação da participação social na configuração de regimes de visibilidade. A intervenção da mídia é relacionada a interesses próprios, que podem ou não se conjugar ao entendimento do que é de interesse público por parte do campo político. É entre estas convergências ou não que a midiatização das CPIs ocorre, recuperando e enfatizando sentidos provenientes de experiências históricas que marcam o (re)conhecimento público deste objeto.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A segurança no ambiente de redes de computadores é um elemento essencial para a proteção dos recursos da rede, dos sistemas e das informações. Os mecanismos de segurança normalmente empregados são criptografia de dados, firewalls, mecanismos de controle de acesso e sistemas de detecção de intrusão. Os sistemas de detecção de intrusão têm sido alvo de várias pesquisas, pois é um mecanismo muito importante para monitoração e detecção de eventos suspeitos em um ambiente de redes de computadores. As pesquisas nessa área visam aprimorar os mecanismos de detecção de forma a aumentar a sua eficiência. Este trabalho está focado na área de detecção de anomalias baseada na utilização de métodos estatísticos para identificar desvios de comportamento e controlar o acesso aos recursos da rede. O principal objetivo é criar um mecanismo de controle de usuários da rede, de forma a reconhecer a legitimidade do usuário através de suas ações. O sistema proposto utilizou média e desvio padrão para detecção de desvios no comportamento dos usuários. Os resultados obtidos através da monitoração do comportamento dos usuários e aplicação das medidas estatísticas, permitiram verificar a sua validade para o reconhecimento dos desvios de comportamento dos usuários. Portanto, confirmou-se a hipótese de que estas medidas podem ser utilizadas para determinar a legitimidade de um usuário, bem como detectar anomalias de comportamento. As análises dos resultados de média e desvio padrão permitiram concluir que, além de observar os seus valores estanques, é necessário observar o seu comportamento, ou seja, verificar se os valores de média e desvio crescem ou decrescem. Além da média e do desvio padrão, identificou-se também a necessidade de utilização de outra medida para refletir o quanto não se sabe sobre o comportamento de um usuário. Esta medida é necessária, pois a média e o desvio padrão são calculados com base apenas nas informações conhecidas, ou seja, informações registradas no perfil do usuário. Quando o usuário faz acessos a hosts e serviços desconhecidos, ou seja, não registrados, eles não são representados através destas medidas. Assim sendo, este trabalho propõe a utilização de uma medida denominada de grau de desconhecimento, utilizada para medir quantos acessos diferentes do seu perfil o usuário está realizando. O sistema de detecção de anomalias necessita combinar as medidas acima descritas e decidir se deve tomar uma ação no sistema. Pra este fim, propõe-se a utilização de sistemas de regras de produção e lógica fuzzy, que permitem a análise das medidas resultantes e execução do processo de decisão que irá desencadear uma ação no sistema. O trabalho também discute a integração do sistema de detecção de intrusão proposto à aplicação de gerenciamento SNMP e ao gerenciamento baseado em políticas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho utilizou a medida da uréia sérica para a predição do valor biológico de proteína para cães. Foram utilizados nove cães filhotes, que foram submetidos a três diferentes experimentos. No primeiro experimento o objetivo foi determinar o pico máximo de uréia plasmática após a alimentação. Os animais foram alimentados com uma dieta contendo 30% de proteína. Após a alimentação os animais foram submetidos a cinco coletas de sangue, realizadas em um espaço de 1h entre cada coleta. Este experimento determinou, de forma significativa, que o pico máximo de uréia após a alimentação é 3:01h. Portanto este foi o horário para a coleta nos experimentos subseqüentes. No segundo experimento os animais foram alimentados com dietas contendo níveis crescentes de proteína, objetivando relacionar diferentes níveis de proteína, com valores de uréia sérica. Foram utilizadas dietas contendo 19, 24, 30, 36, e 41% de proteína. Foi demonstrado, de forma significativa (P<0,001), um crescimento linear nos níveis de uréia plasmática a medida em que aumentou o teor de proteína. O terceiro experimento relacionou diferentes níveis de inclusão de aminoácidos com os seus respectivos níveis resultantes de uréia plasmática. Foram utilizadas relações met-cis/lisina de 0,58, 0,62, 0,66 e 0,70. Foi demonstrado, de forma significativa (P<0,0001), que aumentando-se à inclusão de aminoácidos, diminuíram linearmente os níveis de uréia sérica, supondo que níveis maiores de inclusão de aminoácidos possam vir a ser benéficos para cães em crescimento.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Muitos aplicativos atuais, envolvendo diversos domínios de conhecimento, são estruturados como arquiteturas de software que incorporam, além dos requisitos funcionais, requisitos não funcionais, como segurança, por exemplo. Tais requisitos podem constituir um domínio próprio, e, portanto, serem comuns a várias outras arquiteturas de software. Tecnologias como Programação Orientada a Aspectos, Reflexão Computacional e Padrões de Projeto colaboram no desenvolvimento de arquiteturas que provêem a separação de requisitos não funcionais. Porém, sua experimentação e adoção no domínio da segurança computacional ainda é incipiente. O foco deste trabalho é a elaboração de um padrão de projeto voltado à segurança, utilizando como arquitetura conceitual programação orientada a aspectos, e como arquitetura de implementação, reflexão computacional. A composição destas tecnologias resulta em um middleware orientado à segurança, voltado a aplicações desenvolvidas em Java. Estuda-se as tecnologias, seus relacionamentos com a área de segurança, seguido da proposta de uma arquitetura de referência, a partir da qual é extraído um protótipo do middleware de segurança. Este, por sua vez, provê mecanismos de segurança tão transparentes quanto possível para as aplicações que suporta. Com o objetivo de realizar a implementação do middleware de segurança, também são estudadas os mecanismos de segurança da plataforma Java, porém limitado ao escopo deste trabalho. Segue-se o estudo da base conceitual das tecnologias de Reflexão Computacional, o modelo de implementação, seguido de Programação Orientada a Aspectos, o modelo conceitual, e, por fim, têm-se os Padrões de Projeto, a arquitetura de referência. Integrando as três tecnologias apresentadas, propõe-se um modelo, que estabelece a composição de um Padrão Proxy, estruturado de acordo com a arquitetura reflexiva. Este modelo de arquitetura objetiva implementar o aspecto de segurança de acesso a componentes Java, de forma não intrusiva,. Baseado no modelo, descreve-se a implementação dos diversos elementos do middleware, estruturados de forma a ilustrar os conceitos propostos. Ao final, apresenta-se resultados obtidos durante a elaboração deste trabalho, bem como críticas e sugestões de trabalhos futuros.