727 resultados para Ataques de pânico
Resumo:
La historia argentina ha demostrado no estar exenta de abusos de poder, meseanismo, ambiciones, restricciones y supresiones de derechos. Aunque no sea el objeto principal del trabajo ante tantos ataques al equilibrio propuesto en nuestra Carta Magna, nunca está de más realizar un humilde aporte a la defensa del más importante instrumento de defensa que tiene nuestro sistema democrático. El objeto principal será intentar delinear cuáles son algunos de los mecanismos de control establecidos por nuestra ley fundamental y que resultan ser las grandes armas con las que contamos los ciudadanos para hacer efectivos el ejercicio de nuestros derechos frente al poder
Resumo:
Las causas por las cuales se puede decretar el estado de emergencia han variado en el tiempo según las circunstancias de cada época y de cada país. Dichas situaciones de emergencia pueden obedecer a causas naturales o humanas. Pueden producirse por fenómenos físicos o climatológicos, por conmociones interiores, ataques exteriores, o incluso por desequilibrios económicos o sociales sectoriales o generales. Y, para hacer frente a estos estados excepcionales, el derecho internacional ha delimitado una serie de principios que deben ser respetados por los gobiernos locales.
Resumo:
Este documento busca analizar en detalle las causas del incremento en los niveles de inestabilidad que se han presentado entre Ecuador y Colombia –y que han contado con la participación de Venezuela– a través del análisis de los procesos de securitización en cada uno de estos países y en las consecuentes interrelaciones de seguridad. Para ello, primeramente analizaremos las dinámicas de seguridad tradicionales de los países andinos, para identificar sus interrelaciones. Después estudiaremos los procesos de securitización en los EUA desde los ataques del 11/S y su vinculación con las dinámicas de seguridad colombianas. Continuaremos con un vistazo del impacto de los procesos de securitización de Colombia en Ecuador y finalizaremos analizando la crisis de marzo de 2008.
Resumo:
Estados Unidos es sin duda uno de los actores más importantes en el actual contexto internacional, ya que no solo cuenta con la fuerza militar más poderosa y tecnificada del mundo, sino que además tiene una influencia política determinante; tanto que no se po dría hablar del actual sistema internacional sin nom brarlo reiteradamente. Uno de los puntos más polémicos de la política exterior estadounidense es la Estrategia de Seguridad Nacional –promulgada por George W. Bush un año después de los ataques del 11 de septiembre de 2001–, que transforma el panorama de las relaciones internacionales, al iniciar una nueva era bélica en la que la fuerza militar se impone a la razón. El concepto de «guerra anticipada» (preempt war, en inglés), que se aplica como eje articulador de esta nueva era, tiene como primeras evidencias del cambio de postura de Estados Unidos en su política exterior, a las guerras de Afganistán e Iraq, pues, como el autor lo demuestra –para responder la pregunta central de su investigación: ¿en qué consiste la gue rra anticipada y cómo este concepto se convirtió en eje central de la política de defensa estadou nidense en la era de Bush?–, en estas se em plea la anticipación como fórmula para la se guridad, convir tiendo a la guerra en el me jor mecanismo de defensa. En este libro también se explica la verdadera significación entre acciones preventivas y acciones anticipadas, y las connotaciones par ticulares que estas tienen en su aplicación. Temas con trascendentales implicaciones globales y regionales, y que no han sido suficiente mente analizados desde la óptica de América Latina.
Resumo:
La militarización de la seguridad interna en el Ecuador, al igual que en América Latina, ha sido una constante de las últimas décadas. Esta investigación tiene como objetivo analizar la evolución de la militarización de la seguridad interna en el Ecuador y la influencia que tuvieron el ataque en Angostura del 2008 y la sublevación militar del 30 de septiembre del 2010 en este proceso. La investigación identifica dos etapas dentro de este proceso: 1) los intentos de desmilitarización a partir de los ataques de Angostura y 2) el regreso a la militarización a partir de la sublevación militar del 30 de Septiembre. Utilizando como base teórica las aproximaciones de varios autores latinoamericanos sobre la militarización, y los parámetros que plantean para generar espacios democráticos en la relación entre las fuerzas públicas y el gobierno civil, se proponen una serie de funciones y características que deben cumplir las Fuerzas Armadas para que se pueda desarrollar de manera idónea el juego democrático. La investigación plantea una caracterización, tanto de las Fuerzas Armadas como de la Policía Nacional, para determinar el estado en que ambas instituciones se encontraban antes de los ataques de Angostura. Tanto Angostura como la Constitución del 2008 plantean la desmilitarización de la seguridad interna y un cambio en el paradigma de seguridad nacional. Se investiga el alcance institucional, legal y práctico de estos cambios en relación a su condición anterior y a los parámetros propuestos en la tesis. Finalmente, la tesis plantea como punto de quiebre de estos cambios institucionales la revuelta militar del 30 de septiembre del 2010 y analiza la serie de cambios que se dan y que generan la remilitarización de la seguridad interna. Así mismo, se analizan los cambios institucionales dentro de la Policía Nacional y las funciones dentro de la seguridad interna que son entregadas a las Fuerzas Armadas.
Resumo:
Este resumo tem como objetivo estudar o terrorismo e como combatê-lo no Brasil, bem como analisar o que a legislação brasileira e internacional tratam o tema. O terrorismo é um mal atual em todo o mundo e o Brasil não está isento de ataques terroristas, sendo de extrema importância o estudo, uma vez que a legislação atual não tem o tipo penal, nem medidas espec~ificas para prevenção e repressão no âmbito legislativo.
Resumo:
Esta dissertação apresenta o desenvolvimento de um novo algoritmo de criptografia de chave pública. Este algoritmo apresenta duas características que o tornam único, e que foram tomadas como guia para a sua concepção. A primeira característica é que ele é semanticamente seguro. Isto significa que nenhum adversário limitado polinomialmente consegue obter qualquer informação parcial sobre o conteúdo que foi cifrado, nem mesmo decidir se duas cifrações distintas correspondem ou não a um mesmo conteúdo. A segunda característica é que ele depende, para qualquer tamanho de texto claro, de uma única premissa de segurança: que o logaritmo no grupo formado pelos pontos de uma curva elíptica de ordem prima seja computacionalmente intratável. Isto é obtido garantindo-se que todas as diferentes partes do algoritmo sejam redutíveis a este problema. É apresentada também uma forma simples de estendê-lo a fim de que ele apresente segurança contra atacantes ativos, em especial, contra ataques de texto cifrado adaptativos. Para tanto, e a fim de manter a premissa de que a segurança do algoritmo seja unicamente dependente do logaritmo elíptico, é apresentada uma nova função de resumo criptográfico (hash) cuja segurança é baseada no mesmo problema.
Resumo:
As crises convulsivas têm sua maior incidência na infância, causando grande ansiedade nos pais e constituindo uma situação freqüente em emergência pediátrica. Estima-se que aproximadamente 4% de todos os indivíduos apresentam uma convulsão durante os primeiros 15 anos de vida. Sabe-se que a recorrên¬cia de crises na infância, após um primeiro episódio, é incerta, e vários estudos têm sido realizados com o intuito de estimar o risco de recorrência de primeira crise, mas os resultados têm-se mostrado conflitantes. A decisão de iniciar o tra¬tamento após a primeira crise é controversa. Este estudo foi elaborado com a finalidade de avaliar a possibilidade de recorrência e de responder questões referentes a fatores prognósticos capa¬zes de auxiliar no manejo da primeira crise na infância. Foi objetivo geral identificar fatores preditivos para a re¬corrência de crises convulsivas na infância. Foram objetivos específicos identifi¬car a participação de fatores desencadeantes agudos e apontar fatores remotos relacionados com a recorrência de crises; estudar a incidência de crises convul¬sivas recorrentes na infância; relacionar o tipo de crise com a possibilidade de re¬corrência; e relacionar os achados eletrencefalográficos com a possibilidade de recorrência. Foram incluídas 136 crianças com idades de 1 mês a 12 anos atendi¬das no setor de Emergência Pediátrica do Hospital de Clínicas de Porto Alegre por ocasião da primeira crise convulsiva, com ou sem fator desencadeante, e acompanhadas por 24 meses, sendo vistas na primeira crise e na recorrência e / ou a intervalos de 3, 6, 12, 18 e 24 meses. Foram solicitados eletrencefalogramas após a primeira crise e na recorrência. Foram excluídas crianças que apresenta¬ram crises prévias ao estudo, em uso de anticonvulsivantes ou com quadros ca¬racterísticos de epilepsia ausência, síndrome de West e Lennox - Gastaut.As crianças foram divididas em 2 grupos : Grupo I - com crise única, 77 casos; Grupo II - com recorrência de crises, 44 casos. A média de idade foi de 29 meses e 20 dias, e nos dois grupos houve predominância de faixa etária de 1 a 48 meses. Setenta e três crianças eram do sexo masculino e 48 do sexo femi¬nino, sendo 70 brancas e 51 não-brancas. Quanto ao aspecto sócio-econômico, nos dois grupos houve nítido predomínio de baixa escolaridade dos pais. O estudo teve 11% de perdas. Foi possível concluir que história familiar de crise convulsiva, exis¬tência de fatores desencadeantes na primeira convulsão, tipo de crise, dura¬ção da crise e alterações paroxísticas no eletrencefalograma foram fatores prediti¬vos para a recorrência de crise convulsiva. Os fatores desencadean¬tes agudos, hipertermia e infecção, foram protetores quanto ao risco de recorrên¬cia. Os fatores desencadeantes remotos não tiveram influência na recorrência de crises. A incidência de crises convulsivas recorrentes foi de 36,36% no tempo em que durou o estudo. Quando a primeira crise foi parcial, aumentou em 6 vezes o risco de recorrência. Quando paroxismos focais foram observados no primeiro eletrencefalograma, o risco de recorrência foi 3 vezes maior. Nesta amostra os riscos acumulados para recorrência foram 14,88%, 23,14%, 28,93%, 33,06% e 35,54% para 3, 6, 9, 12 e 15 meses, respectivamente. Embora não es¬tatisticamente significativa, houve forte tendência para recorrência com os seguintes fatores: história familiar positiva de doença neuropsiquiátrica, baixa escolaridade dos pais, baixos índices de Apgar e alterações ao exame físico inicial.
Resumo:
Monitorar significa, de forma genérica, acompanhar e avaliar dados fornecidos por aparelhagem técnica. Quando se fala em monitoramento de uma rede, não se está fugindo desta idéia. Para monitorar a rede são utilizados mecanismos para coletar dados da mesma, sendo estes dados posteriormente avaliados. O monitoramento da rede é, sob o ponto de vista da administração da mesma, uma atividade indispensável. Através desta operação é possível obter conclusões sobre a “saúde” da rede. A busca e análise dos dados da rede podem ser feitas com vários enfoques, cada um buscando cercar uma situação específica, onde entre outros, destacam-se a segurança e a carga da rede. A proposta de fazer uso de algum recurso que permita monitorar a rede fica cada vez mais importante, à medida que as redes têm crescido em tamanho e importância para as organizações. Atualmente, é comum se falar em redes locais com centenas e até milhares de computadores conectados. Associada a esta realidade existe ainda a conexão com a Internet, que faz com que o número de máquinas em contato, suba para valores gigantescos. Os usuários de computador que estão conectados a uma rede, podem estar, fisicamente, muito longe dos olhos do administrador da mesma. Com isso, este sente-se obrigado a utilizar ferramentas que permita monitorar a rede, uma vez que não tem controle sobre os usuários. Sob o ponto de vista da segurança, a preocupação está em verificar a possível ocorrência de ataques ou detectar problemas nas configurações dos mecanismos de segurança implementados. Já quanto à carga da rede, o enfoque é monitorar os tipos de acessos e serviços utilizados, a fim de identificar atividades supérfluas que possam estar sobrecarregando a rede. O presente trabalho tem por objetivo estudar meios para construir uma ferramenta que permita verificar, de forma on-line, as conexões TCP/IP que estão ativas na rede local, seja uma conexão entre duas máquinas da rede local, ou com a Internet, possibilitando visualizar os serviços que estão sendo acessados e a quantidade de tráfego gerada pelos computadores. Ao final será construído um protótipo a fim de validar o estudo feito. O estudo parte da análise do padrão de rede Ethernet, que é ambiente a ser utilizado neste estudo. Na seqüência serão estudadas as características dos principais protocolos da família TCP/IP, que é o conjunto de protocolo utilizado pela grande maioria das redes, inclusive pela maior delas, que é a Internet. Em uma fase posterior, serão estudadas as formas de se fazer o monitoramento em uma rede Ethernet e as ferramentas de monitoramento existentes. Na seqüência, os detalhes do protótipo para monitorar conexões TCP/IP são apresentados bem como os resultados dos testes de validação do mesmo.
Resumo:
Nos ultimos anos, com a crescente popularização das redes de computadores baseadas no protocolo IP, desde pequenas redes até metropolitanas começaram a se agrupar e a fazer do que hoje se conhece como a rede mundial de computadores.Apesar dos benefícios de comunicação e troca de informação da Internet, esse feômeno global também trouxe problemas de segurança, pois a origem e estrutura dos protocolos utilizados na comunicação entre as diversas máquinas limitam as possibilidades de prevenir, identificar ou detectar possíveis ataques ou intrusos. Assim, várias ferramentas surgiram para prevenir e auxiliar na tarefa de identicar problemas de segurança nas redes como firewalls, sniffers e sistemas de detecção de intrusão. Apesar dos benefícios trazidos por essas novas tecnologias, surgiram muitas dúvidas referentes a segurança que esses recursos proporcionam. Afinal, o desenvolvimento e validação desses sistemas são procedimentos bastante complexos e, freqüentemente, esses sitemas têm se tornado o alvo primário de um atacante. O resultado disso, não raramente, é uma falsa noção de segurança devido à utilização inadequada desses mecanismos, o que é, normalmente, mais prejudicial do que a simples inexistência de segurança em uma organização, mas cujas falhas são conhecidas por seus administradores. A realização de testes para verificação da segurança de uma organização é uma atividade fundamental a fim de alcançar um ambiente operacional seguro e de verificar a correta aplicação dos requisitos de segurança de uma organização.O uso de testes permite a uma empresa verificar com precisão a postura de segurança utilizada em seus sistemas ao mesmo tempo em que permite visualizar a sua rede da mesma maneira que um atacante a visualizaria. Ao visualizar a rede como atacante, pode-se verificar com que facilidade obtém-se informações da rede, quais suas fragilidades e a dificuldade que se tem para invadí-la. Assim, obtém-se uma visão mais realista da segurança de uma organização. Além de técnicas para a avaliação, é muito importante que se possua ferramentas para a realização desses testes. Assim, é possível automotizar a realização de testes e verificar com maior facilidade a existência de problemas em uma rede. A existência de ferramentas que testem sistemas de segurnaça é extremamente importante e necessária, pois, afinal, a segurança de toda uma rede pode depender fortemente de algum desses sistemas. Este trabalho apresenta as técncias existentes para a injecção de falhas visando verificar as que são mais eficientes para a valiação de sistemas de segurança de rede. Adicionalmente são apresentadas algumas técnicas para o teste de mecanismos de segurança e algumas ferramentas existentes para a realizão de tais testes. A partir desses estudos, é apresentado um modelo de ferramenta adequando as funções de um sistema de injeção de falhas ao teste de mecanismos de segurança em rede. Um protótipo essa ferramenta foi desenvolvido e é apresentado neste trabalho. Esse protótipo permite o envio e o recebimento de pacotes da pilha TCP/IP, podendo testar problemas em protocolos e sistemas utilizados na rede. E, através da utilização de plug-ins, permite que diversos tipos de ataque mais sofisticados possam ser realizados.
Resumo:
Este trabalho apresenta um modelo de mecanismo para o controle de integridade de arquivos em sistemas operacionais, com a capacidade de bloquear o acesso à arquivos inválidos de forma a conter os danos causados por possíveis ataques. O modelo foi inicialmente formulado a partir do estudo detalhado do processo de controle de integridade, revelando diversos pontos críticos de segurança nele existentes, e da avaliação dos mecanismos atualmente implementados nos sistemas operacionais que oferecem, mesmo que indiretamente, algum tipo de garantia de integridade dos arquivos do sistema. Durante o seu desenvolvimento, a segurança do próprio modelo foi detalhadamente analisada de forma a enumerar os seus pontos críticos e possíveis soluções a serem empregadas, resultando na definição dos requisitos mínimos de segurança que devem ser encontrados nesse tipo de mecanismo. Em seguida, visando a validação do modelo especificado e decorrente disponibilização do mecanismo para uso prático e em estudos futuros, um protótipo foi implementado no sistema operacional GNU/Linux. Procurando confirmar a sua viabilidade, foram realizadas análises do impacto causado sobre o desempenho do sistema. Por fim, foi confirmada a importância e viabilidade do emprego do modelo apresentado como mecanismo adicional de segurança em sistemas operacionais. Além disso, foi colocado em evidência um campo de pesquisa ainda pouco explorado e portanto atrativo para a realização de novos estudos.
Resumo:
A área de Detecção de Intrusão, apesar de muito pesquisada, não responde a alguns problemas reais como níveis de ataques, dim ensão e complexidade de redes, tolerância a falhas, autenticação e privacidade, interoperabilidade e padronização. Uma pesquisa no Instituto de Informática da UFRGS, mais especificamente no Grupo de Segurança (GSEG), visa desenvolver um Sistema de Detecção de Intrusão Distribuído e com características de tolerância a falhas. Este projeto, denominado Asgaard, é a idealização de um sistema cujo objetivo não se restringe apenas a ser mais uma ferramenta de Detecção de Intrusão, mas uma plataforma que possibilite agregar novos módulos e técnicas, sendo um avanço em relação a outros Sistemas de Detecção atualmente em desenvolvimento. Um tópico ainda não abordado neste projeto seria a detecção de sniffers na rede, vindo a ser uma forma de prevenir que um ataque prossiga em outras estações ou redes interconectadas, desde que um intruso normalmente instala um sniffer após um ataque bem sucedido. Este trabalho discute as técnicas de detecção de sniffers, seus cenários, bem como avalia o uso destas técnicas em uma rede local. As técnicas conhecidas são testadas em um ambiente com diferentes sistemas operacionais, como linux e windows, mapeando os resultados sobre a eficiência das mesmas em condições diversas.
Resumo:
Este trabalho propõe a utilização da arquitetura Trace como um sistema de detecção de intrusão. A arquitetura Trace oferece suporte ao gerenciamento de protocolos de alto nível, serviços e aplicações através de uma abordagem baseada na observação passiva de interações de protocolos (traços) no tráfego de rede. Para descrever os cenários a serem monitorados, é utilizada uma linguagem baseada em máquinas de estado. Esta linguagem permite caracterizar aspectos observáveis do tráfego capturado com vistas a sua associação com formas de ataque. O trabalho mostra, através de exemplos, que esta linguagem é adequada para a modelagem de assinaturas de ataques e propõe extensões para permitir a especificação de um número maior de cenários ligados ao gerenciamento de segurançaa. Em seguida, é descrita a implementação do agente de monitoração, componente-chave da arquitetura Trace, e sua utilização para detectar intrusões. Esse agente (a) captura o tráfego da rede, (b) observa a ocorrência dos traços programados e (c) armazena estatísticas sobre a sua ocorrência em uma base de informações de gerenciamento (MIB { Management Information Base). O uso de SNMP permite a recuperação destas informações relativas µa ocorrências dos ataques. A solução apresentada mostrou ser apropriada para resolver duas classes de problemas dos sistemas de detecção de intrusão: o excesso de falsos positivos e a dificuldade em se modelar certos ataques.
Resumo:
O objetivo deste trabalho é analisar o sistema monetário conhecido por caixa de conversão (currency board, conselho da moeda) e, em particular, a sua adoção pela Argentina e por Hong Kong e seus resultados. No caso da Argentina, investigaremos as causas existentes por trás do abandono do regime de caixa de conversão no início de 2002 após uma crise que tinha aspectos econômicos mas que repercurtiu enormemente na vida política e social argentina. Procuraremos mostrar que as origens desta crise estava basicamente relacionada com a incompatibilidade existente entre um regime monetário como a caixa de conversão e o regime fiscal insustentável praticado por Estado e províncias. Também mostraremos um caso de sucesso na adoção da caixa de conversão que foi Hong Kong que, adotando políticas corretas do ponto de vista fiscal e monetário, conseguiu enfrentar ataques especulativos em 1997 e representa um contra ponto ao caso argentino.