1000 resultados para Redes de ordenadores - Seguridad - Medidas


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Presenta la tasa de homicidios en América Latina discutiendo la incidencia de los principales factores de riesgo identificados por el Banco Mundial y Naciones Unidas. Presenta los niveles de victimización por hogares en América Latina, la percepción de inseguridad, la confianza en la policía y en la justicia y las cifras de la población penitenciaria. Plantea la adopción de medidas para revertir los indicadores negativos contrarrestando el avance del narcotráfico y el tráfico de armas en la región.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La presente investigación tiene como objetivo central analizar si los Estados miembros del Consejo de Defensa Suramericano (CDS) de la Unión de Naciones Suramericanas (UNASUR), han cumplido o no con los compromisos adquiridos en relación a las Medidas de Fomento de la Confianza Mutua y de la Seguridad (MFCMS) y a la adquisición de material bélico. Utilizando como herramienta de análisis la teoría neorrealista, se examina la información que sobre seguridad de la región se dispone. El interés por el tema se desprende al observar el tamaño de recursos que a nivel global y de la región Suramericana se asignan para este efecto, entonces cuantificar y cualificar el nivel de gasto relacionando al Producto Interno Bruto (PIB) que tiene cada Estado, permitió tener una visión más amplia de este rubro, pese a que la información sobre gastos de Defensa es insuficiente, escasa y limitada, lo que generó dificultad para analizar las cifras y los procesos de asignación de recursos y de gastos. El estudio también se dirigió a observar el comportamiento que tienen los Estados de la región, fruto de su proceso histórico matizado por conflictos territoriales y la injerencia de actores extrarregionales, ante posibles amenazas externas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabajo hace un ejercicio de representación de la realidad, trata de comprender el proyecto nacional boliviano en clave de seguridad territorio, entendiendo esta en términos de gestión, a partir del instrumento de consulta de pueblos indígenas en el caso específico del Territorio Indígena y Parque Nacional Isiboro Sécure (TIPNIS) con la siguiente pregunta: ¿Cómo operan los dispositivos de seguridad territorio del aparato gubernamental inmerso en el caso TIPNIS? La metodología a utilizarse para este estudio, responde principalmente al análisis de dispositivos a partir de la teoría de Foucault, propuesta por el alemán Siegfried Jagüer desde la identificación, el análisis y la relación entre las prácticas discursivas, no discursivas y manifestaciones. Además se hará uso de una categoría propia de la biología: la endosimbiosis, para explicar el fenómeno social que ocurre en términos de demandas y movimiento indígena. Para exponer de la mejor manera el estudio de caso, en un primer momento se realizará una descripción histórica de la construcción del instrumento de consulta inmerso en el debate y el conflicto, para en una segunda instancia hacer una aproximación más profunda de las cuatro categorías relevantes enmarcadas en la Ley 222 de consulta a los pueblos del TIPNIS (visión de desarrollo, medidas salvaguarda, intangibilidad, carretera) desde su operación, relacionadas con los planes nacionales del Estado plurinacional más su andamiaje institucional y operativo estatal. Finalmente se procede a realizar una lectura de las mismas en clave de dispositivos para observar sus efectos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O presente trabalho implementa um método computacional semi-automático para obter medidas de estruturas cardíacas de fetos humanos através do processamento de imagens de ultra-som. Essas imagens são utilizadas na avaliação cardíaca pré-natal, permitindo que os médicos diagnostiquem problemas antes mesmo do nascimento. A dissertação é parte de um projeto desenvolvido no Instituto de Informática da Universidade Federal do Rio Grande do Sul, denominado SEGIME (Segmentação de Imagens Médicas). Neste projeto, está sendo desenvolvida uma ferramenta computacional para auxiliar na análise de exames ecocardiográficos fetais com o apoio da equipe de Cardiologia Fetal do Instituto de Cardiologia do Rio Grande do Sul. O processamento de cada imagem é realizado por etapas, divididas em: aquisição, pré-processamento, segmentação e obtenção das medidas. A aquisição das imagens é realizada por especialistas do Instituto de Cardiologia. No pré-processamento, é extraída a região de interesse para a obtenção das medidas e a imagem é filtrada para a extração do ruído característico das imagens de ultra-som. A segmentação das imagens é realizada através de redes neurais artificiais, sendo que a rede neural utilizada é conhecida como Mapa Auto-organizável de Kohonen. Ao final do processo de segmentação, a imagem está pronta para a obtenção das medidas. A técnica desenvolvida nesta dissertação para obtenção das medidas foi baseada nos exames realizados pelos especialistas na extração manual de medidas. Essa técnica consiste na análise da linha referente à estrutura de interesse onde serão detectadas as bordas. Para o início das medidas, é necessário que o usuário indique o ponto inicial sobre uma borda da estrutura. Depois de encontradas as bordas, através da análise da linha, a medida é definida pela soma dos pixels entre os dois pontos de bordas. Foram realizados testes com quatro estruturas cardíacas fetais: a espessura do septo interventricular, o diâmetro do ventrículo esquerdo, a excursão do septum primum para o interior do átrio esquerdo e o diâmetro do átrio esquerdo. Os resultados obtidos pelo método foram avaliados através da comparação com resultados de referência obtidos por especialistas. Nessa avaliação observou-se que a variação foi regular e dentro dos limites aceitáveis, normalmente obtida como variação entre especialistas. Desta forma, um médico não especializado em cardiologia fetal poderia usar esses resultados em um diagnóstico preliminar.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O fornecimento de facilidades de QoS em redes de computadores tem por objetivo introduzir níveis das garantias que são ausentes, por exemplo, no paradigma de melhor-esforço das redes IP. Diferentes arquiteturas de QoS possuem padrões diferentes para os serviços fornecidos, que conduzem a um cenário em que a QoS prevista não possa ser sempre fornecida corretamente pela arquitetura utilizada. Neste contexto, uma monitoração da QoS é necessária para verificar a QoS observada e para compará-la com a QoS esperada/ contratada. Em uma rede que utilize gerenciamento baseado em políticas, a QoS esperada é definido pelas políticas que regem o comportamento da rede. O Internet Engineering Task Force (IETF) tem padronizado vários elementos para um sistema de gerenciamento de redes baseado em políticas (PBNM), no qual políticas são definidas utilizando-se linguagem de alto nível, armazenadas em repositórios para políticas, aplicadas com o auxilio de Policy Decision Points (PDPs) e mantidas por Enforcement Points (PEPs). Pela definição do IETF, uma vez que uma política é aplicada com sucesso, o sistema de PBNM não mais checará o comportamento desta, e a QoS definida é assumida com a fornecida pela rede. De fato, isso nem sempre é verdade. A arquitetura da qual provém a QoS pode apresentar-se instável ou mediante problemas, logo a QoS esperada não seria atingida. Para verificar a degradação na QoS em ambientes de gerenciamento reais, atualmente, o administrador da rede monitora a rede e determina a QoS fornecida. Tal QoS é, por sua vez, manualmente comparada com a QoS definida pelas políticas de rede. Finalmente, se diferenças são encontradas, o administrador procede com medidas que levem a arquitetura a um estado consistente Nos dias de hoje, as definições e aplicações de políticas e monitoração de QoS são tarefas executadas separadamente pelas soluções disponíveis. Além disso, como demonstrado anteriormente, a verificação da QoS fornecida contra a QoS definida pelas políticas da rede é deixada a cargo do administrador da rede. Nesse contexto, a automação da monitoração das políticas de QoS e a integração entre as tarefas citadas são necessárias do ponto de vista do administrador da rede. Nesta dissertação, é proposta uma definição (e um sistema) para a monitoração de QoS em que as definições de políticas são dados de entrada utilizados para checar a QoS observada. No momento em que uma degradação na QoS é detectada, o sistema de monitoração notifica um gerente com suporte a SNMP utilizando mensagens do tipo InformRequest. A arquitetura do sistema é dividida internamente em monitores de QoS e controladores de monitores de QoS. Cada controlador de monitor de QoS controla vários monitores de QoS, os quais coletam dados da rede. Tais dados são comparados com as políticas traduzidas pelo controlador, e, caso sejam detectadas degradações, o controlador de monitor de QoS notifica o gerente. A comunicação entre controlador de monitores de QoS e monitores de QoS também é baseada em SNMP. O principal objetivo do trabalho é fornecer uma solução que integre monitoração de QoS e PBNM em um único ambiente de gerenciamento.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este estudo parte do pressuposto de que o conhecimento científico é construído socialmente, de forma que a interação entre a estrutura do relacionamento entre os pesquisadores e as práticas de pesquisa reflete na construção do conhecimento científico no campo. Desta forma, buscou-se com este trabalho identificar a relação da produção científica do Campo de Gestão de Operações com a dinâmica de relacionamento entre os pesquisadores que atuam no campo. Neste sentido, foi realizado um estudo longitudinal em que foram examinados os artigos publicados no período de 1997 a 2008 nos principais eventos e periódicos brasileiros. A análise dos dados foi dividida em dois momentos. No primeiro, foi identificado a evolução do campo em termos de número de artigos publicados, autores e instituições mais prolíficos e, com base na Lei de Lotka, testou-se as medidas de produtividade do campo. Num segundo momento, os relacionamentos entre os pesquisadores foram identificados e estudados com base na Análise de Redes Sociais. Assumiu-se que o relacionamento entre dois pesquisadores existia quando estes publicavam um artigo em conjunto. Assim, foi possível identificar os dados estruturais da rede formada pelos pesquisadores e os dados que indicavam seu posicionamento nesta rede. Os resultados apontam para um forte crescimento do campo ao longo do período analisado, em termos de artigos publicados e autores presentes no campo. Percebe-se ainda que os artigos possuem maior número de autorias, o que indica aumento na cooperação entre os pesquisadores, corroborado pelo crescimento do número médio de laços por autor em toda a rede. Segundo os parâmetros da Lei de Lotka, o Campo de Operações no Brasil é pouco produtivo, pois a grande maioria dos autores possui um único artigo publicado em todo o período, não havendo assim continuidade dos esforços de pesquisa. Desta forma, a produção do campo é estratificada e concentrada nas mãos de poucos pesquisadores e instituições. Verificou-se ainda que os pesquisadores fazem poucos relacionamentos, o que dá à rede uma estrutura fragmentada e pouco densa. A partir de 2005, observou-se um amadurecimento da rede que, embora se observe crescimento, este não tem vindo à custa de maior fragmentação. Em outro momento, o posicionamento dos pesquisadores na rede foi confrontado com sua produção científica e descobriu-se que o volume de laços diretos que o pesquisador possui está mais relacionado ao volume de artigos produzidos do que propriamente o seu posicionamento de maneira estratégica nesta rede, intermediando fluxo de informação e conhecimento. Desta forma, o trabalho relacionou a dinâmica dos relacionamentos entre os pesquisadores e a produção científica do Campo de Operações, de forma a trazer subsídios para a atividade de pesquisa no campo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta dissertação apresenta um levantamento da incidência de acidentes do trabalho nas atividades de construção, manutenção e instalação de redes de telecomunicações no Rio Grande do Sul. Os dados foram obtidos a partir da análise das CATs (Comunicação de Acidente do Trabalho), referentes aos anos de 2001 e 2002. São analisados o perfil dos trabalhadores, o tipo de atividade da empresa, a distribuição temporal dos acidentes, as partes do corpo atingidas, a natureza e a causa dos acidentes e das lesões. Os principais agentes causadores dos acidentes do trabalho, foram às escadas, os veículos e o esforço físico; a principal situação geradora de lesão foi o impacto de pessoa contra objeto; os tipos de lesões mais encontradas foram as contusões, fraturas e distensões; as partes do corpo atingidas foram os membros superiores, inferiores e dorso; os acidentes ocorreram em maior número nas primeiras horas trabalhadas, com os solteiros e o tipo de gravidade das lesões determinadas pelo maior número de afastamento com mais de 15 dias. Com os resultados obtidos, pretende-se subsidiar ações preventivas nestas atividades, pois com base nas principais causas de acidentes do trabalho é possível adotar medidas para reduzir o número e a gravidade dos acidentes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Jornal da Globo News apresentado por Leilane Neubarth

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Modelos para detecção de fraude são utilizados para identificar se uma transação é legítima ou fraudulenta com base em informações cadastrais e transacionais. A técnica proposta no estudo apresentado, nesta dissertação, consiste na de Redes Bayesianas (RB); seus resultados foram comparados à técnica de Regressão Logística (RL), amplamente utilizada pelo mercado. As Redes Bayesianas avaliadas foram os classificadores bayesianos, com a estrutura Naive Bayes. As estruturas das redes bayesianas foram obtidas a partir de dados reais, fornecidos por uma instituição financeira. A base de dados foi separada em amostras de desenvolvimento e validação por cross validation com dez partições. Naive Bayes foram os classificadores escolhidos devido à simplicidade e a sua eficiência. O desempenho do modelo foi avaliado levando-se em conta a matriz de confusão e a área abaixo da curva ROC. As análises dos modelos revelaram desempenho, levemente, superior da regressão logística quando comparado aos classificadores bayesianos. A regressão logística foi escolhida como modelo mais adequado por ter apresentado melhor desempenho na previsão das operações fraudulentas, em relação à matriz de confusão. Baseada na área abaixo da curva ROC, a regressão logística demonstrou maior habilidade em discriminar as operações que estão sendo classificadas corretamente, daquelas que não estão.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This paper aim to check a hypothesis that assumes several behaviors related to social work norm´s obeying as a phenomenon that can be explained by actor´s social network structure and the rational choice processes related to the social norm inside that network, principally the payoff´s analysis received by the closest actors, or neighbors, at a social situation. Taking the sociological paradigm of rational action theory as a basis, the focus is on a debate about the logic of social norms, from Émile Durkheim´s method to Jon Elster´s theory, but also including social network analysis´s variables according to Robert Hanneman; and also Vilfredo Pareto´s constants related to human sociability, at the aim to detect elements that can help the scholars to develop an agent based model which could explain the sociological problem of deviance by a better way than the common sense´s view about morality and ethics at a social work environment

Relevância:

30.00% 30.00%

Publicador:

Resumo:

We propose a multi-resolution approach for surface reconstruction from clouds of unorganized points representing an object surface in 3D space. The proposed method uses a set of mesh operators and simple rules for selective mesh refinement, with a strategy based on Kohonen s self-organizing map. Basically, a self-adaptive scheme is used for iteratively moving vertices of an initial simple mesh in the direction of the set of points, ideally the object boundary. Successive refinement and motion of vertices are applied leading to a more detailed surface, in a multi-resolution, iterative scheme. Reconstruction was experimented with several point sets, induding different shapes and sizes. Results show generated meshes very dose to object final shapes. We include measures of performance and discuss robustness.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This work presents a set of intelligent algorithms with the purpose of correcting calibration errors in sensors and reducting the periodicity of their calibrations. Such algorithms were designed using Artificial Neural Networks due to its great capacity of learning, adaptation and function approximation. Two approaches willbe shown, the firstone uses Multilayer Perceptron Networks to approximate the many shapes of the calibration curve of a sensor which discalibrates in different time points. This approach requires the knowledge of the sensor s functioning time, but this information is not always available. To overcome this need, another approach using Recurrent Neural Networks was proposed. The Recurrent Neural Networks have a great capacity of learning the dynamics of a system to which it was trained, so they can learn the dynamics of a sensor s discalibration. Knowingthe sensor s functioning time or its discalibration dynamics, it is possible to determine how much a sensor is discalibrated and correct its measured value, providing then, a more exact measurement. The algorithms proposed in this work can be implemented in a Foundation Fieldbus industrial network environment, which has a good capacity of device programming through its function blocks, making it possible to have them applied to the measurement process

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Ensuring the dependability requirements is essential for the industrial applications since faults may cause failures whose consequences result in economic losses, environmental damage or hurting people. Therefore, faced from the relevance of topic, this thesis proposes a methodology for the dependability evaluation of industrial wireless networks (WirelessHART, ISA100.11a, WIA-PA) on early design phase. However, the proposal can be easily adapted to maintenance and expansion stages of network. The proposal uses graph theory and fault tree formalism to create automatically an analytical model from a given wireless industrial network topology, where the dependability can be evaluated. The evaluation metrics supported are the reliability, availability, MTTF (mean time to failure), importance measures of devices, redundancy aspects and common cause failures. It must be emphasized that the proposal is independent of any tool to evaluate quantitatively the target metrics. However, due to validation issues it was used a tool widely accepted on academy for this purpose (SHARPE). In addition, an algorithm to generate the minimal cut sets, originally applied on graph theory, was adapted to fault tree formalism to guarantee the scalability of methodology in wireless industrial network environments (< 100 devices). Finally, the proposed methodology was validate from typical scenarios found in industrial environments, as star, line, cluster and mesh topologies. It was also evaluated scenarios with common cause failures and best practices to guide the design of an industrial wireless network. For guarantee scalability requirements, it was analyzed the performance of methodology in different scenarios where the results shown the applicability of proposal for networks typically found in industrial environments

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This work consists in the use of techniques of signals processing and artificial neural networks to identify leaks in pipes with multiphase flow. In the traditional methods of leak detection exists a great difficulty to mount a profile, that is adjusted to the found in real conditions of the oil transport. These difficult conditions go since the unevenly soil that cause columns or vacuum throughout pipelines until the presence of multiphases like water, gas and oil; plus other components as sand, which use to produce discontinuous flow off and diverse variations. To attenuate these difficulties, the transform wavelet was used to map the signal pressure in different resolution plan allowing the extraction of descriptors that identify leaks patterns and with then to provide training for the neural network to learning of how to classify this pattern and report whenever this characterize leaks. During the tests were used transient and regime signals and pipelines with punctures with size variations from ½' to 1' of diameter to simulate leaks and between Upanema and Estreito B, of the UN-RNCE of the Petrobras, where it was possible to detect leaks. The results show that the proposed descriptors considered, based in statistical methods applied in domain transform, are sufficient to identify leaks patterns and make it possible to train the neural classifier to indicate the occurrence of pipeline leaks

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Industrial automation networks is in focus and is gradually replacing older architectures of systems used in automation world. Among existing automation networks, most prominent standard is the Foundation Fieldbus (FF). This particular standard was chosen for the development of this work thanks to its complete application layer specification and its user interface, organized as function blocks and that allows interoperability among different vendors' devices. Nowadays, one of most seeked solutions on industrial automation are the indirect measurements, that consist in infering a value from measures of other sensors. This can be made through implementation of the so-called software sensors. One of the most used tools in this project and in sensor implementation are artificial neural networks. The absence of a standard solution to implement neural networks in FF environment makes impossible the development of a field-indirect-measurement project, besides other projects involving neural networks, unless a closed proprietary solution is used, which dos not guarantee interoperability among network devices, specially if those are from different vendors. In order to keep the interoperability, this work's goal is develop a solution that implements artificial neural networks in Foundation Fieldbus industrial network environment, based on standard function blocks. Along the work, some results of the solution's implementation are also presented