121 resultados para Nuvem


Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo deste trabalho é avaliar os riscos de ocorrências de intrusos em um sistema de computação em nuvem para sistemas distribuídos utilizando lógica nebulosa. A computação em nuvem é um tema que vem sendo bastante abordado e vem alavancando discussões calorosas, tanto na comunidade acadêmica quanto em palestras profissionais. Embora essa tecnologia esteja ganhando mercado, alguns estudiosos encontram-se céticos afirmando que ainda é cedo para se tirar conclusões. Isto se deve principalmente por causa de um fator crítico, que é a segurança dos dados armazenados na nuvem. Para esta dissertação, foi elaborado um sistema distribuído escrito em Java com a finalidade de controlar um processo de desenvolvimento colaborativo de software na nuvem, o qual serviu de estudo de caso para avaliar a abordagem de detecção de intrusos proposta. Este ambiente foi construído com cinco máquinas (sendo quatro máquinas virtuais e uma máquina real). Foram criados dois sistemas de inferência nebulosos, para análise de problemas na rede de segurança implementados em Java, no ambiente distribuído. Foram realizados diversos testes com o intuito de verificar o funcionamento da aplicação, apresentando um resultado satisfatório dentro dessa metodologia.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Relatório de Projeto realizado para obtenção do grau de Mestre em Engenharia Informática e de Computadores

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este breve ensaio sobre o poeta e escritor russo Vladimir Mayakovsky é uma modesta tentativa de contribuir para um (re)descobrimento ou para uma simples revisitação da produção literária russa do período soviético, que, por razões muitas vezes apenas de ordem política e não estética, caiu no esquecimento, não sendo traduzida na sua totalidade, como é o caso de Mayakovsky, ou, pura e simplesmente, sendo votada ao “ostracismo”, porque rotulada, a priori ou ab initio, como obras escritas dentro das paredes estreitas do “realismo socialista”, padecendo de falta de criatividade e norteandose, aberta ou dissimuladamente, pelos princípios rígidos e imutáveis de um totalitarismo inflexível. Contudo, nem toda a literatura soviética pode ser enquadrada no realismo socialista, valendo a pena conhecê-la e analisá-la.

Relevância:

20.00% 20.00%

Publicador:

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Não é novidade que o paradigma vigente baseia-se na Internet, em que cada vez mais aplicações mudam o seu modelo de negócio relativamente a licenciamento e manutenção, para passar a oferecer ao utilizador final uma aplicação mais acessível no que concerne a licenciamento e custos de manutenção, já que as aplicações se encontram distribuídas eliminando os custos de capitais e operacionais inerentes a uma arquitetura centralizada. Com a disseminação das Interfaces de Programação de Aplicações (Application Programming Interfaces – API) baseadas na Internet, os programadores passaram a poder desenvolver aplicações que utilizam funcionalidades disponibilizadas por terceiros, sem terem que as programar de raiz. Neste conceito, a API das aplicações Google® permitem a distribuição de aplicações a um mercado muito vasto e a integração com ferramentas de produtividade, sendo uma oportunidade para a difusão de ideias e conceitos. Este trabalho descreve o processo de conceção e implementação de uma plataforma, usando as tecnologias HTML5, Javascript, PHP e MySQL com integração com ®Google Apps, com o objetivo de permitir ao utilizador a preparação de orçamentos, desde o cálculo de preços de custo compostos, preparação dos preços de venda, elaboração do caderno de encargos e respetivo cronograma.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O estudo da distribuição da extinção na direção da Pequena Nuvem de Magalhães (PNM) é feito atravéss da contagem de galáxias de ”fundo”, e espectroscopicamente pela comparação de espectros nucleares de uma amostra das mesmas com os de galáxias de referência de similar população estelar. O método de contagens é baseado em um novo catálogo realizado no presente trabalho, contendo 3037 galáxias estendendo-se até a magnitude limite B¼ 20 em 6 placas do ESO/SERC na região da PNM e seus arredores. O método espectroscópico foi aplicado a uma amostra de 16 galáxias na mesma região, assim como numa outra de 27 galáxias na direção da Grande Nuvem de Magalhães, para comparação. A deficiência de galáxias indicada pelo método de contagens sugere E(B-V)=0.35 nas partes centrais da PNM, e E(B-V)=0.15 a 6º do centro. Por outro lado o método espectroscópico indica que a PNM é basicamente transparente. Sugerem-se as seguintes explicações para esta diferença: (i) a deficiência de galáxias nas regiões centrais detectadas pelo método de contagens é signifivativamente afetada pela alta concentração de estrelas e objetos extendidos pertencentes à PNM; (ii) a amostra espectroscópica conteria tipicamente galáxias em zonas menos avermelhadas, o que indicaria que a absorção ocorre em nuvens de poeira com uma distribuição preferencialmente discreta. A aplicação do m´etodo espectroscópico na GNM também sugere a presença de nuvens de poeira discretas nas suas regiões centrais.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho é feito um estudo do processo de dispersão e combustão de uma mistura gasosa, assim como uma avaliação de alguns dos vários métodos disponíveis para estimar os resultados de uma explosão de nuvem de gás inflamável-ar. O método Multienergia foi utilizado para estimar os campos de sobrepressão resultantes de explosões de nuvens de GLP em áreas congestionadas pela presença de árvores, próximas a esferas de armazenamento de gás. Foram considerados como áreas congestionadas propícias para geração de turbulência os hortos florestais como os comumente encontrados em torno de indústrias petroquímicas e refinarias de petróleo. Foram feitas simulações para áreas de horto florestal de formato quadrado variando entre 50.000 m2 e 250.000 m2 e altura de 10 m. Para avaliar o efeito da explosão sobre a esfera, o critério de risco se baseou num elongamento máximo de 0,2% dos tirantes críticos de sustentação da mesma. Foram avaliados os efeitos destas explosões sobre uma esfera de GLP de diâmetro externo de 14,5 m para distâncias de 10 a 100 m entre a esfera e a borda do horto. É mostrado que áreas congestionadas com no mínimo 100.000 m2 podem representar um risco para a integridade das esferas menos preenchidas com GLP. Do ponto de vista da segurança das unidades de armazenamento, foi visto com base nos resultados obtidos que é preferível manter um menor número de esferas com maior preenchimento do que dividir o volume de GLP disponível entre várias unidades. Foi estimado que para áreas com grau de congestionamento de 25% a distância mínima segura entre a borda do horto e a esfera varia entre 10 m, para hortos com área de 100.000 m2, e 87,6 m, para hortos de 250.000 m2 A influência do espaçamento das árvores, representada pelo grau de obstrução da área de passagem da frente de chama, também foi analisada, indicando o quanto sua alteração pode afetar a distância mínima segura para as esferas. Por fim são feitas recomendações quanto à distância mínima entre o parque de esferas e o horto, bem como outras formas de diminuir o risco representado por explosões oriundas da formação acidental de mistura inflamável no interior dos mesmos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The progresses of the Internet and telecommunications have been changing the concepts of Information Technology IT, especially with regard to outsourcing services, where organizations seek cost-cutting and a better focus on the business. Along with the development of that outsourcing, a new model named Cloud Computing (CC) evolved. It proposes to migrate to the Internet both data processing and information storing. Among the key points of Cloud Computing are included cost-cutting, benefits, risks and the IT paradigms changes. Nonetheless, the adoption of that model brings forth some difficulties to decision-making, by IT managers, mainly with regard to which solutions may go to the cloud, and which service providers are more appropriate to the Organization s reality. The research has as its overall aim to apply the AHP Method (Analytic Hierarchic Process) to decision-making in Cloud Computing. There to, the utilized methodology was the exploratory kind and a study of case applied to a nationwide organization (Federation of Industries of RN). The data collection was performed through two structured questionnaires answered electronically by IT technicians, and the company s Board of Directors. The analysis of the data was carried out in a qualitative and comparative way, and we utilized the software to AHP method called Web-Hipre. The results we obtained found the importance of applying the AHP method in decision-making towards the adoption of Cloud Computing, mainly because on the occasion the research was carried out the studied company already showed interest and necessity in adopting CC, considering the internal problems with infrastructure and availability of information that the company faces nowadays. The organization sought to adopt CC, however, it had doubt regarding the cloud model and which service provider would better meet their real necessities. The application of the AHP, then, worked as a guiding tool to the choice of the best alternative, which points out the Hybrid Cloud as the ideal choice to start off in Cloud Computing. Considering the following aspects: the layer of Infrastructure as a Service IaaS (Processing and Storage) must stay partly on the Public Cloud and partly in the Private Cloud; the layer of Platform as a Service PaaS (Software Developing and Testing) had preference for the Private Cloud, and the layer of Software as a Service - SaaS (Emails/Applications) divided into emails to the Public Cloud and applications to the Private Cloud. The research also identified the important factors to hiring a Cloud Computing provider

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This work develops a methodology for defining the maximum active power being injected into predefined nodes in the studied distribution networks, considering the possibility of multiple accesses of generating units. The definition of these maximum values is obtained from an optimization study, in which further losses should not exceed those of the base case, i.e., without the presence of distributed generation. The restrictions on the loading of the branches and voltages of the system are respected. To face the problem it is proposed an algorithm, which is based on the numerical method called particle swarm optimization, applied to the study of AC conventional load flow and optimal load flow for maximizing the penetration of distributed generation. Alternatively, the Newton-Raphson method was incorporated to resolution of the load flow. The computer program is performed with the SCILAB software. The proposed algorithm is tested with the data from the IEEE network with 14 nodes and from another network, this one from the Rio Grande do Norte State, at a high voltage (69 kV), with 25 nodes. The algorithm defines allowed values of nominal active power of distributed generation, in percentage terms relative to the demand of the network, from reference values

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The study of aerodynamic loading variations has many engineering applications, including helicopter rotor blades, wind turbines and turbo machinery. This work uses a Vortex Method to make a lagrangian description of the a twodimensional airfoil/ incident wake vortex interaction. The flow is incompressible, newtonian, homogeneus and the Reynolds Number is 5x105 .The airfoil is a NACA 0018 placed a angle of attack of the 0° and 5°simulates with the Painel Method with a constant density vorticity panels and a generation poit is near the painel. The protector layer is created does not permit vortex inside the body. The vortex Lamb convection is realized with the Euler Method (first order) and Adans-Bashforth (second order). The Random Walk Method is used to simulate the diffusion. The circular wake has 366 vortex all over positive or negative vorticity located at different heights with respect to the airfoil chord. The Lift was calculated based in the algorithm created by Ricci (2002). This simulation uses a ready algorithm vatidated with single body does not have a incident wake. The results are compared with a experimental work The comparasion concludes that the experimental results has a good agrement with this papper

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This thesis proposes an architecture of a new multiagent system framework for hybridization of metaheuristics inspired on the general Particle Swarm Optimization framework (PSO). The main contribution is to propose an effective approach to solve hard combinatory optimization problems. The choice of PSO as inspiration was given because it is inherently multiagent, allowing explore the features of multiagent systems, such as learning and cooperation techniques. In the proposed architecture, particles are autonomous agents with memory and methods for learning and making decisions, using search strategies to move in the solution space. The concepts of position and velocity originally defined in PSO are redefined for this approach. The proposed architecture was applied to the Traveling Salesman Problem and to the Quadratic Assignment Problem, and computational experiments were performed for testing its effectiveness. The experimental results were promising, with satisfactory performance, whereas the potential of the proposed architecture has not been fully explored. For further researches, the proposed approach will be also applied to multiobjective combinatorial optimization problems, which are closer to real-world problems. In the context of applied research, we intend to work with both students at the undergraduate level and a technical level in the implementation of the proposed architecture in real-world problems