1000 resultados para Identificação remota de sistemas operacionais


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dissertação de Mestrado em Gestão do Território, Especialização em Detecção Remota e Sistemas de Informação Geográfica

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Relatório de Estágio apresentado para cumprimento dos requisitos necessários à obtenção do grau de Mestre em Gestão do Território, especialização em Detecção Remota e Sistemas de Informação Geográfica

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Relatório de Estágio apresentado para cumprimento dos requisitos necessários à obtenção do grau de Mestre em Gestão do Território, especialização em Detecção Remota e Sistemas de Informação Geográfica

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dissertação apresentada como requisito parcial para obtenção do grau de Mestre em Estatística e Gestão de Informação

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Tese apresentada para cumprimento dos requisitos necessários à obtenção do grau de Doutor em Geografia e Planeamento Territorial, Especialização em Deteção Remota e Sistemas de Informação Geográfica

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O presente trabalho de projecto, realizado no âmbito do Mestrado em Gestão do Território, Área de Especialização em Detecção Remota e Sistemas de Informação Geográfica, ministrado na Faculdade de Ciências Sociais e Humanas (FCSH) da Universidade Nova de Lisboa, regista o trabalho desenvolvido sobre a constituição de geocomunidades de informação geográfica em meio empresarial. Este trabalho foi realizado com o apoio partilhado FCSH e Nokia Portugal. O trabalho projecto está dividido em duas partes. Uma primeira parte que consiste numa abordagem teórica sobre a evolução dos SIG, sobre o estado da arte, sobre a nova geografia (neogeography); contem também uma abordagem sobre o crowdsourcing e as suas funcionalidades e potencialidades, caracterização dos seus utilizadores e o seu valor económico e social. Esta primeira parte tem o intuito de tentar chegar a uma conclusão sobre qual a melhor opção para uma empresa, no que toca à criação de base de dados geográficas olhando para as variadíssimas opções que existem no mercado desde base de dados governamentais, às privadas até às base de dados de cariz voluntário e sem custo para o utilizador ao aceder a essa informação. A segunda parte, de natureza prática, pretende cruzar dados e informação sobre duas Expert-Community que foram criadas com o intuito de testar a plataforma Map-Wiki da Nokia durante doze meses. Apesar de ser uma parte mais prática, conta também com uma breve retrospectiva da Nokia e das aplicações baseadas em Global Position Systems, uma explicação sobre o que é o Nokia Here e uma comparação entre as várias propostas existentes no mercado.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este documento visa apresentar o trabalho de Estágio realizado na Direção Geral de Administração Interna (DGAI) como parte integrante e conclusiva do Mestrado em Gestão do Território na Área de Especialização em Deteção Remota e Sistemas de Informação Geográfica, ministrado pela Faculdade de Ciências Sociais e Humanas da Universidade Nova de Lisboa. O Estágio desenvolveu-se em duas fases. A primeira detém um caráter mais genérico e teve como objetivo prestar apoio à consolidação do Sistema de Informação Territorial da Administração Interna (SITAI), onde, entre diversas atividades desenvolvidas, a principal, e conforme exposto no presente relatório, reside na adaptação de dados do Instituto Nacional de Estatística (Censos 2011) ao território nacional após a Reorganização Administrativa do Território das Freguesias (RATF). A segunda enfoca o fenómeno da Violência Doméstica (VD) e consiste no tratamento e análise de vários tipos de dados provenientes da base de dados do Ministério da Administração Interna (MAI) relacionados com o mesmo. Não obstante esta segmentação de trabalhos, é objetivo deste Estágio a aplicação dos Sistemas de Informação Geográfica (SIG) envolvendo dados de realidades específicas e a produção de informação capaz de se constituir como instrumento de suporte à decisão e desenvolvimento de políticas de segurança interna pelas quais o MAI é responsável.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dados hiperespectrais coletados no Brasil pelo sensor AVIRIS (Airborne Visible/Infrared Imaging Spectrometer) foram utilizados para a caracterização espectral de uma típica cena agropastoril e para testar o uso da técnica Spectral Feature Fitting (SFF) na identificação de minerais argilosos na imagem. Utilizou-se um modelo linear de mistura espectral, usando como membros de referência a vegetação verde e seca, a água, e os solos Nitossolo Vermelho, Latossolo Vermelho e Neossolo Quartzarênico órtico. Na identificação dos minerais, foram selecionados espectros de referência da biblioteca espectral do JPL/NASA. Os espectros dos pixels e das referências foram normalizados pelo método do contínuo espectral, entre 2.100 e 2.330 nm, e depois comparados quanto à similaridade com o uso da técnica SFF. A caulinita predomina na cena, cuja identificação remota é dependente do tipo de solo e das proporções dos componentes da cena no interior do pixels. Os melhores resultados foram obtidos em solos de reflectância intermediária a alta e em pixels com valor de abundância da fração solo superior a 70%. Isto ocorreu devido, respectivamente, à menor quantidade de substâncias opacas nestes solos e à redução nos pixels dos efeitos espectrais da lignina-celulose. Estes fatores tendem a mascarar as bandas de absorção das argilas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho define e implementa um sistema de controle de consumo para redes de computadores, objetivando aumentar o tempo de operação da rede em caso de operação com recursos limitados e redução de consumo de energia em situações de fornecimento normal. Na definição do sistema, denominado NetPower, foi estabelecida uma estrutura através da qual um gerente (coordenador) monitora as atividades dos equipamentos vinculados à rede, e determina alterações nos estados de consumo respectivos, de acordo com as necessidades ou atendimento de padrões de otimização. Aos equipamentos podem ser atribuídos diferentes privilégios em uma hierarquia adaptável a diversos ambientes. Um reserva oferece opção às falhas do gerente. A implementação está baseada no protocolo SNMP (Simple Network Management Protocol) para a gerência e são considerados preponderantemente os padrões para controle de consumo dos equipamentos Advanced Power Management, APM, e Advanced Configuration and Power Interface Specification, ACPI. Além da arquitetura do gerente e dos agentes, foi definida também uma MIB (Management Information Base) para controle de consumo. No projeto do sistema, foi privilegiado o objetivo de utilização em qualquer ambiente de rede, sem preferência por equipamentos de algum fabricante específico ou por arquitetura de hardware. Tecnologias de domínio público foram utilizadas, quando possível. No futuro este sistema pode fazer parte da distribuição de sistemas operacionais, incorporando controle de consumo às redes. No texto é feita uma comparação entre os softwares existentes para controle de consumo, são apresentados os recursos de controle de consumo disponíveis nos equipamentos de computação, seguido da descrição do protocolo de gerência utilizado. Em seguida, é apresentada a proposta detalhada do sistema de controle e descrita da implementação do protótipo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O presente estudo aborda a realidade das organizações do Terceiro Setor de Santana do Livramento – RS, com significativo trabalho junto à comunidade. Além das organizações formais, inclui outras que têm atuações locais marcantes, porém na informalidade. Descreve as atividades gerenciais do cotidiano dessas organizações, bem como os seus sistemas operacionais, as principais características e necessidades. A estrutura do trabalho está delineada da seguinte maneira: o Contexto da Pesquisa e seus Fundamentos Teóricos, Método e Análise dos Dados, Considerações e Recomendações e um Glossário sobre o tema. Os resultados encontrados apontam para a relevância do Terceiro do Setor em Santana do Livramento, evidenciado no número de cidadão assistidos, no voluntariado e nos postos de trabalho remunerados. Entretanto, para que este trabalho contribua eficazmente com a organização do Terceiro Setor é fundamental que as recomendações sejam implementadas a fim de que haja continuidade do estudo sobre este heteróclito Setor, cujo objetivo é atender algumas carências dos excluídos das diferentes esferas da sociedade.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Mecanismos de comunicação entre processos são fundamentais no desenvolvimento de sistemas distribuídos, já que constituem o único meio de compartilhar dados entre processos que não dispõem de memória comum. Um dos principais mecanismos de comunicação utilizados é a troca de mensagens entre os processos componentes do sistema. Existem muitas aplicações que são compostas por um conjunto de processos que cooperam para realizar uma determinada tarefa e que são mais facilmente construídas se o sistema operacional oferecer a possibilidade de se enviar uma mensagem a diversos destinos. Neste caso são necessários mecanismos que permitam a difusão confiável de uma mensagem para um grupo de processos em uma única operação. Tendo em vista esta necessidade, diversos protocolos têm sido apresentados na literatura para permitir a comunicação entre um grupo de processos com diferentes graus de complexidade e de desempenho. Este trabalho apresenta um ambiente para desenvolvimento e utilização de protocolos de comunicação em grupo, denominado FlexGroup. O ambiente divide os protocolos em suas características fundamentais, permitindo que estas características possam ser desenvolvidas separadamente como subprotocolos. Os subprotocolo são interligados através de uma interface comum e gerenciados pelo núcleo do ambiente. A comunicação entre as diversas máquinas da rede é gerenciada pelo FlexGroup, permitindo que o desenvolvedor de um novo subprotocolo possa somente se focar nas características específicas do seu protocolo. Esta modularidade permite, ainda, que apenas as partes de interesse de um novo protocolo precisem ser implementadas, além de também viabilizar a criação de um protocolo baseado nos já existentes no ambiente. Além disso, o ambiente permite que as aplicações de comunicação em grupo possam definir, através de uma biblioteca, o conjunto de subprotocolos que desejam utilizar, em tempo de execução, sem necessidade de conhecer a implementação interna dos subprotocolos.. Da mesma forma, alguém que se proponha a realizar comparações com os protocolos existentes, pode utilizar os diversos subprotocolos e as aplicações existentes, bastando alterar os protocolos utilizados em tempo de execução e avaliando somente as características que deseje analisar.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O surgimento de novas aplicações que utilizam o protocolo HTTP nas suas transações e a crescente popularidade da World Wide Web (WWW) provocaram pesquisas pelo aumento do desempenho de servidores Web. Para tal, uma das alternativas propostas neste trabalho é utilizar um conjunto de servidores Web distribuídos que espalham a carga de requisições entre vários computadores, atuando como um só associado a uma estratégia de replicação de conteúdo. Um dos problemas centrais a ser resolvido em servidores Web distribuídos é como manter a consistência das réplicas de conteúdo entre os equipamentos envolvidos. Esta dissertação apresenta conceitos fundamentais envolvendo o tema replicação de conteúdo em servidores Web distribuídos. São mostrados detalhes sobre arquitetura de servidores Web distribuídos, manutenção da consistência em ambientes de servidores Web distribuídos, uso de replicação e formas de replicação. Além disso, são citados alguns trabalhos correlatos ao propósito de manter réplicas consistentes em ambientes de servidores Web distribuídos. Este trabalho tem por objetivo propor um modelo de manutenção da consistência de conteúdo em servidores Web distribuídos com características de transparência e autonomia. O modelo, denominado One Replication Protocol for Internet Servers (ORPIS), adota uma estratégia de propagação otimista porque não existe sincronismo no envio das atualizações para as réplicas. Este trabalho apresenta os principais componentes tecnológicos empregados na Web, além dos problemas causados pela escalabilidade e distribuição inerentes a esse ambiente. São descritas as principais técnicas de aumento de desempenho de servidores Web que atualmente vêm sendo utilizadas. O modelo ORPIS é descrito, sendo apresentados seus pressupostos, elencados seus componentes e detalhados os seus algoritmos de funcionamento. Este trabalho dá uma visão geral sobre a implementação e os testes realizados em alguns módulos do protótipo do modelo, caracterizando o ambiente de desenvolvimento do protótipo e detalhes da implementação. São enumerados os atributos e métodos das classes do protótipo e definidas as estruturas de dados utilizadas. Além disso, apresentam-se os resultados obtidos da avaliação funcional dos módulos implementados no protótipo. Um ponto a ser salientado é a compatibilidade do modelo ORPIS aos servidores Web existentes, sem a necessidade de modificação em suas configurações. O modelo ORPIS é baseado na filosofia de código aberto. Durante o desenvolvimento do protótipo, o uso de software de código aberto proporcionou um rápido acesso às ferramentas necessárias (sistema operacional, linguagens e gerenciador de banco de dados), com possibilidade de alteração nos códigos fonte como uma alternativa de customização.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho apresenta um modelo de mecanismo para o controle de integridade de arquivos em sistemas operacionais, com a capacidade de bloquear o acesso à arquivos inválidos de forma a conter os danos causados por possíveis ataques. O modelo foi inicialmente formulado a partir do estudo detalhado do processo de controle de integridade, revelando diversos pontos críticos de segurança nele existentes, e da avaliação dos mecanismos atualmente implementados nos sistemas operacionais que oferecem, mesmo que indiretamente, algum tipo de garantia de integridade dos arquivos do sistema. Durante o seu desenvolvimento, a segurança do próprio modelo foi detalhadamente analisada de forma a enumerar os seus pontos críticos e possíveis soluções a serem empregadas, resultando na definição dos requisitos mínimos de segurança que devem ser encontrados nesse tipo de mecanismo. Em seguida, visando a validação do modelo especificado e decorrente disponibilização do mecanismo para uso prático e em estudos futuros, um protótipo foi implementado no sistema operacional GNU/Linux. Procurando confirmar a sua viabilidade, foram realizadas análises do impacto causado sobre o desempenho do sistema. Por fim, foi confirmada a importância e viabilidade do emprego do modelo apresentado como mecanismo adicional de segurança em sistemas operacionais. Além disso, foi colocado em evidência um campo de pesquisa ainda pouco explorado e portanto atrativo para a realização de novos estudos.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O principal objetivo deste trabalho é apresentar um método e métricas para a avaliação do serviço Internet mais amplamente utilizado: a World Wide Web. As características básicas e funcionamento do serviço, bem como algumas ferramentas de avaliação de desempenho, serão descritas. Estes capítulos servirão de base para os demais, onde serão apresentados o método para avaliação do serviço web e métricas usadas para análise de desempenho, disponibilidade, confiabilidade, facilidades de administração e recursos. Por fim, o método e métricas serão aplicados na Procempa – Companhia de Processamento de Dados do Município de Porto Alegre, onde será possível verificá-los na prática. Além disto, dados importantes sobre a infra-estrutura web da Procempa serão fornecidos, os quais permitem uma análise do ambiente web atual e futuro da empresa.