95 resultados para Sistema de processamento de informações georeferenciadas


Relevância:

40.00% 40.00%

Publicador:

Resumo:

Neste trabalho realizou-se a vinculação entre o Modelo de Centralidade e um Sistema de Informações Geográficas. A motivação para a realização dessa tarefa surgiu do reconhecimento de que as principais ferramentas utilizadas atualmente em análises espaciais urbanas – Modelos Urbanos e SIGs – apresentam sérias limitações, e que sua união em uma nova ferramenta pode superar muitas dessas limitações. Propôs-se então uma estrutura básica de Sistemas de Suporte ao Planejamento (PSS) que fosse capaz de oferecer suporte efetivo às diversas etapas do processo de planejamento. Essa estrutura serve como base de apoio para a construção da nova ferramenta, cujo objetivo foi testar duas hipóteses: a) A união de Sistemas de Informação Geográficas e o Modelo de Centralidade pode aumentar a qualidade de análises espaciais urbanas, através de aspectos como visualização e precisão dos resultados, e rapidez, facilidade e flexibilidade na realização das análises. b) Sistemas de Informações Geográficas podem contribuir para operacionalizar novos aportes teóricos no Modelo de Centralidade, principalmente através das capacidades de manipulação de elementos espaciais A ferramenta foi construída através de rotinas de personalização do ArcView (scripts), em conjunto com módulos analíticos externos, em forma de DLL, construídos em Delphi. Os scripts se encarregam de compilar os dados necessários à análise de Centralidade, referentes ao traçado e à quantidade e qualidade das formas edificadas, e alimenta o módulo analítico com as informações necessárias. Este as processa e retorna os resultados aos scripts, que então preenchem as tabelas de atributos referentes às unidades espaciais, deixando-as prontas para serem submetidas aos procedimentos de geração de mapas e cruzamentos de dados usualmente realizadas pelos SIGs “comuns”. Para testar a hipótese “a”, realizou-se um estudo de caso na cidade de Pato Branco (PR) para avaliar o desempenho da ferramenta quando aplicada a uma situação próxima da realidade. O desempenho da ferramenta mostrou-se bastante satisfatório, quando comparado com o método tradicional de análise da Centralidade. A organização dos dados foi beneficiada, assim como o tempo de realização das análises, aumentando a flexibilidade para a realização de testes com diferentes configurações. Para testar a hipótese “b”, propôs-se uma pequena alteração no Modelo de Centralidade, que atribuiu pesos diferenciados às conexões entre elementos espaciais, como forma de tentar superar algumas das limitações das representações utilizadas até o momento. Dessa forma, os ângulos entre os trechos de logradouros passaram a definir custos diferenciados entre trechos, que por sua vez influenciavam na determinação dos caminhos mínimos entre trechos, dado essencial para o conceito de Centralidade Ficou provado então que é possível operacionalizar novos aportes teóricos ao modelo de Centralidade utilizando as capacidades de manipulação de dados espaciais oferecidas pelos SIGs, ainda que a validade do aporte utilizado neste trabalho não tenha sido testada. Outras conclusões do estudo são a adequação da estrutura modular da ferramenta, a necessidade de bases de dados completas e adequadas desde o ponto de vista do modelo de dados, e o reconhecimento de um vasto campo de experimentações a serem feitas como evolução natural das idéias apresentadas aqui.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

O objetivo principal deste trabalho é elaborar uma sistemática para estruturar uma rede logística reversa de distribuição para o sistema de coleta, processamento e recuperação de resíduos da construção civil. O trabalho foi estruturado em três partes, sendo que na primeira parte elaborou-se uma introdução geral à logística e à logística reversa em particular, definindo uma estrutura de suporte ao estudo de caso e às conclusões do trabalho; na segunda parte procurou-se vincular a logística reversa à sustentabilidade; e na terceira parte elaborou-se uma sistemática para a rede de distribuição, definindo os dados a serem utilizados na aplicação dos modelos, fazendo análises e tirando conclusões a respeito dos resultados obtidos e indicando possíveis desenvolvimentos futuros para o trabalho. Para a formatação da rede desenvolveu-se o modelo de rede reversa de recuperação de resíduos – MRRR, baseado em programação linear inteira mista. Para aplicação do MRRR ao caso dos resíduos de construção e demolição – RCD no município de Curitiba, definiu- se instalações de transbordo e de reciclagem candidatas, através da aplicação de um modelo de localização de múltiplos centros de gravidade – MMCG. Como nós fixos da rede foram considerados as zonas de consumo e de geração, os mercados secundários de recicláveis e recicladores e o aterro sanitário. Os dados para formatação da rede foram gerados pelo MRRR. Como produtos deste trabalho tem-se a sistemática, que pode ser aplicada para a estruturação de redes similares, e a formatação da rede reversa para os resíduos de construção e demolição em Curitiba. Como conclusão, entre outras, verificou-se que a redução da alíquota de imposto pode ser utilizada como incentivo à melhoria da qualidade do resíduo gerado.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

O presente trabalho se insere dentro de uma aplicação real na Assembléia Legislativa do Rio Grande do Sul (ALERGS), desenvolvida no Departamento de Sistemas de Informações, aproveitando-se do Sistema PRIMA/Vídeo – um sistema de veiculação interna de sinais dedeo – já existente desde novembro de 1996. O PRIMA/Vídeo surgiu da necessidade de implantação de um sistema que permitisse o acompanhamento das múltiplas reuniões realizadas simultaneamente no âmbito do Palácio Farroupilha. Um projeto foi elaborado pela IBM do Brasil e implantado um sistema composto por dezesseis câmeras de sinais dedeo ligadas a uma rede de 120 estações, que recebem analogicamente e em tempo real os sinais dedeo. Este sistema permite o acompanhamento on-line de qualquer reunião nas dependências da ALERGS, além de receber imagens dos canais das emissoras a cabo. Entretanto, surgiu a necessidade de gravação destes vários eventos ocorridos para posterior exibição, criando, assim, um estudo para um sistema de informações composto de dados multimídia (sinais dedeo do PRIMA/Vídeo). O Sistema de Informações Hipermídia da Assembléia Legislativa (SIHAL) visa o armazenamento e a disponibilização de sinais dedeo (imagem e som) aos usuários internos da ALERGS. Através deste novo Sistema, os usuários poderão assistir a reuniões realizadas anteriormente e terão opções com capacidade de: • armazenar e organizar fisicamente os vídeos analógicos das Sessões Plenárias; • organizar o agendamento das Sessões Plenárias solicitadas no canal analógico dedeo do PRIMA/Vídeo; • armazenar digitalmente os principais trechos dedeo dos eventos da Assembléia; • fornecer o download dos trechos digitalizados aos usuários pela interface do Sistema; • fornecer a fita dedeo aos usuários do Sistema; • criar uma base de dados dedeo referente às imagens digitalizadas das Sessões Plenárias; • fornecer acesso à base de dados dedeo. A principal contribuição desta dissertação é o estudo sobre soluções mistas, integrando dados multimídia analógicos e digitais com o intuito de propor um Sistema de Informações Hipermídia, o qual foi denominado de SIHAL. Um protótipo do SIHAL será implementado como demonstração da viabilidade das idéias citadas no sistema proposto.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Os Sistemas de Recuperação de Informações (SRI) computadorizados são sistemas capazes de armazenar, recuperar e manter informações, visando minimizar o esforço humano na realização de tais atividades. A classificação de textos é um subdomínio dos sistemas de recuperação de informações que tem como objetivo classificar um texto em uma ou mais categorias existentes. Pode ser utilizada na classificação de mensagens, notícias e documentos, na filtragem de informações, na sumarização de textos, além de auxiliar profissionais na execução destas tarefas. A filtragem automatizada das mensagens de correio eletrônico é uma forma de organizar o trabalho do usuário. O volume de informações divulgadas através deste serviço torna fundamental um sistema de filtros para melhor uso do serviço. Sieve é uma proposta para padrão de linguagens de filtro de mensagens. O Direto é um software de correio, agenda e catálogo corporativos que visa atender todo Governo do Estado do Rio Grande do Sul. Foi desenvolvido na PROCERGS, Companhia de Processamento de Dados do Estado do Rio Grande do Sul, utilizando a linguagem Java e utiliza os serviços de IMAP, SMTP, LDAP e SGBD. Está disponível com licença de software livre. O objetivo deste trabalho é aplicar técnicas de filtragem no Direto. O trabalho apresenta uma solução para filtrar as mensagens de correio do Direto utilizando Sieve. Também é especificado um serviço de canais de informação que visa divulgar informações de forma eficiente no Estado. Este serviço possui vários canais, cada um destinado a divulgar informações de determinado domínio. O usuário assina os canais que desejar e pode criar filtros para melhor refinamento das informações que deseja receber. Os filtros utilizam técnicas de classificação de textos no processo de filtragem.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

A característica de autogestão existente em uma cooperativa faz com que o processo administrativo e gerencial seja diferenciado das demais organizações. Mas, independentemente dessas características, informações são necessárias em qualquer um dos níveis decisórios desse tipo de organização. Sendo assim, o presente trabalho tem como objetivo pesquisar a influência do sistema de informações existente na Cooperativa Regional Tritícola Santiaguense Ltda, em seu processo decisório, e, também, descrever a estrutura de poder e o sistema de informações existente, verificando como este se articula com a estrutura do poder, visando à tomada de decisão. Para isso, foi feita uma análise do ambiente da organização em estudo, uma revisão de literatura, englobando os aspectos referentes ao cooperativismo, à gestão em cooperativas, aos sistemas de informações, à tecnologia da informação e à tomada de decisão. A pesquisa aplicada para a obtenção dos dados analisados foi de natureza exploratória e descritiva, configurando-se como um estudo de caso. A coleta dos dados para a obtenção das evidências que definiram o resultado da pesquisa foi feita através de entrevistas, documentação, observações diretas e observação participante. Os resultados obtidos demonstram que, apesar de a cooperativa possuir uma estrutura adequada ao tipo de atividade, precisa, ainda, melhorar alguns aspectos referentes à obtenção das informações bem como ao seu uso. Os gestores dessa organização possuem deficiências para compreender e analisar as informações disponíveis no Sistema de Informações, o que dificulta a análise das mesmas. Fica, neste trabalho, a constatação de que a cooperativa deve possuir recursos gerenciais baseados em informações, permitindo que sua administração seja feita de forma a mantê-la competitiva no mercado onde atua. Uma cooperativa tem, efetivamente, características diferenciadas, mas não pode deixar de utilizar, de forma eficiente, informações que irão dar subsídios para a tomada de decisão e conseqüente gerenciamento e manutenção do negócio. Para isso, precisa prover-se de recursos, tanto materiais, como humanos, baseados nos modelos científicos existentes e confirmados pelos autores que fundamentam esta pesquisa.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Esta dissertação descreve a implementação de um Sistema de Informações Geográficas (SIG) para a Área Antártica Especialmente Gerenciada (AAEG) da Baía do Almirantado, Ilha Rei George, Arquipélago das Schetland do Sul, Antártica. O trabalho constituiu na definição de equipamentos e do SIG (ARC/INFO) necessários para a operação do sistema e integração dos dados nos diferentes formatos. Os primeiros planos de informação para este SIG estão prontos: (1) altimetria; (2) batimetria; (3) linha de costa; (4) glaciologia; (5) áreas livres de gelo; (6) ocupação humana (feições antropogênicas); e (7) toponímias. Os resultados são apresentados através de quatro estudos, exemplificando algumas de suas aplicações no gerenciamento da área. Inicialmente realizou-se a revisão dos limites da AAEG, conforme sugestões do Protocolo ao Tratado Antártico sobre Proteção ao Meio Ambiente (Protocolo de Madri), a área total foi recalculada em 362km2 (anteriormente calculada em 370 km2). A partir da geração de um Modelo Digital de Elevação (MDE) obteve-se a visualização tridimensional da área, que possibilitou a descrição de algumas de suas características geomorfológicas e revisão de cálculos morfométricos. As águas da AAEG possuem um volume de 24,1km3, sendo 22,7 km3 pertencentes a Baía do Almirantado e 1,4km3 ao Estreito de Bransfield. Com a integração de dados multitemporais, quantificou-se a retração das frentes de gelo da Baía do Almiratado, constatando-se a perda de 22,5km2 de gelo (12% da cobertura atual) entre 1956 e 2000. E, finalmente, a Península Keller serviu como área teste para um pequeno estudo de impacto ambiental, sendo identificado conflito da ocupação humana com áreas de reprodução, constatando-se a ocorrência de impacto superior a um impacto menor ou transitório, segundo as definições do Protocolo Madri. A implementação do sistema seguiu os padrões de Working Group of Geodesy and Geographic Information (WG-GGI) do Scientific Committee on Antarctic Research (SCAR), permitindo a compatibilidade com projetos internacionais. O SIG serve como importante ferramenta de apoio ao gerenciamento da AAEG, podendo ser utilizado no planejamento de atividades científicas e logísticas, monitoramento e avaliações de impacto ambiental.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Este trabalho consiste de um estudo de caso que tem por objetivo principal, avaliar o processo de implementação de um Sistema de Informações integrado em uma Instituição de Ensino Superior, entidade privada, com base no modelo proposto por Walton(1993).No referencial teórico analisaram-se os conceitos de dados, informação,conhecimento, a informação como recurso estratégico nas organizações, os Sistemas de Informação com o uso da Tecnologia da Informação, apresentando seus tipos, evolução, objetivos e, algumas formas de implementação preconizada na literatura. O instrumento de pesquisa adotado foi a entrevista, estruturada com a utilização de um questionário elaborado a partir dos objetivos do estudo e do modelo de Walton (1993). A análise dos dados coletados foi feita através da aderência das respostas com os preceitos do modelo, o que possibilitou constatar sua contribuição para a identificação dos elementos críticos de um processo de implementação de Sistema de Informações integrado, através das fases inter-relacionadas de criação do contexto favorável, desenho, instalação e uso do sistema, com a contribuição das ações da administração em promoverem os atributos-chave essenciais de alinhamento das estratégias de negócio, de organização e de tecnologia, comprometimento e domínio por parte de todos os envolvidos.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

O entendimento da manufatura celular passa pelo estudo das rotas de fabricação e pelos métodos de agrupamento de máquinas e de peças. Neste contexto, o objetivo principal deste trabalho é a implemetação de uma ferramenta de auxílio ao projeto de células de manufatura, abordando uma metodologia fundamentada na Tecnologia de Grupo para agrupamento de máquinas em células de manufatura com as respectivas famílias de peças. A base de dados com as informações das peças, das máquinas e das rotas que compõe o fluxo de produção é implementada em um banco de dados relacional. A matriz incidência peça-máquina é montada a partir das rotas armazenadas no banco de dados através de um aplicativo desenvolvido em Visual Basic. Os agrupamentos em famílias de peças e células de manufatura são gerados por três diferentes algoritmos: o Rank Order Clustering (ROC), o Close Neighbor Algorithm (CNA) e um algoritmo heurístico (HEU). São aplicadas restrições referentes a limite de carregamento, tamanho de célula e resolução de situações de “gargalo”. Processados os algoritmos de agrupamento, são analisados os resultados em função da densidade e da eficiência do agrupamento. O sistema apresenta o resultado final em planilhas no formato MS Excel. A primeira planilha, chamada resultados, exibe os valores das restrições de projeto das células (número de máquinas por célula, tempo limite de carregamento e tempo limite para duplicação da máquina), o número de peças (colunas) e de máquinas (linhas) da matriz incidência, os valores de eficiência do agrupamento de peças, do agrupamento de máquinas e do aproveitamento dos recursos, bem como o número de células independentes e a quantidade de máquinas duplicadas, obtidos por cada algoritmo no sistema, destacando os melhores resultados. A segunda planilha mostra a matriz incidência peça-máquina. As demais planilhas apresentam, respectivamente, a matriz diagonalizada com o algoritmo original (ROC e CNA), a matriz diagonalizada levando-se em consideração as restrições de projeto das células (análise ROC, análise CNA e HEU) e por fim, uma planilha relatório. A planilha relatório tabula os mesmos valores citados na primeira planilha e lista as peças associadas a cada família, as máquinas associadas a cada célula, as peças rejeitadas, por não se enquadrarem nos agrupamentos, e que devem ser tratadas fora do ambiente celular e as máquinas duplicadas. A comparação dos resultados é efetuada considerando as características adicionadas aos algoritmos originais. Dos três estudados, as restrições de projeto são tratadas na implementação do HEU. Os demais, ROC e CNA, têm incorporado um pós processamento. Em análises comparativas observa-se a superioridade dos algoritmos ROC e HEU em relação ao CNA e os resultados do ROC são melhores ou iguais aos demais, dificilmente inferiores.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

A elaboração de um projeto de obra de edificação é fruto da interação entre profissionais de diversas disciplinas desenvolvendo, simultaneamente, suas opções e decisões com relação ao mesmo. É necessário considerar a qualidade do processo de elaboração do projeto dependente de uma efetiva comunicação entre os membros da equipe. A indústria da construção civil está sendo beneficiada pelos recursos oferecidos pela tecnologia da informação como, por exemplo, os sistemas colaborativos (extranets de projeto). Estes sistemas corroboram na integração e comunicação entre os membros de um projeto. O objetivo da presente pesquisa foi a apresentação do desenvolvimento de modelo validado de ferramenta computacional projetada para complementar um sistema colaborativo pré-existente. Esta ferramenta foi denominada Sistema de Programação e Controle do Processo de Projeto (SIPROCON/PP). A finalidade do SIPROCON/PP é auxiliar no processo de tomada de decisão dos coordenadores através do monitoramento do cronograma e do fluxo do intercâmbio de informações das atividades geradoras de informações neste processo. O processo de desenvolvimento da ferramenta foi delineado em harmonia com a organização da pesquisa. Neste sentido, é assinalado o uso da prototipação e da simulação como estratégias de pesquisa, utilizados respectivamente na construção e validação do modelo da ferramenta. Ante a necessidade do experimento, foi criada uma atividade lúdica através da qual foi reproduzido o intercâmbio de informações de um processo de projeto denominada Sistemática de Simulação do Processo de Projeto (SS/PP) para validação do modelo da ferramenta. Logo, por meio do uso das simulações foram obtidos os dados correspondentes a validação da modelagem e aplicação do SIPROCON/PP e, ao mesmo tempo, necessários à conclusão da pesquisa. Diante disso, a partir da análise dos dados coletados é apontada a melhoria na qualidade do processo de elaboração do projeto considerando a formação de uma equipe equilibrada de projeto. Isso, fruto do conhecimento mais acurado do coordenador sobre o desempenho de cada projetista.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Os sistemas operacionais de tempo real, assim como os sistemas embarcados, estão inseridos no desenvolvimento de projetos de automação industrial segmentado em diversas áreas de pesquisa como, por exemplo, robótica, telecomunicações, e barramentos industriais. As aplicações de sistemas modernos de controle e automação necessitam de alta confiabilidade, velocidade de comunicação, além de, determinismo temporal. Sistemas operacionais de tempo real (SOTR) têm-se apresentado como uma solução confiável quando aplicadas em sistemas que se fundamentam no cumprimento de requisitos temporais. Além disso, o desempenho computacional é totalmente dependente da capacidade operacional da unidade de processamento. Em um sistema monoprocessado, parte da capacidade computacional da unidade de processamento é utilizada em atividades administrativas, como por exemplo, processos de chaveamento e salvamento de contexto. Em decorrência disto, surge a sobrecarga computacional como fator preponderante para o desempenho do sistema. Este trabalho tem por objetivo, analisar e fornecer uma arquitetura alternativa para realizar o co-processamento de tarefas em uma plataforma IBM-PC, aumentando a capacidade computacional do microprocessador principal. No presente trabalho, a plataforma de coprocessamento realiza a execução do algoritmo de escalonamento do sistema operacional, desta forma distribuiu-se o gerenciamento temporal das tarefas entre a plataforma IBM-PC e a unidade de co-processamento.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

O tráfego de veículos, principalmente nas vias públicas de regiões densamente povoadas, tem sido objeto de preocupação por diversos aspectos: segurança no trânsito, supervisão da frota, controle de poluição, prevenção, registro de irregularidades, etc. Sistemas eletrônicos tradicionais são apontados como limitados pelas dificuldades apresentadas na instalação dos sensores e poucos recursos para extração de informações. Este trabalho propõe um sistema baseado no processamento digital de imagens em vídeo para detectar, acompanhar e extrair informações de um veículo em movimento, tais como: posição, velocidade e dimensões. Embora técnicas de pré-processamento sejam empregadas para minimizar problemas iluminação e trepidação, informações obtidas nas etapas finais do processamento, tendem a distorcer em função destes fatores. Algoritmos baseados em análise probabilística no domínio espaço temporal de imagens 2-D são propostos para segmentar o objeto mesmo na presença destes fatores. A fim de tornar o acompanhamento mais robusto a oclusões e pixels espúrio s, é proposto um método que detecta e rejeita posições inconsistentes do objeto de acordo com a estimativa de sua próxima posição.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Na atual conjuntura que o mundo dos negócios se encontra, cada vez mais as organizações são pressionadas a apresentar uma maior transparência em seus processos de gestão. As organizações de capital aberto já são forçadas, a bastante tempo, a cumprir regras que procuram estabelecer critérios mínimos de confiabilidade das informações que são disponibilizadas ao mercado acionário. No entanto, os últimos acontecimentos envolvendo grandes organizações americanas em escândalos acabaram comprometendo a confiança dos investidores nas informações e nos processos de governança vigente. Assim, desde então, tem sido exigida uma maior transparência corporativa por parte das organizações e órgãos reguladores do mercado acionário. Da mesma forma, muitas são as empresas de capital fechado e de controle acionário familiar que estão investindo fortemente em um processo de profissionalização. Estas organizações investem com o objetivo de fazer parte de um novo modelo empresarial que preserva a transparência e respeito aos investidores. Este estudo enfoca o processo de identificação dos requisitos informacionais para um sistema de informações a ser utilizado por um conselho de administração em uma empresa, cujo controle acionário é familiar. O conselho de administração assumiu um papel relevante no novo modelo empresarial que busca a boa governança corporativa, pois é ele o principal elo de ligação entre os acionistas e o grupo executivo das organizações. Para o desenvolvimento do estudo foi empregada a metodologia “Soft Systems”, com as seguintes finalidades: identificar o problema a ser abordado, definir os modelos conceituais, registrar os requisitos informacionais das principais atividades identificadas, comparar os modelos conceituais com os sistemas informacionais existentes e, por fim, propor melhorias para a situação problemática identificada.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Historicamente, devido à incompreensibilidade dos fenômenos físicos envolvidos, diversas técnicas de análise experimental de escoamentos foram desenvolvidas. Inicialmente, estas técnicas consistiam em uma simples visualização do escoamento em questão. Visava-se com isto produzir a intuição física a respeito do sistema físico para que futuras teorias pudessem ser formuladas. No entanto, nos anos posteriores, tornou-se necessária a criação de técnicas quantitativas. Neste segmento, a evolução tecnológica da eletrônica propiciou que técnicas intrusivas e não intrusivas fossem criadas. Tal processo culminou com o surgimento da microeletrônica, quando sensores eletrônicos de imagem puderam ser fabricados. Assim, técnicas não intrusivas de velocimetria através de processamento digital de imagens tornaram-se referência, possibilitando a medição de campos de velocidade do escoamento em análise. Tais técnicas são atualmente utilizadas não apenas no meio acadêmico, na investigação da turbulência, como na indústria, em projetos de engenharia que envolvam alta tecnologia. Neste trabalho, apresenta-se uma metodologia para a concepção de um sistema de velocimetria de 2 dimensões por processamento digital de imagens. Para tanto, o sistema de velocimetria foi dividido em duas partes, sendo os equipamentos bem como os conceitos físicos envolvidos em cada uma analisados e descritos Por fim, projetou-se e implementou-se um sistema de velocimetria de 2 dimensões através de processamento digital de imagens, modo PIV. A sua validação foi efetuada sobre um escoamento altamente turbulento interno a um duto circular, cuja solução é conhecida e exaustivamente estudada no decorrer dos anos. O resultado obtido se apresentou totalmente satisfatório e demonstrou a grande importância atual de tal técnica de medição.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Clusters de computadores são geralmente utilizados para se obter alto desempenho na execução de aplicações paralelas. Sua utilização tem aumentado significativamente ao longo dos anos e resulta hoje em uma presença de quase 60% entre as 500 máquinas mais rápidas do mundo. Embora a utilização de clusters seja bastante difundida, a tarefa de monitoramento de recursos dessas máquinas é considerada complexa. Essa complexidade advém do fato de existirem diferentes configurações de software e hardware que podem ser caracterizadas como cluster. Diferentes configurações acabam por fazer com que o administrador de um cluster necessite de mais de uma ferramenta de monitoramento para conseguir obter informações suficientes para uma tomada de decisão acerca de eventuais problemas que possam estar acontecendo no seu cluster. Outra situação que demonstra a complexidade da tarefa de monitoramento acontece quando o desenvolvedor de aplicações paralelas necessita de informações relativas ao ambiente de execução da sua aplicação para entender melhor o seu comportamento. A execução de aplicações paralelas em ambientes multi-cluster e grid juntamente com a necessidade de informações externas à aplicação é outra situação que necessita da tarefa de monitoramento. Em todas essas situações, verifica-se a existência de múltiplas fontes de dados independentes e que podem ter informações relacionadas ou complementares. O objetivo deste trabalho é propor um modelo de integração de dados que pode se adaptar a diferentes fontes de informação e gerar como resultado informações integradas que sejam passíveis de uma visualização conjunta por alguma ferramenta. Esse modelo é baseado na depuração offline de aplicações paralelas e é dividido em duas etapas: a coleta de dados e uma posterior integração das informações. Um protótipo baseado nesse modelo de integração é descrito neste trabalho Esse protótipo utiliza como fontes de informação as ferramentas de monitoramento de cluster Ganglia e Performance Co-Pilot, bibliotecas de rastreamento de aplicações DECK e MPI e uma instrumentação do Sistema operacional Linux para registrar as trocas de contexto de um conjunto de processos. Pajé é a ferramenta escolhida para a visualização integrada das informações. Os resultados do processo de integração de dados pelo protótipo apresentado neste trabalho são caracterizados em três tipos: depuração de aplicações DECK, depuração de aplicações MPI e monitoramento de cluster. Ao final do texto, são delineadas algumas conclusões e contribuições desse trabalho, assim como algumas sugestões de trabalhos futuros.

Relevância:

30.00% 30.00%

Publicador: