926 resultados para Sistema de monitoramento agrometeorológico


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta dissertação aborda, através de um Estudo de Caso, a problemática da implantação e monitoramento de estratégias em organizações do tipo “sem fins lucrativos” intensivas em conhecimento. Em particular, são analisados métodos abrangentes de avaliação de desempenho que consistem em um conjunto de medidores, englobando diversas perspectivas de avaliação, com grande impacto na gestão corporativa, representando um avanço em relação aos tradicionais modelos baseados somente em indicadores financeiros. O Estudo identifica as estratégias do SEBRAE/RS e, a partir das análises, propõe uma nova sistemática de avaliação de desempenho, baseada no Balanced Scorecard de Kaplan e Norton, proporcionando melhor visualização, tradução, articulação, comunicação e motivação à realização das estratégias, contemplando as variáveis que são críticas para alcançar a missão estabelecida.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho apresenta uma arquitetura para Ambientes de Desenvolvimento de Software (ADS). Esta arquitetura é baseada em produtos comerciais de prateleira (COTS), principalmente em um Sistema de Gerência de Workflow – SGW (Microsoft Exchange 2000 Server – E2K) - e tem como plataforma de funcionamento a Internet, integrando também algumas ferramentas que fazem parte do grande conjunto de aplicativos que é utilizado no processo de desenvolvimento de software. O desenvolvimento de um protótipo (WOSDIE – WOrkflow-based Software Development Integrated Environment) baseado na arquitetura apresentada é descrito em detalhes, mostrando as etapas de construção, funções implementadas e dispositivos necessários para a integração de um SGW, ferramentas de desenvolvimento, banco de dados (WSS – Web Storage System) e outros, para a construção de um ADS. O processo de software aplicado no WOSDIE foi extraído do RUP (Rational Unified Process – Processo Unificado Rational). Este processo foi modelado na ferramenta Workflow Designer, que permite a modelagem dos processos de workflow dentro do E2K. A ativação de ferramentas a partir de um navegador Web e o armazenamento dos artefatos produzidos em um projeto de software também são abordados. O E2K faz o monitoramento dos eventos que ocorrem dentro do ambiente WOSDIE, definindo, a partir das condições modeladas no Workflow Designer, quais atividades devem ser iniciadas após o término de alguma atividade anterior e quem é o responsável pela execução destas novas atividades (assinalamento de atividades). A arquitetura proposta e o protótipo WOSDIE são avaliados segundo alguns critérios retirados de vários trabalhos. Estas avaliações mostram em mais detalhes as características da arquitetura proposta e proporcionam uma descrição das vantagens e problemas associados ao WOSDIE.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho apresenta a implantação do processo de Planejamento Estratégico e o conseqüente sistema de medição com sugestão de inclusão de novos indicadores críticos ao sucesso da gestão em Empresa da Indústria Têxtil. Primeiramente foi elaborado o Planejamento Estratégico da Empresa em questão, pois é indispensável à análise de competitividade das organizações bem como necessário à elaboração de seus Sistemas de Medidas de Desempenho, decorrentes das estratégias estabelecidas. Em seguida, foi revisto o Sistema de Medidas de Desempenho utilizado, que tem o objetivo de estimular as primeiras ações de ajuste do planejado com a situação real. Por último o Sistema de Medidas de Desempenho existente foi comparado ao proposto no Balanced Scorecard para a adoção de ações de ajuste do sistema atual, contemplando a introdução de novos indicadores. Ficaram evidentes os benefícios decorrentes do processo de Planejamento Estratégico com a definição de objetivos e a formulação de estratégias para alcançá-los, desdobradas em todos os níveis da organização – requerendo um Sistema adequado de Medidas de Desempenho para o monitoramento da implementação das ações resultantes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho apresenta a proposta e a implementação de um sistema de gerência de energia para redes locais de computadores (Local Area Networks ou LANs). Desde sua introdução, no início dos anos 90, os mecanismos de gerência de energia para computadores têm contribuído de maneira significativa para a redução do consumo nos períodos de inatividade, mas podem ter seu efeito minimizado por uma série de fatores, dentre os quais destaca-se a conexão do equipamento a uma rede. Em linhas gerais, o objetivo do sistema proposto é, justamente, facilitar a gerência de energia em ambientes de rede. O funcionamento do sistema é baseado na aplicação de políticas de consumo definidas pelo administrador da rede. As políticas podem ser aplicadas em duas situações distintas: em horários pré-determinados (p. ex. depois do horário comercial), quando podem ajudar a reduzir o desperdício de energia, ou em resposta a alterações no fornecimento de energia, caso a rede seja protegida por no-breaks, quando a redução no consumo resulta em maior tempo de autonomia da fonte reserva (banco de baterias). As políticas são configuradas através de um mecanismo flexível, que permite não apenas desligar os equipamentos, mas colocá-los em estados intermediários de consumo e executar outros tipos de ações. A arquitetura do sistema é baseada no modelo SNMP (Simple Network Management Protocol) de gerência de redes. É composta, basicamente, de agentes, elementos de software que residem nos equipamentos da rede e detêm o conhecimento específico sobre suas características de consumo de eletricidade, e de um gerente, elemento central que contém a configuração das políticas de consumo e que é responsável pelo monitoramento e controle dos agentes. Gerente e agentes comunicam-se através do protocolo SNMP, trocando informações segundo uma base de informações (MIB) projetada especificamente para a gerência de energia. A ênfase da parte prática do trabalho está no gerente, que foi inteiramente implementado através da linguagem Java, utilizando bibliotecas disponíveis gratuitamente. Adicionalmente, foi implementado um agente-protótipo para a plataforma Windows, o que permitiu observar o sistema completo em execução. Os testes permitiram validar a praticabilidade da arquitetura e estimar o ganho potencial proporcionado pela utilização do sistema. São apresentadas medições que demonstram um aumento de até 6 vezes na autonomia do banco de baterias do no-break para uma configuração de rede pequena, utilizando o sistema para desligar automaticamente 90% dos computadores durante um corte no fornecimento externo. A economia decorrente da redução de consumo em horários de inatividade foi estimada em até R$0,63 por computador no período de um ano (tomando por base a tarifa média praticada no Brasil entre janeiro e maio de 2002).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O relatório contém os resultados de uma pesquisa realizada em Santo André, SP, que visou testar um sistema de indicadores para avaliar a qualidade de vida local. Depois de uma primeira parte teórico-conceitual, apresenta uma análise preliminar dos dados que foram obtidos junto aos órgãos públicos visitados ou sites consultados pela Internet. Embora os resultados alcançados não tenham sido plenamente satisfatórios, considera-se que foi uma importante experiência no sentido de aprofundar o conhecimento dos problemas concretos e específicos para a coleta de dados que apresenta uma Prefeitura.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Neste trabalho, foi obtido o xerogel híbrido 3-(1,4-fenilenodiamina) propil/sílica, usando-se o método sol-gel de síntese, variando-se as condições experimentais de síntese. Foram usados como reagentes precursores o tetraetilortosilicato (TEOS) e o 3-[(1,4-fenilenodiamina)propil]trimetoxisilano (FDAPS) sintetizado em nosso laboratório. As condições experimentais de síntese variadas foram: a concentração de precursor orgânico (FDAPS), a temperatura de gelificação, o tipo de solvente e o pH do meio reacional. O trabalho foi dividido em duas etapas: na primeira, foram obtidas duas séries de materiais onde se variou a temperatura de gelificação (5, 25, 50 e 70 °C), além da quantidade de precursor orgânico (FDAPS), adicionado à síntese (1,5 e 5,0 mmol). Na segunda etapa variou-se o pH do meio reacional (4, 7 e 10) além do tipo de solvente (etanol, butanol e octanol), mantendo-se a quantidade de precursor orgânico adicionado e a temperatura de gelificação constantes em 5,0 mmol e 25 oC, respectivamente. Em ambas etapas utilizou-se HF como catalisador e manteve-se o sistema fechado, porém não vedado, durante a gelificação. Na caracterização dos xerogéis híbridos foram usadas as seguintes técnicas: a) termoanálise no infravermelho, para estimar a estabilidade térmica do componente orgânico além da fração de orgânicos dispersos na superfície; b) isotermas de adsorção e dessorção de nitrogênio, para determinação da área superficial específica, do volume e da distribuição de tamanho de poros; c) análise elementar para estimar a fração de componente orgânico presente no xerogel e d) microscopia eletrônica de varredura onde foi possível observar textura, compactação e presença de partículas primárias nos xerogéis. A partir dos resultados de caracterização foi possível avaliar a influência dos parâmetros experimentais de síntese nas características dos xerogéis híbridos obtidos. Xerogéis híbridos com maior teor de orgânicos foram mais influenciados pela variação da temperatura de gelificação. Um aumento na temperatura de gelificação produz xerogéis com menor porosidade, entretanto, com maior estabilidade térmica do componente orgânico. Considerando-se estabilidade térmica e porosidade, as amostras gelificadas a 25 oC apresentaram os melhores resultados. Em relação à variação de pH e solvente, as amostras gelificadas em pH ácido foram as que apresentaram maior porosidade, enquanto que a maior estabilidade térmica foi alcançada usando-se etanol como solvente.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este estudo teve como objetivo avaliar se o Sistema de Gestão Logística e Patrimonial (SLP) desenvolvido pela Administração Nacional do SESC, atende às necessidades de suas Administrações Regionais, apontando elementos positivos e negativos. Envolvendo as áreas de logística de suprimentos, logística interna e gestão de bens móveis pennanentes, o estudo teve também como objetivo estabelecer metodologia de avaliação, visto que não se encontrou caso similar aplicado em organizações prestadoras de serviços. A metodologia tratou de aspectos gerais relacionados a maior significância das atividades de recursos humanos, a eficiência das tarefas e a qualidade e segurança das infonnações, tudo resultado da utilização de tecnologia de infonnação. De fonna mais específica, a metodologia tratou de pontos focais das áreas que compõem o estudo: infonnação, cadastro, processamento, monitoramento, recebimento e planejamento. Incluiu-se ainda no método, avaliação sobre a necessidade de desenvolvimento de módulo de logística de distribuição no SLP. Os resultados do estudo evidenciaram que o SLP atende às necessidades das Administrações Regionais do SESC, que a necessidade de desenvolvimento do módulo de logística de distribuição deve ser melhor analisada e que a metodologia se mostrou viável e deve ser motivo de novas pesquisas em organizações prestadoras de serviços, inclusive no SESC, visto que o modelo gera impactos no gerenciamento da atividade logística e patrimonial.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O metotrexato (MTX) é um antagonista do ácido fólico amplamente utilizado no tratamento de doenças neoplásicas e não neoplásicas. Entretanto, o uso terapêutico desse fármaco pode levar à neurotoxicidade que pode se manifestar na forma aguda, subaguda e crônica, abrangendo os seguintes sintomas: cefaléia, sonolência, confusão, edema cerebral, convulsões, encefalopatia, coma e prejuízo das funções cognitivas. Os achados neuropatológicos consistem de astrogliose reativa, desmielinização, dano axonal e necrose da substância branca. Em nível celular, o MTX parece afetar primeira e seletivamente os astrócitos, quando comparados com os neurônios.O exato mecanismo neurotóxico do MTX continua não esclarecido, e parece ser multifatorial. Visando ampliar os conhecimentos a respeito dos efeitos do MTX no SNC, foram desenvolvidos dois trabalhos com diferentes modelos em animais, nos quais foram estudados os possíveis mecanismos de ação tóxica desse fármaco, como também propomos a utilização do marcador bioquímico S100B na detecção de injúrias cerebrais associadas ao tratamento. A partir dos resultados obtidos nos experimentos de captação de glutamato in vitro, verificamos que o MTX interfere na remoção do glutamato da fenda sináptica, podendo levar à excitotoxicidade. Também, o aumento da proteína S100B auxilia no entendimento dos mecanismos de ação do MTX, pois sugere que os astrócitos estão respondendo a um insulto na tentativa de neuroproteção Além disso, a S100B, aliada a outros marcadores neuroquímicos e técnicas de diagnóstico por imagem, seria muito importante no monitoramento terapêutico, pois poderia detectar alterações celulares sutis e ajudaria a prevenir a neurotoxicidade pelo MTX. Os resultados que obtivemos nos experimentos de convulsões induzidas pelo MTX demonstraram a participação do sistema glutamatérgico na neurotoxicidade desse fármaco. Especificamente, evidenciamos o envolvimento dos receptores inotrópicos glutamatérgicos na patogênese das convulsões. Porém, neste modelo experimental, a captação de glutamato possivelmente diminuiu em decorrência das manifestações das convulsões e não por uma ação direta, ou indireta, do MTX. O entendimento dos mecanismos de ação é muito importante para a clínica médica, pois permite que novas ferramentas sejam criadas no intuito de prevenir os danos tóxicos induzidos por fármacos. Assim, mais estudos devem ser realizados para tentar desvendar os mecanismos de neurotoxicidade do MTX, como também para estudar potenciais marcadores bioquímicos de injúria cerebral que auxiliem no monitoramento terapêutico.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A causa mais evidente das fraudes às quais me refiro foi a falta de transparência nas demonstrações contábeis, ferramenta largamente usada por analistas financeiros quando da avaliação de empresas para investimentos em ações e derivativos, concessão de empréstimos bancários e captação de recursos para investimentos em projetos empresariais. No entanto, a crise na contabilidade iniciada pela Enron foi causada por quais outros motivos? Por falhas no sistema contábil e nos órgãos reguladores de empresas de auditoria? Pela falta de ética nos negócios? Há até quem culpe o capitalismo. Seria ele o causador da ganância pelo lucro, que leva os administradores a usarem métodos pouco ortodoxos para obterem ganhos? Pelo exagero nos incentivos dados aos dirigentes de empresas americanas, levando ao surgimento de problemas de agência?

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O tema dessa dissertação é a ressocialização de ex-presidiários, a partir da atuação da Fundação de Apoio ao Egresso do Sistema Penitenciário/ FAESP, criada em 1997, em Porto Alegre-RS. Considerando-se a falência do sistema prisional e o não cumprimento da Lei de Execuções Penais/ LEP, buscamos investigar o papel da FAESP como instituição encarregada da ressocialização e reintegração social de egressos, analisando quais as características da Instituição, concepções, e resultados; qual o perfil e a trajetória dos egressos apoiados; e se houve, e de que tipo, um processo de ressocialização e reintegração social desses egressos. Como resultados, constatamos que a categoria-chave para indicar um processo de ressocialização, tanto na visão da Entidade, quanto na visão dos egressos, é o trabalho. Além disso, verificamos que a atuação da Fundação é positiva, uma vez que o índice de reincidência dos egressos apoiados por ela é de 23%, enquanto o índice no sistema penitenciário gaúcho estima-se que seja, atualmente, de cerca de 70%. Todavia, a atuação da FAESP é dependente da trajetória dos egressos, sendo muito mais efetiva quando os egressos tiveram elevados níveis de capital social e cultural, bem como uma socialização secundária voltada ao trabalho, e, a partir de um monitoramento reflexivo, já chegaram à entidade em busca uma ressocialização.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta dissertação descreve a implementação de um Sistema de Informações Geográficas (SIG) para a Área Antártica Especialmente Gerenciada (AAEG) da Baía do Almirantado, Ilha Rei George, Arquipélago das Schetland do Sul, Antártica. O trabalho constituiu na definição de equipamentos e do SIG (ARC/INFO) necessários para a operação do sistema e integração dos dados nos diferentes formatos. Os primeiros planos de informação para este SIG estão prontos: (1) altimetria; (2) batimetria; (3) linha de costa; (4) glaciologia; (5) áreas livres de gelo; (6) ocupação humana (feições antropogênicas); e (7) toponímias. Os resultados são apresentados através de quatro estudos, exemplificando algumas de suas aplicações no gerenciamento da área. Inicialmente realizou-se a revisão dos limites da AAEG, conforme sugestões do Protocolo ao Tratado Antártico sobre Proteção ao Meio Ambiente (Protocolo de Madri), a área total foi recalculada em 362km2 (anteriormente calculada em 370 km2). A partir da geração de um Modelo Digital de Elevação (MDE) obteve-se a visualização tridimensional da área, que possibilitou a descrição de algumas de suas características geomorfológicas e revisão de cálculos morfométricos. As águas da AAEG possuem um volume de 24,1km3, sendo 22,7 km3 pertencentes a Baía do Almirantado e 1,4km3 ao Estreito de Bransfield. Com a integração de dados multitemporais, quantificou-se a retração das frentes de gelo da Baía do Almiratado, constatando-se a perda de 22,5km2 de gelo (12% da cobertura atual) entre 1956 e 2000. E, finalmente, a Península Keller serviu como área teste para um pequeno estudo de impacto ambiental, sendo identificado conflito da ocupação humana com áreas de reprodução, constatando-se a ocorrência de impacto superior a um impacto menor ou transitório, segundo as definições do Protocolo Madri. A implementação do sistema seguiu os padrões de Working Group of Geodesy and Geographic Information (WG-GGI) do Scientific Committee on Antarctic Research (SCAR), permitindo a compatibilidade com projetos internacionais. O SIG serve como importante ferramenta de apoio ao gerenciamento da AAEG, podendo ser utilizado no planejamento de atividades científicas e logísticas, monitoramento e avaliações de impacto ambiental.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A elaboração de um projeto de obra de edificação é fruto da interação entre profissionais de diversas disciplinas desenvolvendo, simultaneamente, suas opções e decisões com relação ao mesmo. É necessário considerar a qualidade do processo de elaboração do projeto dependente de uma efetiva comunicação entre os membros da equipe. A indústria da construção civil está sendo beneficiada pelos recursos oferecidos pela tecnologia da informação como, por exemplo, os sistemas colaborativos (extranets de projeto). Estes sistemas corroboram na integração e comunicação entre os membros de um projeto. O objetivo da presente pesquisa foi a apresentação do desenvolvimento de modelo validado de ferramenta computacional projetada para complementar um sistema colaborativo pré-existente. Esta ferramenta foi denominada Sistema de Programação e Controle do Processo de Projeto (SIPROCON/PP). A finalidade do SIPROCON/PP é auxiliar no processo de tomada de decisão dos coordenadores através do monitoramento do cronograma e do fluxo do intercâmbio de informações das atividades geradoras de informações neste processo. O processo de desenvolvimento da ferramenta foi delineado em harmonia com a organização da pesquisa. Neste sentido, é assinalado o uso da prototipação e da simulação como estratégias de pesquisa, utilizados respectivamente na construção e validação do modelo da ferramenta. Ante a necessidade do experimento, foi criada uma atividade lúdica através da qual foi reproduzido o intercâmbio de informações de um processo de projeto denominada Sistemática de Simulação do Processo de Projeto (SS/PP) para validação do modelo da ferramenta. Logo, por meio do uso das simulações foram obtidos os dados correspondentes a validação da modelagem e aplicação do SIPROCON/PP e, ao mesmo tempo, necessários à conclusão da pesquisa. Diante disso, a partir da análise dos dados coletados é apontada a melhoria na qualidade do processo de elaboração do projeto considerando a formação de uma equipe equilibrada de projeto. Isso, fruto do conhecimento mais acurado do coordenador sobre o desempenho de cada projetista.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O presente trabalho objetivou avaliar os sistemas de gerenciamento de resíduos de serviços de saúde frente aos instrumentos legais e normativos vigentes no Brasil, acerca dos quais existem poucos estudos. O estudo envolveu coleta de dados reais, por um período contínuo de dois anos, analisando a eficiência da segregação, os sistemas de tratamento, e os custos decorrentes, em duas instituições de assistência à saúde em nível terciário (Hospital Escola do Sistema Único de Saúde - SUS e Hospital Conveniado). O sistema de gerenciamento de resíduos iniciou com um diagnóstico da situação das unidades hospitalares, definição das estratégias educativas de sensibilização, treinamento e capacitação do quadro funcional, com ênfase na segregação de resíduos. A avaliação dos custos, decorrentes da utilização de tecnologias de tratamento via esterilização por vapor úmido (hospital do SUS), e por oxidação térmica (hospital Conveniado), bem como dos custos estendeu-se ainda à disposição final dos resíduos. Foram analisados os índices e percentuais de geração das diferentes categorias de resíduos (infectantes, especiais, comuns e recicláveis) nos dois estabelecimentos. Estudo piloto prévio à implantação do sistema de gerenciamento, revelou um índice de geração total de resíduos de 3,5 kg/leito/dia no Hospital Conveniado, e de 2,6 kg/leito/dia no Hospital SUS. Os índices de geração de infectantes nos referidos hospitais foram de 1,3 (Conveniado) e 1,1 kg/leito/dia (SUS). Os dados do monitoramento contínuo (24 meses), demonstraram, em nível de significância de 5%, uma redução nos índices de geração de resíduos infectantes de cerca de 35% no Hospital Conveniado e de 38% no Hospital SUS, e um aumento significativo nos índices de geração de resíduos comuns e recicláveis, após a implantação dos sistemas de gerenciamento e dos programas educativos, indicando falhas na segregação anteriormente a estes. Os resultados confirmaram a influência positiva dos programas educativos e do sistema organizacional, e a possibilidade de serem alcançadas índices e percentuais ainda mais baixos que os preconizados pela literatura. Os resultados apresentaram, também, altas taxas de reencape de agulhas (41% das conectadas e 51% das desconectadas no Hospital SUS; 68% das conectadas e 55% das desconectadas no hospital Conveniado), dando indicativos do potencial de risco com saúde ocupacional a que estão expostos os profissionais, e da necessidade de reforçar os conceitos de auto cuidado com os mesmos. No tocante aos custos com os sistemas de gerenciamento, o Hospital Conveniado tem um custo final menor que o Hospital SUS. Porém, quando traduzido para paciente/dia, o Hospital SUS tem um custo de R$ 3,54 enquanto que no Hospital Conveniado o custo é de R$ 5,13, ou seja, 45,1% maior que no Hospital SUS, apesar da oferta de serviços ser semelhante. Para o tratamento de resíduos infectantes junto à fonte geradora com tecnologia de esterilização via vapor úmido e microondas, somados à despesa com serviços terceirizados para situações de contingência, tratamento de peças anatômicas e pérfuro-cortantes, o Hospital SUS tem um custo de R$ 0,57 paciente/dia enquanto o tratamento via incineração do Hospital Conveniado tem um custo de R$ 0,86 paciente/dia. Estes resultados evidenciam que o tratamento junto à fonte geradora, consideradas as situações avaliadas é mais vantajoso do ponto de vista econômico e ambiental. Os custos ambientais totais obtidos para o hospital SUS são de R$ 3,54 paciente/dia para R$ 5,13 por paciente/dia no hospital Conveniado. O trabalho fornece subsídios metodológicos para definição de índices e percentuais de geração, bem como para o cálculo dos custos envolvidos no gerenciamento que podem servir de base para aplicação em outros estabelecimentos de assistência à saúde.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A velocidade de veículos em vias públicas pode ser obtida de diversas formas. A técnica mais usada é de laços magnéticos, onde se instalam sensores sob o asfalto. Entretanto, esta técnica apresenta desvantagens, tais como, a não detecção de motocicletas (o campo magnético gerado por este tipo de veículo é imperceptível ao sistema) e dificuldade de manutenção da via (se o órgão publico tiver que mexer numa rede cloacal que passa perto dos sensores, por exemplo, pode ser necessário reinstalá-los). Nesse contexto, este trabalho propõe-se a discutir uma nova maneira de se calcular a velocidade de veículos, através do processamento de imagens. Para isto, torna-se fundamental conhecer os conceitos que envolvem as técnicas mais utilizadas (além dos laços magnéticos, a captura de dois quadros consecutivos e o sistema Doppler), os equipamentos disponíveis no mercado (Pardais, Lombadas Eletrônicas, Bandeiras, Caetanos e Radares) e a forma como o INMETRO faz a aferição destes equipamentos. O estudo apresenta, igualmente, os principais fundamentos relacionados ao processamento digital de imagens, com especial atenção para detecção de bordas, de forma que seja possível avaliar a nova técnica proposta, que calcula a velocidade a partir de um único quadro. O presente trabalho objetiva apresentar o Pardalzito como alternativa técnica inovadora para aplicação de um, sistema que implementa esta idéia na prática.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Clusters de computadores são geralmente utilizados para se obter alto desempenho na execução de aplicações paralelas. Sua utilização tem aumentado significativamente ao longo dos anos e resulta hoje em uma presença de quase 60% entre as 500 máquinas mais rápidas do mundo. Embora a utilização de clusters seja bastante difundida, a tarefa de monitoramento de recursos dessas máquinas é considerada complexa. Essa complexidade advém do fato de existirem diferentes configurações de software e hardware que podem ser caracterizadas como cluster. Diferentes configurações acabam por fazer com que o administrador de um cluster necessite de mais de uma ferramenta de monitoramento para conseguir obter informações suficientes para uma tomada de decisão acerca de eventuais problemas que possam estar acontecendo no seu cluster. Outra situação que demonstra a complexidade da tarefa de monitoramento acontece quando o desenvolvedor de aplicações paralelas necessita de informações relativas ao ambiente de execução da sua aplicação para entender melhor o seu comportamento. A execução de aplicações paralelas em ambientes multi-cluster e grid juntamente com a necessidade de informações externas à aplicação é outra situação que necessita da tarefa de monitoramento. Em todas essas situações, verifica-se a existência de múltiplas fontes de dados independentes e que podem ter informações relacionadas ou complementares. O objetivo deste trabalho é propor um modelo de integração de dados que pode se adaptar a diferentes fontes de informação e gerar como resultado informações integradas que sejam passíveis de uma visualização conjunta por alguma ferramenta. Esse modelo é baseado na depuração offline de aplicações paralelas e é dividido em duas etapas: a coleta de dados e uma posterior integração das informações. Um protótipo baseado nesse modelo de integração é descrito neste trabalho Esse protótipo utiliza como fontes de informação as ferramentas de monitoramento de cluster Ganglia e Performance Co-Pilot, bibliotecas de rastreamento de aplicações DECK e MPI e uma instrumentação do Sistema operacional Linux para registrar as trocas de contexto de um conjunto de processos. Pajé é a ferramenta escolhida para a visualização integrada das informações. Os resultados do processo de integração de dados pelo protótipo apresentado neste trabalho são caracterizados em três tipos: depuração de aplicações DECK, depuração de aplicações MPI e monitoramento de cluster. Ao final do texto, são delineadas algumas conclusões e contribuições desse trabalho, assim como algumas sugestões de trabalhos futuros.