68 resultados para Monitoramento e Aprendizado Estratégico
Resumo:
A temperatura da superfície terrestre (TST), além da ação determinante sobre o crescimento e o desenvolvimento das plantas, influencia também muitos processos físicos, químicos e biológicos, tendo significativa relevância científica em um vasto campo das atividades de pesquisa e gerenciamento dos recursos naturais. O objetivo geral deste estudo foi verificar a adequação do uso de sensores orbitais AVHRR/3 NOAA (National Oceanic and Atmospheric Administration) classe POES (Polar Operational Environmental Satellites) para mapeamento de temperaturas da superfície terrestre no Rio Grande do Sul, visando sua implementação em programas operacionais de monitoramento agrometeorológico. No estudo realizado no período de junho a setembro de 2002, foram utilizadas 11 imagens noturnas e 20 imagens diurnas, captadas na estação de recepção de imagens NOAA pertencente ao Centro Estadual de Pesquisas em Sensoriamento Remoto e Meteorologia (CEPSRM). Após processamento, as imagens foram utilizadas para a determinação da temperatura de brilho da banda 4 e 5 da TST através dos métodos de Becker e Li (1990), Kerr et al. (1992) e Sobrino et al. (1993). A TST obtida a partir das imagens foi comparada aos dados de temperatura do ar obtidos em 13 estações meteorológicas de superfície Os resultados mostraram que os sensores orbitais AVHRR/3 são adequados para o mapeamento noturno de temperaturas da superfície terrestre no Rio Grande do Sul. O método de Sobrino et al. (1993) é o mais adequado entre os métodos testados para a estimativa das temperaturas noturnas no Estado, embora ainda seja necessário um aprofundamento teórico em relação aos efeitos atmosféricos sobre regiões localizadas em baixas latitudes. Também a temperatura estimada por sensores remotos pode ser utilizada para estimar a temperatura do ar nos locais avaliados, sendo que ainda deve ser testada a extrapolação para outros locais.
Resumo:
O trabalho descreve o desenvolvimento da elaboração de um sistema de mensuração e avaliação de desempenho, integrado ao método do balanced Scorecard(BSC), no Núcleo de Desenvolvimento de Fornecedores da Unimed Porto Alegre, para a qualificação do processo decisório. Por meio de sessões educativas e da técnica de brainstoriming entre os colaboradores do setor foi possível construir um conjunto de indicadores e metas ligadas numa relação de causa-e-efeito, vinculados ao planejamento estratégico da cooperativa. Na premissa processos do BSC, os macroprocessos do núcleo foram mapeados no sentido de orientar as ações da premissa aprendizado e crescimento para a satisfação das pessoas e busca pelas informações pertinentes. Considerando que a essência da missão do núcleo é a geração de um modelo de informações relativas aos prestadores de serviços sobre a qualidade assistencial e os custos, com vistas a categorizações, credenciamentos e negociações, os clientes eleitos como preferenciais do núcleo foram a comissão de normas e as superintendências de provimento de saúde e administrativa. Indicadores de processos, de satisfação e de gestão de custos foram criados. Foi construído o mapa estratégico do núcleo para acompanhamento e maior envolvimento dos colaboradores. No seguimento, o alinhamento dos objetivos estratégicos de cada premissa (aprendizado e crescimento, processos, clientes e financeira) com a missão de cooperativa, pretendem tornar o núcleo um setor estratégico, uma vez que auxiliará na incorporação de valor ao processo decisório como um todo.
Resumo:
Conforme a legislão brasileira, a gestão das águas subterrâneas está integrada à das águas superficiais nas quais estão localizadas os aqüiferos. Entretanto, não existe uma regulamentação específica que defina critérios e métodos de avaliação da qualidade ambiental, que caracterizem de forma completa este ambiente. A restrita bibliografia especializada que trata do assunto não é conclusiva quanto a aplicação de ensaios de toxidades aquática no monitoramente de águas subterrâneas. Assim, com o bjetivo de verificar a aplicabilidade dos ensaios de toxidadee padronizados para a avaliação da qualidade de águas subterrâneas potencialmente impactadas, foram avaliadas amostras provenientes de dois diferentes tipos de aqüiferos (livre e semiconfinado) localizados em uma área industrial da Região Metropolitana de Porto ALegre, RS, Brasil. Um total de 75 amostrras distribuídas em 19 poços de monitoramento foram analisadas quanto seus valores de pH, condutividade elétrica, cloretos, hidrocarbonetos, fenóis, nitrogênio amoniacal, sólidos dissolvidos totais e metais (Cd, Pb, Cu, Cr, Mn, Zn, Hg e Hi) e quanto à toxicidade crônica com Selenastrum capricornutum, Ceriodaphia dubia e Primephales promelas. As amostras foram coletadas semestralmente, sendo que o aqüifero livre foi amostrado de janeiro de 2001 a janeiro de 2003 e o aqüifero semiconfinado de fevereiro de 2002 a janeiro de 2003. Os resultados dos parâmetros químicos avaliados foram comparados, quando possível, a diferentes concentrações tidas como valores de referência (Portaria 1469/00 do Ministério da Saúde - Potabilidade), Lista Holandesa (valores de alerta - T) e Resolução nº 20/86 so CONAMA (Classe 2). A comparação dos resultados das anállises químicas diferentes de contaminação. Os valores de nitrogênio amoniacal, condutividade, fenóis, e hidrocarbonetos totais foram signitivamente maiores no aqüifero livre quando comparado ao aqüifero semiconfinado, enquanto os metais manganês e zinco apresentaram maiores concentrações no aqüifero semiconfinado. Para os demais parâmetros não foram detectadas diferenças estatiscamente significativas. Os resultados das análises ecotoxicológicas dos poços dos poços de monitoramente do aqüifero livre e semiconfinado acompanharam as diferenças químicas encontradas para os dois aqüiferos, demonstrando diferenças na qualidade das águas subterrâneas avaliadas Observou-se claramente uma maior incidência de valores negativos (inibição de crescimento ou reprodução), para os três níveis trtóficos, para as amostrras do aqüifero livre, quando em comparação as amostrras do aqüifero semiconfinado. Diferenças também foram verificadas nas respostas dos três niveis tróficos utilizadas, observando-se uma maior freqüência de amostrras tóxicas para alga S. capricormutum. O trrabalho apresenta ainda algumas correlações significativas ( =0,05) entrer as concentrações de determinados parâmetros com as toxidades detectados, tais como toxidade para C. dubla e nitrogênio amoniacal (r=0,39) e fenóis (r=0,394), toxidade para S. capricornutum e manganês (r=0,298), condutividade (r=0,393) e cobre (r=0,388) e Toxidade para P. promelas e pH (r=0, 484). Uma possível influência da matriz do solo sobre a toxicidade apresentada para S. capricornutum também é discutida. O trabalho conclui que ensaios de toxicidade com organismos aquáticos pode aplicados no monitoramento de águas subterrâneas. Entretanto, a interpretação dos resultados e as decisões a serem tomadas devem ser mais criteriosas, considerando-se um possível efeito da matriz original do solo sobre os organismos-teste utlizados.
Resumo:
O trabalho tem como objetivo estudar as repercussões do emprego de recursos informáticos aplicados ao projeto arquitetônico e da sua interação com o usuário. A relação entre computação gráfica e projeto arquitetônico é um assunto já bastante discutido, seja como a aplicação do potencial matemático da ferramenta para a composição das formas, ou ainda, como experimentações no campo da realidade virtual. No entanto, sob o ponto de vista do projeto arquitetônico e da sua apropriação da ferramenta pouco se tem dito, é nesta lacuna que a dissertação pretende se inserir. Desenvolvo a questão em duas partes principais. A primeira tem o objetivo de situar o leitor no assunto proposto, procurando possíveis repostas para relação entre usuário/projeto/máquina. A segunda parte se concentra no projeto arquitetônico como forma de investigação, amparada em um estudo de caso, resultado da observação do atelier. Procuro tecer as relações entre o projeto dos alunos, como resposta às instruções dos professores, e o uso da computação gráfica na composição do projeto.
Resumo:
O objetivo deste trabalho é propor uma metodologia para medição e controle de uma estratégia pré-existente de manufatura, visando a preencher uma lacuna identificada nos processos de gestão estratégica – a falta de alinhamento automático das ações definidas nos processos de planejamento estratégico de manufatura com a medição do desempenho. Observada sob uma perspectiva sistêmica, a manufatura se relaciona com o meio pela importação de informação, energia e materiais, exportando produtos, informação e serviços. Através de mecanismos de realimentação, como a medição de desempenho e a monitoração de grandezas ambientais, a manufatura governa seus recursos de modo a atingir objetivos, geralmente estabelecidos no planejamento estratégico. Considerando a problemática de medição e controle, faz-se uma discussão sobre a perspectiva sistêmica da manufatura, sobre formas de estruturar objetos, muitas vezes intangíveis, que deverão ser medidos e sobre modelos já propostos de medição do desempenho organizacional, comparando-os e propondose uma classificação. Apoiado na revisão bibliográfica, por um método de pesquisa hipotético-dedutivo, propõe-se uma metodologia para estruturar um sistema de medição de uma estratégia existente, que permita o controle das ações sempre que os objetivos não estejam sendo alcançados e que possa se adaptar sempre que o cenário estratégico varie. Por um método de trabalho de aproximações parciais testa-se e refina-se a metodologia proposta. Inicia-se a fase experimental pela modelagem e avaliação da capacidade de competição de uma manufatura de equipamentos eletrônicos, dada uma estratégia existente. Passa-se então à modelagem de parâmetros de processo de manufatura, tais como o tempo de atravessamento, o inventário em processo e o desempenho, necessários para medições internas, testada em uma manufatura calçadista. Agrega-se então ao conhecimento já testado uma técnica de otimização de cursos de ação estratégica e testa-se a metodologia como um todo em uma estratégia existente de manufatura mecânica. Ao fim, discute-se o caso e comparam-se os resultados com outras fontes, encaminhando-se a continuidade de pesquisas.
Resumo:
O presente trabalho investiga a relação entre aprendizado e dinâmica em sistemas complexos multiagentes. Fazemos isso através de estudos experimentais em um cenário de racionalidade limitada que situa-se na interesecção entre Inteligência Artificial, Economia e Física Estatística, conhecido como “Minority Game”. Apresentamos resultados experimentais sobre o jogo focando o estudo do cenário sob uma perspectiva de Aprendizado de Máquina. Introduzimos um novo algoritmo de aprendizado para os agentes no jogo, que chamamos de aprendizado criativo, e mostramos que este algoritmo induz uma distribuição mais eficiente de recursos entre os agentes. Este aumento de eficiência mostra-se resultante de uma busca irrestrita no espaço de estratégias que permitem uma maximização mais eficiente das distâncias entre estratégias. Analisamos então os efeitos dos parâmetros deste algoritmo no desempenho de um agente, comparando os resultados com o algoritmo tradicional de aprendizado e mostramos que o algoritmo proposto é mais eficiente que o tradicional na maioria das situações. Finalmente, investigamos como o tamanho de memória afeta o desempenho de agentes utilizando ambos algoritmos e concluímos que agentes individuais com tamanhos de memória maiores apenas obtém um aumento no desempenho se o sistema se encontrar em uma região ineficiente, enquanto que nas demais fases tais aumentos são irrelevantes - e mesmo danosos - à performance desses agentes.
Resumo:
Apesar de muita publicidade acerca do tema Seis Sigma, a literatura existente apresenta casos de sucesso, compara o Seis Sigma com o TQM, discute aspectos relacionados à metodologia e fatores críticos de sucesso, mas poucas vezes trata de como as organizações de fato implantam e se adaptam à metodologia prescrita. Este trabalho realiza uma análise das origens da Qualidade e a partir dela as origens do Seis Sigma, e como se complementam. Identifica os aspectos relacionados com a escolha do Seis Sigma pelas organizações, como a metodologia é implantada e os aspectos de definição de metas, aspectos comportamentais e os relacionados com o aprendizado organizacional. Seis organizações industriais foram analisadas, buscando-se identificar sua experiência de implantação, quais pressupostos da metodologia foram seguidos e os pontos onde houve convergência entre estas organizações. Os resultados da pesquisa indicam que como todo outro esforço empreendido por uma organização, a existência de apoio, recursos e cobrança por parte da alta administração são fatores que contribuem diretamente para o resultado obtido, e também que o alinhamento dos projetos Seis Sigma com o Planejamento Estratégico e aderência rígida à metodologia são fatores fundamentais para obtenção de resultados, tanto quantitativos como relacionados com o aprendizado de todos os envolvidos nos projetos. O Seis Sigma também pode ser considerado por organizações operando Sistemas de Gestão da Qualidade, e que ainda identifiquem oportunidades de gerado melhoria de desempenho, maior satisfação do cliente ou vantagens competitivas, como qualificador deste Sistema de Gestão.
Resumo:
O presente trabalho objetivou avaliar os sistemas de gerenciamento de resíduos de serviços de saúde frente aos instrumentos legais e normativos vigentes no Brasil, acerca dos quais existem poucos estudos. O estudo envolveu coleta de dados reais, por um período contínuo de dois anos, analisando a eficiência da segregação, os sistemas de tratamento, e os custos decorrentes, em duas instituições de assistência à saúde em nível terciário (Hospital Escola do Sistema Único de Saúde - SUS e Hospital Conveniado). O sistema de gerenciamento de resíduos iniciou com um diagnóstico da situação das unidades hospitalares, definição das estratégias educativas de sensibilização, treinamento e capacitação do quadro funcional, com ênfase na segregação de resíduos. A avaliação dos custos, decorrentes da utilização de tecnologias de tratamento via esterilização por vapor úmido (hospital do SUS), e por oxidação térmica (hospital Conveniado), bem como dos custos estendeu-se ainda à disposição final dos resíduos. Foram analisados os índices e percentuais de geração das diferentes categorias de resíduos (infectantes, especiais, comuns e recicláveis) nos dois estabelecimentos. Estudo piloto prévio à implantação do sistema de gerenciamento, revelou um índice de geração total de resíduos de 3,5 kg/leito/dia no Hospital Conveniado, e de 2,6 kg/leito/dia no Hospital SUS. Os índices de geração de infectantes nos referidos hospitais foram de 1,3 (Conveniado) e 1,1 kg/leito/dia (SUS). Os dados do monitoramento contínuo (24 meses), demonstraram, em nível de significância de 5%, uma redução nos índices de geração de resíduos infectantes de cerca de 35% no Hospital Conveniado e de 38% no Hospital SUS, e um aumento significativo nos índices de geração de resíduos comuns e recicláveis, após a implantação dos sistemas de gerenciamento e dos programas educativos, indicando falhas na segregação anteriormente a estes. Os resultados confirmaram a influência positiva dos programas educativos e do sistema organizacional, e a possibilidade de serem alcançadas índices e percentuais ainda mais baixos que os preconizados pela literatura. Os resultados apresentaram, também, altas taxas de reencape de agulhas (41% das conectadas e 51% das desconectadas no Hospital SUS; 68% das conectadas e 55% das desconectadas no hospital Conveniado), dando indicativos do potencial de risco com saúde ocupacional a que estão expostos os profissionais, e da necessidade de reforçar os conceitos de auto cuidado com os mesmos. No tocante aos custos com os sistemas de gerenciamento, o Hospital Conveniado tem um custo final menor que o Hospital SUS. Porém, quando traduzido para paciente/dia, o Hospital SUS tem um custo de R$ 3,54 enquanto que no Hospital Conveniado o custo é de R$ 5,13, ou seja, 45,1% maior que no Hospital SUS, apesar da oferta de serviços ser semelhante. Para o tratamento de resíduos infectantes junto à fonte geradora com tecnologia de esterilização via vapor úmido e microondas, somados à despesa com serviços terceirizados para situações de contingência, tratamento de peças anatômicas e pérfuro-cortantes, o Hospital SUS tem um custo de R$ 0,57 paciente/dia enquanto o tratamento via incineração do Hospital Conveniado tem um custo de R$ 0,86 paciente/dia. Estes resultados evidenciam que o tratamento junto à fonte geradora, consideradas as situações avaliadas é mais vantajoso do ponto de vista econômico e ambiental. Os custos ambientais totais obtidos para o hospital SUS são de R$ 3,54 paciente/dia para R$ 5,13 por paciente/dia no hospital Conveniado. O trabalho fornece subsídios metodológicos para definição de índices e percentuais de geração, bem como para o cálculo dos custos envolvidos no gerenciamento que podem servir de base para aplicação em outros estabelecimentos de assistência à saúde.
Resumo:
Recentes pesquisas têm apontado o Alinhamento Estratégico (AE) como uma das principais preocupações dos executivos. Extrair informações úteis a partir dos investimentos realizados em Tecnologia da Informação (TI) está entre os principais objetivos dos chefes executivos das organizações (CEO). A presente pesquisa tenta identificar os critérios de AE, juntamente com as suas práticas, que são mais promovidos em organizações da Região Sul do Brasil. Esta pesquisa pode ser classificada como um estudo quantitativo-descritivo, e utiliza o método estatístico para a obtenção, processamento e validação dos dados. O método empregado foi o de um levantamento de informações (survey), e a coleta de dados obedeceu à concepção dos estudos transversais. Como instrumentos de coleta, foram utilizados questionários auto-aplicáveis, preenchidos por chefes de informática (CIO) das empresas e por executivos de médio e alto escalões de outras áreas, tais como compras, vendas, controladoria, financeira, recursos humanos, etc. Responderam os questionários 259 executivos de 72 empresas industriais pertencentes à região sul do Brasil. A partir do procedimento de refinamento do questionário, que foi baseado nos modelos de Luftman (2000) e de Brodbeck e Hoppen (2003), foi elaborado um instrumento formado por seis critérios e por trinta práticas, postulado como adequado ao contexto brasileiro. Quanto à promoção destes critérios, o de Comunicação foi considerado o mais importante e promovido, enquanto que o critério de Medidas de Valor e Competência foi considerado o de menor promoção. A partir da realização de análise de regressão, foi possível determinar que o critério Comunicação é mais impactado pelo critério de Escopo e Arquitetura. Através da realização de análises de variância, foi possível observar que as empresas de grande porte promoveram mais os critérios de de Habilidades, Governança, Medidas de Valor e Competência e Escopo e Arquitetura, quando comparados com os resultados obtidos em empresas de pequeno porte. Como contribuições práticas, foram obtidas listagens das práticas mais importantes, mais promovidas, de implementação mais fácil e mais difícil. Estas listagens podem auxiliar gestores de empresas na promoção de níveis mais elevados de maturidade de AE.
Resumo:
Propõe-se que a Orientação para o Mercado, importante construto na área de Marketing, engloba o processo de Alinhamento Estratégico entre TI e negócios – e suas capacidades básicas de adequação estratégica e integração funcional. Portanto, o Alinhamento Estratégico seria um dos tipos de resposta ao mercado provenientes de uma Orientação para o Mercado. Este fenômeno seria mais evidente e significativo em negócios eletrônicos, que fazem uso intensivo da TI como recurso estratégico, competindo em um mercado global e dinâmico. A partir destas proposições, o estudo discute sobre como gerentes desejando promover as capacidades de um Alinhamento Estratégico em sua organização, podem ter sucesso, ao focar suas estratégias de negócio e TI no desenvolvimento de capacidades distintivas de Orientação para o Mercado. Os resultados da pesquisa empírica suportam estas proposições: indicando que o desenvolvimento de capacidades de Orientação para o Mercado, especialmente respostas coordenadas ao mercado, influenciam na promoção do Alinhamento Estratégico; e que investimentos em TI, principalmente em sistemas interorganizacionais, apóiam o desenvolvimento destas capacidades. Baseados nestes resultados apresenta-se: um modelo conceitual, recomendações práticas e sugestões para futuras pesquisas explanatórias.
Resumo:
A velocidade de veículos em vias públicas pode ser obtida de diversas formas. A técnica mais usada é de laços magnéticos, onde se instalam sensores sob o asfalto. Entretanto, esta técnica apresenta desvantagens, tais como, a não detecção de motocicletas (o campo magnético gerado por este tipo de veículo é imperceptível ao sistema) e dificuldade de manutenção da via (se o órgão publico tiver que mexer numa rede cloacal que passa perto dos sensores, por exemplo, pode ser necessário reinstalá-los). Nesse contexto, este trabalho propõe-se a discutir uma nova maneira de se calcular a velocidade de veículos, através do processamento de imagens. Para isto, torna-se fundamental conhecer os conceitos que envolvem as técnicas mais utilizadas (além dos laços magnéticos, a captura de dois quadros consecutivos e o sistema Doppler), os equipamentos disponíveis no mercado (Pardais, Lombadas Eletrônicas, Bandeiras, Caetanos e Radares) e a forma como o INMETRO faz a aferição destes equipamentos. O estudo apresenta, igualmente, os principais fundamentos relacionados ao processamento digital de imagens, com especial atenção para detecção de bordas, de forma que seja possível avaliar a nova técnica proposta, que calcula a velocidade a partir de um único quadro. O presente trabalho objetiva apresentar o Pardalzito como alternativa técnica inovadora para aplicação de um, sistema que implementa esta idéia na prática.
Resumo:
As organizações têm encontrado grandes dificuldades para implementar suas estratégias, e a literatura relata índices de insucessos significativos nos processos de implementação. Como a vantagem competitiva decorre da efetiva implementação, e não do planejamento da estratégia, é relevante buscar formas de aumentar o grau de sucesso nos processos de implementação de estratégias. Este trabalho tem por objetivo propor um novo framework para apoiar o desdobramento, implementação e pilotagem de estratégias das organizações. A estruturação deste framework apoiouse inicialmente na identificação dos motivos de fracasso no processo de implementação da estratégia pelas organizações, prosseguindo na avaliação dos modelos de implementação da estratégia indicados pela literatura e os seus elementos componentes. Na seqüência, é efetuada a análise crítica destes modelos e de suas lacunas, particularmente em relação à carência de elementos considerados importantes para o sucesso de processo de implementação e pilotagem da estratégia. Identificados os elementos e paradigmas com potencial para serem incorporados a um novo framework de desdobramento, implementação, monitoramento e pilotagem da estratégia organizacional, estes são incorporados, num processo de agregação progressiva. Na parte final do trabalho é feita uma aplicação parcial do novo framework proposto em uma organização objeto de estudo de caso, e discutidos os resultados obtidos.
Resumo:
Com a constante busca por melhoramento e manutenção da vantagem competitiva diante do mercado global, surgem agrupamentos de organizações que visam a maximização dos serviços oferecidos e, conseqüentemente a redução dos custos inseridos nos processos. Como alternativa a esta busca, surgem as Plataformas Logísticas que reúnem em um local, tudo que se refere a eficiência logística, acolhendo empreendimentos para movimentação, transporte, armazenagem, assessoria aduaneira e distribuição de mercadorias. O presente trabalho desenvolveu um mapa estratégico para apoiar a implantação de uma Plataforma Logística, fazendo uma relação entre estratégias pretendidas e custos logísticos inseridos nos processos de movimentação de mercadorias no mercado interno, exportação e importação. Para isso, descreve os processos atuais na movimentação de mercadorias, fazendo um levantamento dos custos logísticos inseridos em cada atividade logística, apontando os elementos mais importantes e que absorvem a maioria dos custos logísticos. Com a observação dos processos atuais foi possível estruturar de forma genérica o mapa estratégico, posteriormente aplicado no setor de produção de conservas, localizado no extremo sul do Estado, visando apontar onde e em quais situações é interessante para as indústrias de conservas utilizarem os serviços propostos por uma Plataforma Logística. Quanto aos resultados obtidos, conclui-se que, dentre as atividades logísticas mais relevantes, o transporte detém a maior problemática e aferem o maior custos (impostos, tributos, pedágios, serviços terceirizados, etc.). É claro que a utilização dos serviços de uma Plataforma viria a interferir na movimentação propriamente dita e não, na questão tributária, mas, de certa forma já influenciaria de maneira positiva na qualidade do serviço prestado.
Resumo:
Clusters de computadores são geralmente utilizados para se obter alto desempenho na execução de aplicações paralelas. Sua utilização tem aumentado significativamente ao longo dos anos e resulta hoje em uma presença de quase 60% entre as 500 máquinas mais rápidas do mundo. Embora a utilização de clusters seja bastante difundida, a tarefa de monitoramento de recursos dessas máquinas é considerada complexa. Essa complexidade advém do fato de existirem diferentes configurações de software e hardware que podem ser caracterizadas como cluster. Diferentes configurações acabam por fazer com que o administrador de um cluster necessite de mais de uma ferramenta de monitoramento para conseguir obter informações suficientes para uma tomada de decisão acerca de eventuais problemas que possam estar acontecendo no seu cluster. Outra situação que demonstra a complexidade da tarefa de monitoramento acontece quando o desenvolvedor de aplicações paralelas necessita de informações relativas ao ambiente de execução da sua aplicação para entender melhor o seu comportamento. A execução de aplicações paralelas em ambientes multi-cluster e grid juntamente com a necessidade de informações externas à aplicação é outra situação que necessita da tarefa de monitoramento. Em todas essas situações, verifica-se a existência de múltiplas fontes de dados independentes e que podem ter informações relacionadas ou complementares. O objetivo deste trabalho é propor um modelo de integração de dados que pode se adaptar a diferentes fontes de informação e gerar como resultado informações integradas que sejam passíveis de uma visualização conjunta por alguma ferramenta. Esse modelo é baseado na depuração offline de aplicações paralelas e é dividido em duas etapas: a coleta de dados e uma posterior integração das informações. Um protótipo baseado nesse modelo de integração é descrito neste trabalho Esse protótipo utiliza como fontes de informação as ferramentas de monitoramento de cluster Ganglia e Performance Co-Pilot, bibliotecas de rastreamento de aplicações DECK e MPI e uma instrumentação do Sistema operacional Linux para registrar as trocas de contexto de um conjunto de processos. Pajé é a ferramenta escolhida para a visualização integrada das informações. Os resultados do processo de integração de dados pelo protótipo apresentado neste trabalho são caracterizados em três tipos: depuração de aplicações DECK, depuração de aplicações MPI e monitoramento de cluster. Ao final do texto, são delineadas algumas conclusões e contribuições desse trabalho, assim como algumas sugestões de trabalhos futuros.