1000 resultados para Modelo de Tomada de Decisão
Resumo:
Este trabalho estuda os determinantes de volume de ações negociadas na Bolsa de Valores do Estado de São Paulo, em especial os preços máximo e mínimo das últimas 52 semanas. O estabelecimento de uma relação entre estes preços limite e volume só pode ser explicado através das teorias da área de Finanças Comportamentais, que através do relaxamento de premissas como racionalidade do consumidor e mercados eficientes se propõem a uma maior adequação à realidade. Os teste realizados confirmam haver utilização do preço mínimo das últimas 52 semanas, por parte do investidor, como referência para a tomada de decisão, ocasionando um aumento, acima de mercado, do volume de negociação destas ações no momento em que o preço corrente extrapola o preço mínimo passado. Entretanto, esta mesma relação não foi identificada para o preço máximo das últimas 52 semanas. A identificação de mais esta variável para explicar variações no volume de negociações do mercado de capitais no Brasil contribui tanto para as recentes teorias de Finanças Comportamentais como para o próprio desenvolvimento do mercado financeiro e conseqüentemente do país, sendo, portanto, do interesse de todos.
Resumo:
Este trabalho tem por motivação evidenciar a eficiência de redes neurais na classificação de rentabilidade futura de empresas, e desta forma, prover suporte para o desenvolvimento de sistemas de apoio a tomada de decisão de investimentos. Para serem comparados com o modelo de redes neurais, foram escolhidos o modelo clássico de regressão linear múltipla, como referência mínima, e o de regressão logística ordenada, como marca comparativa de desempenho (benchmark). Neste texto, extraímos dados financeiros e contábeis das 1000 melhores empresas listadas, anualmente, entre 1996 e 2006, na publicação Melhores e Maiores – Exame (Editora Abril). Os três modelos foram construídos tendo como base as informações das empresas entre 1996 e 2005. Dadas as informações de 2005 para estimar a classificação das empresas em 2006, os resultados dos três modelos foram comparados com as classificações observadas em 2006, e o modelo de redes neurais gerou o melhor resultado.
Resumo:
As observações relatadas por Myers e Thompson, em seu artigo “Generalized Optimal Hedge Ratio Estimation” de 1989, foram analisadas neste estudo utilizando o boi gordo como a commodity de interesse. Myers e Thompson, demonstraram teórica e empiricamente, ser inapropriado o uso do coeficiente angular da regressão simples, dos preços à vista sobre os preços futuros como forma de estimar a razão ótima de hedge. Porém, sob condições especiais, a regressão simples com a mudança dos preços resultou em valores plausíveis, próximos àqueles determinados por um modelo geral. Este modelo geral, foi desenvolvido com o intuito de estabelecer os parâmetros para comparar as diferentes abordagens na estimativa da razão ótima de hedge. O coeficiente angular da reta da regressão simples e a razão ótima de hedge tem definições similares, pois ambos são o resultado da divisão entre a matriz de covariância dos preços, à vista e futuros e a variância dos preços futuros. No entanto, na razão ótima de hedge estes valores refletem o momento condicional, enquanto que na regressão simples são valores não condicionais. O problema portanto, está em poder estimar a matriz condicional de covariância, entre os preços à vista e futuros e a variância condicional dos preços futuros, com as informações relevantes no momento da tomada de decisão do hedge. Neste estudo utilizou-se o modelo de cointegração com o termo de correção de erros, para simular o modelo geral. O Indicador ESALQ/BM&F foi utilizado como a série representativa dos preços à vista, enquanto que para os preços futuros, foram utilizados os valores do ajuste diário dos contratos de boi gordo, referentes ao primeiro e quarto vencimentos, negociados na Bolsa Mercantil e de Futuros - BM&F. Os objetivos do presente estudo foram: investigar se as observações feitas por Myers e Thompson eram válidas para o caso do boi gordo brasileiro, observar o efeito do horizonte de hedge sobre a razão ótima de hedge e o efeito da utilização das séries diárias e das séries semanais sobre a estimativa da razão ótima de hedge. Trabalhos anteriores realizados com as séries históricas dos preços do boi gordo, consideraram apenas os contratos referentes ao primeiro vencimento. Ampliar o horizonte de hedge é importante, uma vez que as atividades realizadas pelos agentes tomam mais do que 30 dias. Exemplo disto é a atividade de engorda do boi, que pode levar até 120 dias entre a compra do boi magro e a venda do boi gordo. Demonstrou-se neste estudo, que o uso das séries semanais, é o mais apropriado, dado a diminuição substancial da autocorrelação serial. Demonstrou-se também, que as regressões com as mudanças dos preços, resultaram em estimativas da razão de hedge próximas daquelas obtidas com o modelo geral e que estas diminuem com o aumento do horizonte de hedge.
Resumo:
Resumo O objetivo deste trabalho é explorar a utilização de Redes Neurais no processo de previsão da Captação Líquida do Mercado de Previdência Privada Brasileiro como ferramenta à tomada de decisão e apoio na gestão das empresas do setor. Para a construção desse modelo foram utilizadas Redes Neurais, ferramenta que vem se mostrando adequada para utilização em modelos não lineares com resultados superiores a outras técnicas. A fonte de dados principal para a realização deste trabalho foi a FENAPREVI – Federação Nacional de Previdência Privada e Vida. Para comparação com o modelo de Redes Neurais, foi utilizado um modelo de Regressão Linear Múltipla como benchmark, com o objetivo de evidenciar a adequação da ferramenta em vista dos objetivos traçados no trabalho. O modelo foi construído a partir das informações mensais do setor, entre maio de 2002 e agosto de 2009, considerando o que se convencionou chamar de ‘mercado vivo’, que abrange os produtos PGBL e VGBL, comercializados ininterruptamente nesse período pelas chamadas EAPP – Entidades Abertas de Prividência Privada. Os resultados obtidos demonstraram a adequação da ferramenta Redes Neurais, que obtiveram resultados superiores aos obtidos utilizando Regressão Linear Múltipla.
Resumo:
As mudanças ocorridas no macroambiente do agronegócio do leite no Brasil trazem a necessidade de re-fazer as concepções acerca de sua gestão. As práticas gerenciais precisam romper o conservadorismo e buscar uma adequação ao momento vivido sem os vícios de sua cultura. Na concepção de um sistema de gestão da pecuária leiteira, adaptado à realidade das unidades de produção familiares, inseriram-se conceitos da teoria das restrições por meio da estratégia de pesquisa-ação, no noroeste gaúcho-município de São Luiz Gonzaga. A pesquisa foi dividida em três passos: o primeiro passo selecionou, por meio de entrevistas focais, uma unidade de produção representativa de cada sistema com base em uma tipologia segmentada em três sistemas (especializado; intermediário e tradicional); o segundo serviu para testar o sistema de gestão da pecuária leiteira em cada uma das três unidades de produção escolhidas; o terceiro analisou e discutiu os resultados obtidos nas entrevistas, visitas e em documentos. A pesquisa evidenciou a aplicabilidade do sistema de gestão da pecuária leiteira nos três sistemas estudados, utilizando os princípios e a lógica de decisão da teoria das restrições. Os princípios do modelo de decisão da teoria das restrições permitiram tornar mais ágil e coerente o processo de tomada de decisão, assim como as medidas de desempenho da teoria das restrições tornaram a tarefa mais fácil e aplicável. A abordagem sistêmica da teoria das restrições se adequou à complexidade dos sistemas de produção da pecuária leiteira.
Resumo:
A elaboração de um projeto de obra de edificação é fruto da interação entre profissionais de diversas disciplinas desenvolvendo, simultaneamente, suas opções e decisões com relação ao mesmo. É necessário considerar a qualidade do processo de elaboração do projeto dependente de uma efetiva comunicação entre os membros da equipe. A indústria da construção civil está sendo beneficiada pelos recursos oferecidos pela tecnologia da informação como, por exemplo, os sistemas colaborativos (extranets de projeto). Estes sistemas corroboram na integração e comunicação entre os membros de um projeto. O objetivo da presente pesquisa foi a apresentação do desenvolvimento de modelo validado de ferramenta computacional projetada para complementar um sistema colaborativo pré-existente. Esta ferramenta foi denominada Sistema de Programação e Controle do Processo de Projeto (SIPROCON/PP). A finalidade do SIPROCON/PP é auxiliar no processo de tomada de decisão dos coordenadores através do monitoramento do cronograma e do fluxo do intercâmbio de informações das atividades geradoras de informações neste processo. O processo de desenvolvimento da ferramenta foi delineado em harmonia com a organização da pesquisa. Neste sentido, é assinalado o uso da prototipação e da simulação como estratégias de pesquisa, utilizados respectivamente na construção e validação do modelo da ferramenta. Ante a necessidade do experimento, foi criada uma atividade lúdica através da qual foi reproduzido o intercâmbio de informações de um processo de projeto denominada Sistemática de Simulação do Processo de Projeto (SS/PP) para validação do modelo da ferramenta. Logo, por meio do uso das simulações foram obtidos os dados correspondentes a validação da modelagem e aplicação do SIPROCON/PP e, ao mesmo tempo, necessários à conclusão da pesquisa. Diante disso, a partir da análise dos dados coletados é apontada a melhoria na qualidade do processo de elaboração do projeto considerando a formação de uma equipe equilibrada de projeto. Isso, fruto do conhecimento mais acurado do coordenador sobre o desempenho de cada projetista.
Resumo:
O estudo foi feito através de séries históricas de dados de um incubatório pertencente a uma integração avícola do Rio Grande do Sul, durante os anos de 1999 a 2003, com os quais foram feitas análises do tipo observacional analítico e transversal. Primeiramente usou-se os registros de 5 linhagens de frangos utilizadas pela empresa no transcorrer do período de 23 de fevereiro de 1995 a 25 de janeiro de 2002. As linhagens foram identificadas da seguinte forma: COBB, HIGH YIELD, MPK, ROSS308, e X. Esses 81 lotes analisados foram estudados através dos seus respectivos registros que continham: o número inicial de fêmeas, número inicial de machos, ração total/cabeça, ração/cabeça/inicial/recria, ração/cabeça/inicial/postura, ovos postos, ração p/ovo posto, pintos nascidos, percentagem viabilidade postura fêmea, percentagem viabilidade postura machos. O método aqui proposto provou ser capaz de classificar as linhagens a partir das entradas escolhidas. Na linhagem que apresentava uma grande quantidade de amostras a classificação foi muito precisa. Nas demais, com menor número de dados, a classificação foi efetuada, e, como era de se esperar, os resultados foram menos consistentes. Com o mesmo banco de dados dos lotes fechados, realizou-se a segunda etapa da dissertação. Nela, procedeu-se o treinamento das redes neurais artificiais onde foram utilizadas as seguintes variáveis de saída: ovos incubáveis, percentagem de ovos incubáveis, ovos incubados, percentagem de ovos incubados, pintos nascidos e pintos aproveitáveis. Os resultados apresentaram R2 oscilando entre 0,93 e 0,99 e o erro médio e o quadrado médio do erro ajustados, demonstrando a utilidade das redes para explicar as variáveis de saída. Na terceira e última etapa da dissertação, destinada à validação dos modelos, foram usados quatro arquivos distintos denominados da seguinte forma: INPESO (3.110 linhas de registros de pesos dos reprodutores), ININFO (56.018 linhas de registros com as informações diárias do ocorrido nas granjas de reprodução até o incubatório), INOVOS (35.000 linhas de registros com informações sobre os ovos processados), INNASC: 43.828 linhas de registros com informações sobre os nascimentos. O modelo gerado para o ano de 1999 foi capaz de predizer corretamente os resultados deste mesmo ano e dos anos de 2000, 2001, 2002 e 2003. O mesmo procedimento foi repetido criando modelo com os registros do ano em questão e validando-o com os registros dos anos subseqüentes. Em todas as ocasiões foram obtidos bons resultados traduzidos por um alto valor no R2. Concluindo, os fenômenos próprios do incubatório puderam ser explicados através das redes neurais artificiais. A técnica, seguindo a mesma tendência das dissertações que anteriormente já haviam demonstrado que esta metodologia pode ser utilizada para o gerenciamento de reprodutoras pesadas e de frangos de corte, pode realizar simulações, predições e medir a contribuição de cada variável no fenômeno observado, tornando-se uma poderosa ferramenta para o gerenciamento do incubatório e num suporte cientificamente alicerçado para a tomada de decisão.
Resumo:
Neste estudo verifica-se a influência da qualidade do atendimento na decisão de compra de planos pós-pagos de telefonia móvel celular, bem como a existência de uma correlação entre o grau de conhecimento que o consumidor já possui sobre o serviço antes de adquiri-lo e a importância atribuída ao auxílio do vendedor no momento da compra. Para tanto, foi realizada uma pesquisa com pessoas que adquiriram planos pós-pagos nas lojas de uma operadora de telefonia móvel na cidade do Rio de Janeiro, por meio da qual foram analisados: o grau de conhecimento prévio dos compradores sobre os serviços, o grau de satisfação com o atendimento, a importância atribuída ao auxílio do vendedor para a tomada de decisão de compra, entre outros indicadores. A etapa quantitativa foi precedida de uma fase qualitativa, a fim de levantar os atributos considerados importantes pelos clientes para medir a qualidade de atendimento e, com base neles, construídos os questionários que, depois de aplicados e analisados, resultaram na constatação de uma correlação positiva entre a percepção de qualidade no atendimento e a decisão de compra. Os resultados são discutidos, bem como as implicações acadêmicas e gerenciais.
Resumo:
A tese analisa as mudanças da política de compras e contratações da administração pública federal brasileira descrevendo de forma sistemática os seis casos nos quais as regras e procedimentos sofrem alteração substancial, na forma de leis gerais ou estatutos: a centralização das compras no período Vargas, em dois momentos decisivos (1931 e 1940); a revisão das regras de licitação pelo Decreto-lei n. 200, no contexto da reforma administrativa do governo Castello Branco; a edição de um estatuto das licitações (o Decreto-lei n 2.300) no governo Sarney; a aprovação no Legislativo de uma lei de licitações voltada para o combate à corrupção e ao direcionamento dos contratos públicos (Lei 8.666); a tentativa frustrada de uma nova lei alinhada com a reforma gerencial do primeiro governo Fernando Henrique Cardoso e a criação do pregão como nova modalidade de licitação, em 2000. A pesquisa focaliza o processo político de formulação dos problemas, especificação de soluções e tomada de decisão, com base no modelo de John Kingdon, desdobrando a análise em fluxos do processo político, dos problemas emergentes e das soluções, em cada contexto histórico específico. Os seis casos são descritos por meio de narrativas estruturadas e comparados a partir das categorias do modelo teórico para elucidar como se desenvolveu o processo de mudança, quais os atores relevantes, idéias, modelos e eventos políticos que explicam suas circunstâncias e resultado.
Resumo:
Este trabalho estã centrado no estudo do caso -- Sistema Comercial da Companhia de Saneamento do Paranã - SANEPAR e consequentemente na apresentação de alternativas organizacionais voltadas para o estabelecimento de coerência entre objetivos, recursos e ambiência que envolvem esse sistema. Foi dese~volvido tendo como base teórica o modelo de anãlise organizacional sustentado por Jay R. Galbraith em ORGANIZATION DESIGN, 1977. Calcado num diagnóstico participativo, foi buscado o alcance de objetivos voltados para o conhecimento de aspectos do sistema, como transação ambiental, a natureza das tarefas, a estrutura e o processo de tomada de decisão. Para tanto, foi recomendado a aplicação de um IIMix Organizacional composto de 6 estrategias basicas, provenientes tanto da administração classica quanto da contingencial/orgânica. Pela situação organizacional encontrada, se concluiu que o Sistema Comercial da SANEPAR apresenta uma administração difusa e, bastante descaracterizada estruturalmente, o que compromete a eficiência de seu desempenho. Sua ãrea de competência/autoridade funcional, estã subordinada a um orgao de planejamento que, alem das suas atividades peculiares, tambem se encarrega da direção do Sistema Comercial. Essa situação incide na qualidade dos resultados finais necessarios, i. e, na eficacia e efetividade dos dois sistemas dentro do contexto em que atuam, visto estarem seus principais recursos, humanos, gerando decisões sem uma base informacional consistente e relevante e, dentro de um desenho estrutural que dificulta a consecução dos resultados. O mix recomendado visa dotar o sistema de maior capacidade de transaçao com o ambiente em geral, via uma administração estrategica calcada num desenho estrutural concebido para propiciar informação precisa, decisao relevante e alcance de resultados necessãrios. r proposto visando subordinar o sistema diretamente a uma Diretoria, emancipando-o da subordinação ao Planejamento e, elevando sua autoridade, ao mesmo nivel de importância dos principais sistemas da Empresa. Dessa forma, foi planejada uma atuação gerencial mais dinâmica e profissional ao sistema via processo de tomada de decisão lógico, releva~ te e conhecido. Assim, objetiva-se reduzir a niveis insignificantes a incerteza constatada, principal causadora dos atrasos e distorções ocorrentes no processo e alcance dos resultados desejados. Esses instrumentos, certamente, facilitarão as relações no interior do sistema e, deste, com o ambiente em geral, garantindo assim, a abertura do caminho rumo ao atinamento da eficácia e efetividade gerencial.
Resumo:
A previsão de demanda é uma atividade relevante pois influencia na tomada de decisão das organizações públicas e privadas. Este trabalho procura identificar modelos econométricos que apresentem bom poder preditivo para a demanda automotiva brasileira num horizonte de longo prazo, cinco anos, através do uso das séries de vendas mensais de automóveis, veículos comerciais leves e total, o período amostral é de 1970 a 2010. Foram estimados e avaliados os seguintes modelos: Auto-regressivo (Box-Jenkins, 1976), Estrutural (Harvey, 1989) e Mudança de Regime (Hamilton, 1994), incluindo efeitos calendário e dummies além dos testes de raízes unitárias sazonais e não-sazonais para as séries. A definição da acurácia dos modelos baseou-se no Erro Quadrático Médio (EQM) dos resultados apresentados na simulação da previsão de demanda dos últimos quinze anos (1995 a 2010).
Resumo:
Normalmente, o processo de tomada de decisão para seleção de um novo projeto considera o retorno financeiro e estratégico por meio de indicadores e métodos diversos. Porém, no caso abordado aqui, há uma situação atípica: uma verba mínima estabelecida, e de uso obrigatório, para implementação de projetos antagônicos aos objetivos da empresa. Por força de lei, todas as concessionárias distribuidoras de energia elétrica no Brasil devem direcionar recursos para projetos de eficiência energética a serem aplicados em seus clientes, ou seja, aqueles que consomem e geram lucro para as empresas. A existência deste tipo de situação não é comum no meio empresarial. Ou seja, enfrentar um processo decisório onde o que se busca são resultados contrários ao objetivo das empresas em questão. Assim, o principal objetivo desta pesquisa é compreender os fatores de decisão em situações de incentivos divergentes. Este trabalho mostra que a existência da situação de incentivo divergente alterou os fatores considerados pelos decisores no processo de tomada de decisões. No lugar de fatores financeiros normalmente adotados em projetos em situação normal e mesmo em projetos de eficiência energética, obtiveram maior importância os fatores diretamente ligados ao sucesso e resultados específicos dos projetos, minimizando a importância de buscar conexão com as diretrizes de governança das organizações.
Resumo:
O fácil acesso às tecnologias prediais e o seu barateamento contribuíram para seu uso em grandes empresas que acreditam no retorno desse investimento através do aumento em sua produtividade e eficiência. Diante de um grande número de componentes tecnológicos na edificação, surge a necessidade de administrar e operar este novo ambiente construído, assegurando um perfeito funcionamento do edifício. Busca-se, portanto, destacar que esta sofisticação da edificação retrata ainda a imagem corporativa da empresa e sua gestão é responsabilidade de engenheiros e arquitetos. Para que esse ambiente funcione adequadamente, a gestão do edifício deve estar intimamente ligada ao planejamento estratégico da empresa, unindo forças para melhor servir a organização. O sucesso da função de gestão facilities depende da habilidade de identificar, comunicar e administrar oportunidades para ajudar a suportar os objetivos organizacionais. Um modelo eficiente de gestão deve contar com o apoio de um sistema de informação eficaz para agilizar a tomada de decisão como também armazenar dados de controle. A eficiência dos processos de planejamento estratégico e operacional depende mais da qualidade da informação utilizada do que dos próprios processos empregados para planejar. Novas soluções, que surgem no mercado internacional, ajudam os administradores organizacionais a solucionar os desafios diários de maximizar retornos no espaço físico organizacional. Uma investigação em um conjunto de empresa dos setores industrial, comercial e de serviços inseridas na região metropolitana de Porto Alegre é realizada a fim de conhecer o tipo de gestão do ambiente construído que acontece no Brasil e o entendimento por parte dos gestores de como melhorar a efetividade da organização através do ambiente construído A falta de um modelo de gestão da edificação na maioria destas empresas e de ferramentas que suportem esta atividade levam a acreditar que o Brasil deve evoluir na área de operação predial a fim de otimizar o espaço físico das organizações. O desconhecimento por partes dos gestores de que uma gestão estratégica pode agregar valor ao negócio das organizações foi outro aspecto observado, necessitando, portanto, uma maior interação entre gestores do ambiente construído.
Resumo:
O objetivo central desta pesquisa foi o de explorar, descrever e discutir de que forma e em que extensão as empresas se utilizam das informações contábeis tratadas por mecanismos que considerem os reflexos das variações no poder aquisitivo da moeda (Inflação) e das flutuações específicas de preços sobre os resultado e patrimônio empresarial, nos seus sistemas de controles internos e, consequentemente, em seus processos de tomada de decisão, avaliação de desempenho e fixação de tendências para o empreendimento. Em função dos objetivos propostos, a operacionalização desta pesquisa foi desenvolvida em duas etapas. A primeira fase, de caráter qualitativo, constituiu-se no levantamento dos dados básicos necessários ao atingimento dos objetivos desejados, através da aplicação de questionários em 12 (doze) empresas. Através dos dados levantados, foi possível inferir-se que o sistema contábil configura-se na base primária dos relatórios gerenciais das empresas pesquisadas. o modelo da Correção Integral teve sua validade conceitual confirmada, não obstante algumas simpliflcações metodológicas adotadas e o problema da lnadequacidade do padrão monetário utilizado principalmente em 1990. Em que pese ter havido consenso na indicação das distorções provocadas pelo problema do indexador, apenas duas empresas adotaram mecanismos tendentes a anular seus efeitos. Uma importante constatação também, foi o fato de que nas empresas em que se utilizavam sistemas contábeis baseados na metodologia da Lei Societária, como fonte primária, para geração de relatórios gerenciais, as suas adminlstrações não utilizavam tais relatórios como suporte aos seus processos de tomada de decisão, como por exemplo, no processo de estabelecimento de preços. Ressalte-se, também, que o pouco conhecimento da filosofia conceitual e vantagens informativas do modelo da Contabilidade a Custo Corrente Corrigido, tem impedido a sua implantação de forma mais ampla. Saliente-se que 60% das empresas da amostra já se utilizam de mecanismos de avaliação de ativos não monetários, com base em valores correntes (captaçao dos efeitos das flutuações especificas de preços), só que restritos aos itens circulantes (estoques) . Este é, certamente, o caminho para a aplicação plena do modelo, principalmente no âmbito gerencial. A segunda fase, cujo enfoque direcionou-se aos aspectos quantitativos, através do cálculo de indicadores econômicos-financeiros extraídos das demonstrações contábeis das empresas pesquisadas, relativos ao exercício de 1990, e elaborados em consonân ia com as metodologias da Correção Integral e da Lei Societária, buscou-se , mediante análise comparativa, avaliar as pricipais distorções encolvidas, que corroboram, de certa forma, os comentários feitos no parágrafo anterior. A natureza exploratória deste assunto, com deslocamento da ênfase da análise quantitativa, e com enfoque estritamente gerencial, é que o diferencia dos demais desenvolvidos em tempos recentes. Além disso, apresenta como caraterística acessória a busca por informações sugestivas para o desenvolvimento de pesquisas futuras.
Resumo:
Clusters de computadores são geralmente utilizados para se obter alto desempenho na execução de aplicações paralelas. Sua utilização tem aumentado significativamente ao longo dos anos e resulta hoje em uma presença de quase 60% entre as 500 máquinas mais rápidas do mundo. Embora a utilização de clusters seja bastante difundida, a tarefa de monitoramento de recursos dessas máquinas é considerada complexa. Essa complexidade advém do fato de existirem diferentes configurações de software e hardware que podem ser caracterizadas como cluster. Diferentes configurações acabam por fazer com que o administrador de um cluster necessite de mais de uma ferramenta de monitoramento para conseguir obter informações suficientes para uma tomada de decisão acerca de eventuais problemas que possam estar acontecendo no seu cluster. Outra situação que demonstra a complexidade da tarefa de monitoramento acontece quando o desenvolvedor de aplicações paralelas necessita de informações relativas ao ambiente de execução da sua aplicação para entender melhor o seu comportamento. A execução de aplicações paralelas em ambientes multi-cluster e grid juntamente com a necessidade de informações externas à aplicação é outra situação que necessita da tarefa de monitoramento. Em todas essas situações, verifica-se a existência de múltiplas fontes de dados independentes e que podem ter informações relacionadas ou complementares. O objetivo deste trabalho é propor um modelo de integração de dados que pode se adaptar a diferentes fontes de informação e gerar como resultado informações integradas que sejam passíveis de uma visualização conjunta por alguma ferramenta. Esse modelo é baseado na depuração offline de aplicações paralelas e é dividido em duas etapas: a coleta de dados e uma posterior integração das informações. Um protótipo baseado nesse modelo de integração é descrito neste trabalho Esse protótipo utiliza como fontes de informação as ferramentas de monitoramento de cluster Ganglia e Performance Co-Pilot, bibliotecas de rastreamento de aplicações DECK e MPI e uma instrumentação do Sistema operacional Linux para registrar as trocas de contexto de um conjunto de processos. Pajé é a ferramenta escolhida para a visualização integrada das informações. Os resultados do processo de integração de dados pelo protótipo apresentado neste trabalho são caracterizados em três tipos: depuração de aplicações DECK, depuração de aplicações MPI e monitoramento de cluster. Ao final do texto, são delineadas algumas conclusões e contribuições desse trabalho, assim como algumas sugestões de trabalhos futuros.