888 resultados para Método multicritério de análise de decisão
Resumo:
Neste trabalho é desenvolvida uma solução semi-analítica para a Equação de Langevin assintótica (Equação de Deslocamento Aleatório) aplicada à dispersão de poluentes na Camada Limite Convectiva (CLC). A solução tem como ponto de partida uma equação diferencial de primeira ordem para o deslocamento aleatório, sobre a qual é aplicado o Método Iterativo de Picard. O novo modelo é parametrizado por um coeficiente de difusão obtido a partir da Teoria de Difusão Estatística de Taylor e de um modelo para o espectro de turbulência, assumindo a supersposição linear dos efeitos de turbulência térmica e mecânica. A avaliação do modelo é realizada através da comparação com dados de concentração medidos durante o experimento de dispersão de Copenhagen e com resultados obtidos por outros quatro modelos: modelo de partículas estocástico para velocidade aleatória (Modelo de Langevin), solução analítica da equação difusão-advecção, solução numérica da equação difusão-advecção e modelo Gaussiano. Uma análise estatística revela que o modelo proposto simula satisfatoriamente os valores de concentração observados e apresenta boa concordância com os resultados dos outros modelos de dispersão. Além disso, a solução através do Método Iterativo de Picard pode apresentar algumas vantagem em relação ao método clássico de solução.
Resumo:
Essa pesquisa tem como principal objetivo analisar e caracterizar a dinâmica associada à geração, à seleção e à implementação de inovações tecnológicas nas cadeias produtivas agroindustriais. A estrutura de análise vale-se da abordagem dos Sistemas Setoriais de Inovação-SSI, aplicada a um recorte vertical definido pelo conceito de cadeia produtiva. A abordagem de SSI é definida como o sistema de firmas e instituições ativas no desenvolvimento e manufatura de produtos de um setor e na geração e utilização das tecnologias setoriais; esse sistema evolui através de processos de interação e cooperação no desenvolvimento de artefatos tecnológicos, bem como por meio de processos de concorrência e seleção em atividades de inovação. Utilizou-se o método de estudos de caso para evidenciar as relações sistêmicas e os trade-offs entre os fatores institucionais, tecnológicos e organizacionais relacionados com o processo de inovação empreendido pelas agroindústrias Escolheu-se um desenho de pesquisa com uma unidade de análise (agroindústrias que recentemente lançaram novos produtos na cadeia produtiva de leite fluido) e múltiplos estudos de caso (duas agroindústrias no Brasil e duas na França, que lançaram algumas das principais inovações de produto nesses mercados na década de 1990, leite UHT Premium, leite esterilizado, leite UHT orgânico e leite microfiltrado, respectivamente). As estratégias desenvolvidas por fornecedores, o setor lácteo e o sistema de distribuição de alimentos estão sofrendo mudanças rápidas nesses países, o que demonstra bem a robustez do fenômeno em contextos diferentes e complexos. Além disso, a consideração de arquétipos contrastantes - grandes corporações multinacionais e pequenas e médias empresas agroindustriais – em dois SSI que representam ambientes assimétricos – países desenvolvidos e em desenvolvimento – favorece a geração de insight sobre a inter-relação dos elementos-chave associados com a inovação tecnológica. O SSI da cadeia produtiva de leite fluido na França é caracterizado por um alto nível de oportunidade, por um lado, devido à disponibilidade de um mercado consumidor relevante, protegido e diversificado, por outro lado, graças a um sistema estruturado voltado ao suporte e financiamento das atividades inovadoras. Além disso, este país conta com uma grande variedade de agentes, capazes de ofertar e desenvolver um amplo leque de soluções tecnológicas inovadoras – o que se expressa pela emergência de variantes tecnológicas pré-paradigmáticas como aquelas consideradas nos estudos de caso Contudo, esse SSI é emblemático de uma concorrência vertical feroz entre as indústrias de laticínios e o varejo. Já no Brasil, o SSI da cadeia produtiva de leite fluido é caracterizado por um nível de oportunidade promissor, o segmento de distribuição é, relativamente, menos concentrado, e a parcela de mercado de produtos com marca de varejo é, ainda, limitado nesse SSI. Apesar disso, as assimetrias no potencial de consumo da população restringem o tamanho dos mercados de nicho e instabilizam a demanda. Ainda, a variedade de soluções tecnológicas nesse SSI é limitada pelo baixo investimento público e privado em pesquisa aplicada e pela restrita integração entre instituições de pesquisa e indústrias de laticínios. Em ambos os SSI, os estudos de caso evidenciaram que o pioneirismo – associado á exploração de ativos complementares (especialmente imagem de marca) – e á aprendizagem tácita, são os meios mais importantes para garantir um certo grau de apropriabilidade das novas tecnologias.
Resumo:
Num contexto federativo, a análise da produção legislativa em uma dada esfera de governo pode revelar pistas para a construção de variáveis, para a elaboração de um modelo mais abrangente de caracterização do Estado no âmbito estudado: os temas que motivaram a apresentação de proposições legais num determinado período, as respectivas agendas e o grau de participação e autonomia de cada um dos Poderes envolvidos, bem como do relacionamento daquela instância com os demais entes da federação. Além disso, a partir dessa abordagem é possível investigar como ocorre o processo de decisão sobre políticas públicas: quem efetivamente participa e de que forma, ou seja, como se governa. Ao combinarmos nesta dissertação uma análise deste tipo com dados agregados sobre quatro micromunicípios mineiros, procuramos compreender como opera e se traduz legalmente em cada caso uma peculiar gramática cliente lista no âmbito local, isto é, como a produção de leis se apresenta como uma estratégia, racional do ponto de vista dos legisladores e atores políticos, que visam à reeleição.
Resumo:
Este trabalho faz uma análise do sistema de contas nacionais do ano de 1993, editado pela Organização das Nações Unidas, sistema balizador criado por cinco instituições: a Organização das Nações Unidas, Fundo Monetário Internacional, Comissão das Comunidades Européias, Banco Mundial e Organização para Cooperação e Desenvolvimento Econômico que serve de base para todos os países membros desta, sua estrutura, conceitos e definições relevantes. Trata ainda do sistema de contas nacionais adotados no Brasil e Portugal que servem de base para apuração das estimativas do Valor Adicionado Bruto do setor de Correios e Telecomunicações, bem como a forma como são mensurados nestes países e suas sincronias com o sistema de contas nacionais de 1993 da Organização das Nações Unidas. Será comparada a forma de mensuração dos Valores Adicionados Brutos do Brasil e Portugal visando analisar o seu grau de aferimento e abrangência na apuração desta. Vamos utilizar o método Comparativo, segundo Marina de Andrade Marconi e Eva Maria Lakatos, 2003, em Fundamentos de Metodologia Cientifica. Mostra-se que os sistemas de contas nacionais utilizados para a mensuração do Valor Adicionado Bruto utilizados pelo Brasil e Portugal estão em conformidade com a determinação da Comissão de Estatísticas das Nações Unidas, através do Sistema de Contas Nacionais de 1993 (SCN93), sendo que o Sistema Europeu de Contas de 1995 (SEC95) apresenta definições mais precisas e minuciosas do que o SCN93 e Novo Sistema de Contas Brasileiro (NSCB). Verificamos que as mensurações do Valor Adicionado Bruto no Brasil no setor de Correios e Telecomunicações esta sendo feita de forma incompleta com relação a Portugal porque não contempla os Serviços Postais Independentes dos Correios Nacionais, Serviços de Transmissão de Dados e Mensagens, Serviços de Transmissão por Cabo e emissões de Rádio e Televisão. Desta forma, existe uma subavaliação do Valor Adicionado Bruto do setor de Correios e Telecomunicações no Brasil em relação a Portugal.
Resumo:
Em cenas naturais, ocorrem com certa freqüência classes espectralmente muito similares, isto é, os vetores média são muito próximos. Em situações como esta, dados de baixa dimensionalidade (LandSat-TM, Spot) não permitem uma classificação acurada da cena. Por outro lado, sabe-se que dados em alta dimensionalidade [FUK 90] tornam possível a separação destas classes, desde que as matrizes covariância sejam suficientemente distintas. Neste caso, o problema de natureza prática que surge é o da estimação dos parâmetros que caracterizam a distribuição de cada classe. Na medida em que a dimensionalidade dos dados cresce, aumenta o número de parâmetros a serem estimados, especialmente na matriz covariância. Contudo, é sabido que, no mundo real, a quantidade de amostras de treinamento disponíveis, é freqüentemente muito limitada, ocasionando problemas na estimação dos parâmetros necessários ao classificador, degradando portanto a acurácia do processo de classificação, na medida em que a dimensionalidade dos dados aumenta. O Efeito de Hughes, como é chamado este fenômeno, já é bem conhecido no meio científico, e estudos vêm sendo realizados com o objetivo de mitigar este efeito. Entre as alternativas propostas com a finalidade de mitigar o Efeito de Hughes, encontram-se as técnicas de regularização da matriz covariância. Deste modo, técnicas de regularização para a estimação da matriz covariância das classes, tornam-se um tópico interessante de estudo, bem como o comportamento destas técnicas em ambientes de dados de imagens digitais de alta dimensionalidade em sensoriamento remoto, como por exemplo, os dados fornecidos pelo sensor AVIRIS. Neste estudo, é feita uma contextualização em sensoriamento remoto, descrito o sistema sensor AVIRIS, os princípios da análise discriminante linear (LDA), quadrática (QDA) e regularizada (RDA) são apresentados, bem como os experimentos práticos dos métodos, usando dados reais do sensor. Os resultados mostram que, com um número limitado de amostras de treinamento, as técnicas de regularização da matriz covariância foram eficientes em reduzir o Efeito de Hughes. Quanto à acurácia, em alguns casos o modelo quadrático continua sendo o melhor, apesar do Efeito de Hughes, e em outros casos o método de regularização é superior, além de suavizar este efeito. Esta dissertação está organizada da seguinte maneira: No primeiro capítulo é feita uma introdução aos temas: sensoriamento remoto (radiação eletromagnética, espectro eletromagnético, bandas espectrais, assinatura espectral), são também descritos os conceitos, funcionamento do sensor hiperespectral AVIRIS, e os conceitos básicos de reconhecimento de padrões e da abordagem estatística. No segundo capítulo, é feita uma revisão bibliográfica sobre os problemas associados à dimensionalidade dos dados, à descrição das técnicas paramétricas citadas anteriormente, aos métodos de QDA, LDA e RDA, e testes realizados com outros tipos de dados e seus resultados.O terceiro capítulo versa sobre a metodologia que será utilizada nos dados hiperespectrais disponíveis. O quarto capítulo apresenta os testes e experimentos da Análise Discriminante Regularizada (RDA) em imagens hiperespectrais obtidos pelo sensor AVIRIS. No quinto capítulo são apresentados as conclusões e análise final. A contribuição científica deste estudo, relaciona-se à utilização de métodos de regularização da matriz covariância, originalmente propostos por Friedman [FRI 89] para classificação de dados em alta dimensionalidade (dados sintéticos, dados de enologia), para o caso especifico de dados de sensoriamento remoto em alta dimensionalidade (imagens hiperespectrais). A conclusão principal desta dissertação é que o método RDA é útil no processo de classificação de imagens com dados em alta dimensionalidade e classes com características espectrais muito próximas.
Resumo:
Apresentamos a análise de diagramas cor-magnitude (CMDs) profundos para 5 aglomerados ricos da Grande Nuvem de Magalhães (LMC). Os dados fazem parte do projeto HST G07307, entitulado "Formação e Evolução de Aglomerados Estelares Ricos da LMC", e foram obtidos através do HST/WFPC2 nos filtros F555W (~ V) e F814W (~ I), alcançando V555~25. A amostra de aglomerados é composta por NGC 1805 e NGC 1818, os mais jovens (r < 100 Myr), NGC 1831e NGC 1868,de idades intermediárias (400 < r < 1000Myr), e Hodge 14, o mais velho (r > 1200Myr). Discutimos e apresentamos um método de correção dos CMDs para incompleteza da amostra e contaminação por estrelas de campo. O uso eficiente das informações contidas nos CMDs foi feito por meio de comparações entre os CMDs observados e CMDs modelados. O processo de modelamento de CMDs gera uma Seqüência Principal (MS) sintética, que utiliza como entrada do modelo a informação sobre idade (r), metalicidade (Z), Função de Massa do Presente (PDMF), fração de binárias não resolvidas, distância e extinção da luz. As incertezas fotométricas foram empiricamente determinadas a partir dos dados e incorporadas no modelamento. Técnicas estatísticas de comparação entre CMDs em 1D e 2D são apresentadas e aplicadas como métodos objetivos capazes de determinar a compatibilidade entre modelo e observação. Modelando os CMDs da região central dos aglomerados podemos inferir a metalicidade (Z), o módulo de distância intrínseco ((V - Mv)o) e o avermelhamento (E(B-V)) para cada aglomerado. Também determinamos as idades para os 3 aglomerados mais velhos de nossa amostra. Continuação) Através da comparação em 2D os valores encontrados foram os seguintes: para NGC 1805, Z = 0.007:1+-0.003, (V - Mv)o = 18.50:1+- 0.10, E(B - V) = 0.03:1+-0.01; para NGC 1818,Z = 0.005:1+-0.002, (V - Mv)o = 18.50:1+-0.15, E(B - V)~0.00; para NGC 1831, Z = 0.012:1+-0.002, log(r /yr) = 8.70 :I+-0.05, (V - Mv)o = 18.70:1+- 0.05, E(B - V)~ 0.00; para NGC 1868, Z = 0.008:1+-0.002,log(r/yr) =8.95:1+-0.05, (V - Mv)o = 18.70:1+- 0.05, E(B - V) ~0.00; para Hodge 14, Z = 0.008+-0.004, log(r/yr) = 9.23+-0.10, (V - Mv)o = 18.50+-0.15, E(B - V) = 0.02+- 0.02. Estes valores estão de acordo, dentro das incertezas, com os valores obtidos através da análise de linhas fiduciais (lD), o que agrega confiabilidade a estas determinações. Através da análise de CMDs em regiões concêntricas determinamos a dependência espacial da inclinação da PDMF (a) nos aglomerados mais ricos. Para tanto empregamos duas abordagens distintas para a determinação de a: 1) método tradicional em 1D via conversão direta de V555em massa; 2) método em 2D via modelmento de CMDs. Independente do método de análise, todos os aglomerados analisados demonstram claramente o efeito de segregação em massa. Além disso, NGC 1818, NGC 1831 e NGC 1868 apresentam uma possível perda seletiva de estrelas de baixa massa nas suas regiões mais externas.
Resumo:
Trata da influência da taxa de juros na decisão de investir. Apresenta as principais teorias de decisão de investimento. Suporta a conclusão com base em dois questionários aplicados, respectivamente nos anos 1970 e 1990, às cem maiores empresas paulistas, por patrimônio líquido.
Resumo:
Analisa-se as técnicas de previsão mais utilizadas pelos analistas técnicos, procurando verificar se existe base estatística que corrobore a elevada popularidade que estes métodos possuem nos mercados financeiros. A evidência estatística mostra que estes métodos funcionam durante determinados períodos de tempo, não existindo evidência de que o mesmo método funcione durante longos períodos de tempo.
Resumo:
Vídeos de histeroscopias são usados para avaliar a aparência do útero, e são de importância fundamental para os ginecologistas. Estes vídeos contém uma grande quantidade de informação, porém somente um número reduzido de quadros são úteis para propósitos de diagnóstico (por exemplo, a análise da distribuição espacial de glândulas). Sendo assim, este trabalho propõe um método inovador para a análise de vídeos de histeroscopias, com dois objetivos principais: (a) reduzir o número de quadros necessários para a representação do conteúdo do vídeo, e (b) prover uma medida quantitativa da distribuição das glândulas em tais vídeos. A abordagem proposta para a sumarização do vídeo é baseada na extensão de um princípio estatístico conhecido (decomposição em valor singular), e, segundo resultados preliminares, apresenta vantagens sobre os trabalhos publicados na literatura. Observou-se que a análise quantitativa da distribuição das glândulas também apresenta uma maior discriminação do que relatado na literatura. A abordagem proposta é adaptativa no sentido de minimizar a necessidade do ajuste de parâmetros. Além disso, o método é robusto quanto as condições de iluminação e a presença de artefatos (por exemplo, reflexos), os quais são comuns nestes vídeos. Por fim, os experimentos indicam que os resultados obtidos são compatíveis com os obtidos pelos ginecologistas.
Resumo:
O presente trabalho consiste no estudo da percepção de um conjunto de clientes de serviços bancários a respeito da previdência social no Brasil e que influência essa percepção exerce sobre a decisão de aderir a planos de previdência privada complementar aberta. Com o intuito de obter respostas a essas questões, o trabalho foi realizado através de uma pesquisa aplicada. Inicialmente procurou-se verificar qual o grau de conhecimento das pessoas que fazem parte do contingente pesquisado, que possuem renda superior ao teto da previdência social, para fins de aposentadoria, em relação ao Regime Geral da Previdência Social. A partir daí buscou-se saber se esse conhecimento interfere na decisão de aderir a planos de previdência complementar privada e como as pessoas procedem na decisão de buscar a complementaridade no planejamento da futura aposentadoria. Os principais procedimentos adotados foram de descrição, análise e interpretação dos dados coletados na pesquisa. As respostas fornecidas pela pesquisa mostram que há influência da percepção sobre a previdência social na decisão de aderir a planos de previdência privada, entretanto o fator preponderante na decisão é o da capacidade individual de poupar.
Resumo:
Esta dissertação tem por objetivo investigar o valor percebido por executivos de tecnologia de informação (TI) de alguns dos maiores bancos comerciais privados brasileiros com o processo de venda realizado pelos seus maiores fornecedores de soluções de TI, e sua relação com a decisão da compra. A pesquisa emprega a metodologia exploratória, com informações qualitativas obtidas por meio de entrevistas em profundidade com sete participantes dos centros de decisão de compras de soluções de TI de cinco dos bancos referenciados. Para a identificação do valor percebido é utilizado o modelo de ¿Fatores de primeira ordem para valor ao cliente¿, de Lapierre (2000, p. 131), o qual foi desenvolvido com base em revisão da literatura e em análise de dados coletados de clientes empresariais de TI, incluindo bancos. Como síntese das considerações da pesquisa tem-se que: o valor percebido pelos bancos entrevistados oscila de muito negativo a muito positivo; os atributos rapidez no atendimento, confiabilidade no serviço, e tempo/esforço/energia não são, de uma forma geral, bem avaliados pelos entrevistados, enquanto que os atributos imagem, solidariedade e preço o são; e, para todos os bancos entrevistados, há uma clara relação entre o valor percebido e a decisão de compra de soluções de TI. Como implicação prática, é sugerido que os maiores fornecedores de soluções de TI dos bancos entrevistados avaliem com os integrantes dos centros de decisão de compras seus valores percebidos, podendo ser utilizado para a avaliação o modelo de Lapierre (2000). Dentre as limitações da pesquisa são destacadas: o fato da mesma ser qualitativa, não permitindo generalização; e as distorções na comparação das respostas em função do uso de escala ordinal, dos diferentes perfis e papéis dos entrevistados no centro de decisão de compras, das circunstâncias das entrevistas, e dos parâmetros adotados pelos entrevistados com relação aos fornecedores e às soluções de TI para responder à entrevista. O valor desta pesquisa está em prover informações empíricas que contribuam para o conhecimento do comportamento de compra e venda empresarial de soluções de TI no setor de bancos comerciais privados brasileiros.
Resumo:
Trata do tema de avaliação de empresas utilizando o método do fluxo de caixa descontado, conduzido por meio de um estudo de caso, cujo objeto é a empresa japonesa NTT DoCoMo, operadora de telecomunicações. Aborda considerações estratégicas da companhia e do setor de telecomunicações, em particular dos direcionadores de valor. Analisa as principais causas determinantes do valor de mercado da empresa NTT DoCoMo, relacionando-as com a prestação de novos serviços de telefonia celular
Resumo:
Uma das formas de acesso à inovação tecnológica é a pesquisa e desenvolvimento (P&D) de novos produtos. Entre projetos de P&D propostos, a empresa precisa selecionar aqueles em que vai realizar investimentos. Esta dissertação é do tipo "proposta de planos ou programas", e analisa a seleção de projetos de P&D. Muitos gerentes de P&D não acreditam que os métodos disponíveis para seleção de projetos melhorem a qualidade das suas decisões. Algumas das fraquezas identificadas em métodos de seleção de projetos são o tratamento inadequado de múltiplos critérios, às vezes interdependentes, o tratamento inadequado do risco e da incerteza, a dificuldade em reconhecer e tratar aspectos não-monetários, e a percepção pelos gerentes de P&D que os modelos são desnecessariamente difíceis de entender e utilizar. O objetivo deste estudo é analisar os benefícios proporcionados pela utilização da teoria de opções reais, do alinhamento dos projetos de P&D à estratégia da empresa e do método de apoio à decisão Analytic Hierarchy Process (AHP) para o processo de seleção de projetos de P&D em empresas do setor elétrico brasileiro, e em especial será analisado o caso da Eletrosul. A teoria de opções reais e o alinhamento com a estratégia da empresa proporcionam uma considerável ampliação da visão gerencial necessária para decidir quais projetos devem ser executados. A análise dos projetos à luz da estratégia da empresa facilita a efetiva implantação dela, conduz a uma reflexão sobre a estratégia e possibilita que universidades e centros de pesquisa alinhem suas propostas a ela. O método AHP mostrou-se adequado para apoiar o processo de seleção de projetos de P&D, subdividindo uma decisão complexa em comparações duas a duas e a seguir sintetizando-as para chegar a um resultado sobre a decisão complexa. A facilidade de compreensão e a transparência do funcionamento são pontos fortes do método AHP.
Resumo:
O trabalho busca analisar e entender se a aplicação de técnicas de Data mining em processos de aquisição de clientes de cartão de crédito, especificamente os que não possuem uma conta corrente em banco, podem trazer resultados positivos para as empresas que contam com processos ativos de conquista de clientes. Serão exploradas três técnicas de amplo reconhecimento na comunidade acadêmica : Regressão logística, Árvores de decisão, e Redes neurais. Será utilizado como objeto de estudo uma empresa do setor financeiro, especificamente nos seus processos de aquisição de clientes não correntistas para o produto cartão de crédito. Serão mostrados resultados da aplicação dos modelos para algumas campanhas passadas de venda de cartão de crédito não correntistas, para que seja possível verificar se o emprego de modelos estatísticos que discriminem os clientes potenciais mais propensos dos menos propensos à contratação podem se traduzir na obtenção de ganhos financeiros. Esses ganhos podem vir mediante redução dos custos de marketing abordando-se somente os clientes com maiores probabilidades de responderem positivamente à campanha. A fundamentação teórica se dará a partir da introdução dos conceitos do mercado de cartões de crédito, do canal telemarketing, de CRM, e das técnicas de data mining. O trabalho apresentará exemplos práticos de aplicação das técnicas mencionadas verificando os potenciais ganhos financeiros. Os resultados indicam que há grandes oportunidades para o emprego das técnicas de data mining nos processos de aquisição de clientes, possibilitando a racionalização da operação do ponto de vista de custos de aquisição.
Resumo:
Trata da aplicação de ferramentas de Data Mining e do conceito de Data Warehouse à coleta e análise de dados obtidos a partir das ações da Secretaria de Estado da Educação de São Paulo. A variável dependente considerada na análise é o resultado do rendimento das escolas estaduais obtido através das notas de avaliação do SARESP (prova realizada no estado de São Paulo). O data warehouse possui ainda dados operacionais e de ações já realizadas, possibilitando análise de influência nos resultados