979 resultados para Seleção de Modelos


Relevância:

30.00% 30.00%

Publicador:

Resumo:

O Ensaio Elite Sul vem sendo conduzido desde a década de 90 em vários locais representativos da região subtropical. O objetivo desse trabalho foi avaliar o desempenho, a adaptabilidade e a estabilidade de híbridos de milho avaliados no ensaio Elite Sul pela metodologia de modelos mistos. Os ensaios foram em 15 ambientes com número variável de tratamentos. Todos em delineamento látice, com duas linhas de cinco metros, espaçamento entre linhas de 0,80m e duas repetições. Para as análises de adaptabilidade e estabilidade, foram utilizados os dados de rendimento de grão, corrigidos para 13% de umidade, e aplicada a metodologia de Modelos Lineares Mistos seguindo o modelo 52 do software SELEGEN-REML/BLUP. Considerando-se os valores genotípicos e capitalizando-se a interação média entre genótipos e ambiente (u+g+ge) os híbridos Maximus, 1I1002, 1I998, 2F633 5 e 1G748 5 foram os melhores. Houve completa concordância na seleção dos cinco híbridos de melhor desempenho, entre os valores genotípicos e MHPRVG (medida concomitante de produtividade, adaptabilidade e estabilidade).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A saúde em Portugal vive hoje mudanças significativas. A criação de modelos de Gestão Empresarial em instituições públicas visa a melhor qualidade ao menor custo. A aquisição de equipamento médico, cada vez mais sofisticado, exige das instituições esforços redobrados. A necessidade de redução dos custos acoplada à necessidade de aquisição de tecnologias cada vez mais avançadas exige que as instituições tomem mediadas mais rigorosas para melhorar o processo de aquisição. É importante estabelecer desde o início de um processo de aquisição, as exatas necessidades da instituição, com um conjunto de especificações bem detalhado do produto a adquirir bem como um conjunto exigências que devem ser feitas perante os fornecedores que salvaguardem a instituição. O conhecimento do equipamento a adquirir facilita todo o processo. Assim é de extrema importância garantir o estudo bastante alargado do equipamento, permitindo à instituição uma melhor avaliação do equipamento, aquando da seleção do mesmo. A garantia da confiabilidade metrológica é outro ponto muito importante a ter em conta no processo, uma vez que o sucesso dos cuidados de saúde parte da confiança e segurança que transmitem aos seus utentes. O objetivo deste trabalho é o estudo de Ventiladores Pulmonares (VP) focando essencialmente na seleção e aquisição destes equipamentos. Neste estudo faz-se também um estudo dos procedimentos de avaliação da confiabilidade metrológica dos VP, tendo em vista a definição dos testes de verificação a serem efetuados ao longo do processo de aquisição. É normalizado o Caderno de Encargos (CE) e respetivas especificações/requisitos técnicos, tentando comprar de acordo com as reais necessidades da instituição, visando o menor desperdício e garantido a melhor qualidade.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dissertação apresentada ao Instituto Politécnico do Porto para obtenção do Grau de Mestre em Gestão das Organizações, Ramo de Gestão de Empresas Orientada pelo Professor Doutor José Freitas Santos

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dissertação apresentada ao Instituto Politécnico do Porto para obtenção do Grau de Mestre em Logística

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A distribuição de recursos públicos de modo equilibrado e bem aplicado é questão de suma importância para administradores públicos e planejadores, especialmente em países como o Brasil que, a cada ano, vê sua capacidade de investimento mais reduzida e onde mais se acentuam os desníveis sociais. A metodologia, aqui empregada, busca incorporar ao modelo a característica de dinamismo própria da realidade regional e por isso permite grande abertura na fase de seleção de variáveis, tratamento dos dados e cálculos de correlações. Descarta de saída a possibilidade de ser resposta única para a questão da regionalização, e sobretudo, visa ser um modelo heurístico que se realimenta via interações, permitindo inúmeras soluções, tanto melhores, quanto mais forem as tentativas de otimização do método. Este trabalho trata da questão da regionalização sob a ótica do estabelecimento de similaridades através de uma análise centrada nos dados sócio-econômicos que guardam melhor correlação com a estrutura espacial, utilizando a técnica de análise de agrupamentos e estatística multivariada, com o fim de facilitar o planejamento regional e munir os administradores públicos com instrumentos de decisão para uma distribuição melhor dimensionada de recursos. O tratamento dos dados se desenvolve a partir de matrizes que relacionam cada objeto unitário com todos os demais, neste caso, cada unidade municipal do estado do Rio Grande do Sul com todos os demais municípios. Utiliza-se o cálculo de variadas formas de distâncias euclidianas e não euclidianas para estabelecer a similaridade entre os objetos, o que é medido através do Teste de Mantel que relaciona as matrizes de dados com a matriz de distância. Posteriormente, via uso de técnicas de análise de agrupamento obtém-se os padrões regionais atrelados à estrutura espacial. As regionalizações geradas pelo método têm a vantagem de apresentarem-se em vários níveis hierárquicos, direcionando-se para uma maior diferenciação à medida que os níveis se aprofundam. Permitem uma visualização dos resultados em qualquer um dos níveis de diferenciação, o que proporciona ampla gama de possibilidades comparativas. Possuem um bom grau de isenção técnica, porque são o resultado de uma análise cujos principais referenciais são de domínio coletivo e definidores do espaço, em que pese o índice de correlação entre as matrizes de distâncias ter sido baixo, para esta partida de dados selecionada e aplicada ao estado do Rio Grande do Sul.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A metodologia para a estimação por cenários alternativos com base na interação entre modelos subjetivos causais e técnicas analíticas para o dimensionamento de mercado representa uma proposta de tratamento sistemático dos problemas de análise e previsão, utilizado nas áreas de estratégia mercadológica e planejamento empresarial. A tese trata inicialmente de dois critérios para a classificação das técnicas de previsão e geração de cenários. No primeiro deles, são considerados os atributos que usualmente orientam a seleção dos métodos de previsão mais apropriados para cada caso. No segundo, é definido um referencial com base nas regras empregadas para identificar o modo de geração dos futuros alternativos. Em ambas situações, foram consultados trabalhos que incorporaram extensivamente os conceitos de interesse desta tese, com o propósito de apoiar a sua fundamentação teórica. Uma análise adicional mais detalhada se ateve às técnicas que propiciaram a base conceitual da metodologia, a exemplo da modelagem estrutural e das probabilidades subjetivas. Com o objetivo de testar a adequação da proposta ao estudo de caso, foi escolhido o mercado atendido pela indústria de energia elétrica. Este procedimento passou inicialmente por uma investigação a nível nacional com a intenção de: (i) observar aquelas técnicas e indicadores utilizados regularmente III pelas concessionárias; (ii) constatar e comparar situações que afetam a qualidade das previsões, a exemplo do tamanho da equipe e do grau de comunicação com as instituições externas. Em seguida, foi efetuada uma aplicação prática sobre o mercado regional de eletricidade do segmento residencial, na tentativa de validar empiricamente a metodologia proposta. Como particularidades, foram introduzidas as equações simultâneas do lado analítico, e a consulta aos especialistas, os quais foram aplicados na construção do modelo exploratório do lado subjetivo. A interação entre as técnicas resultou em alguns cenários para o mercado analisado.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Discute-se como a assimetria de informações afeta os modelos de precificação de ativos e algumas das consequências para os testes de eficiência. No primeiro capítulo são apresentados dois modelos que partiram da hipótese que os agentes possuem informação completa sobre as variáveis econômicas: o CAPM e o Black-Scholes. No segundo capítulo procura-se verificar até que ponto é possível modelar a economia dadas estas imperfeições. Partindo de uma variação de AkerIoff (1970), mostra-se que quando uma parte de posse de uma informação superior transaciona com outra, ocorre uma falha de mercado, a seleção adversa, podendo até gerar o colapso do mercado. O segundo modelo analisado, Bray (1989), mostra como as informações privilegiadas são incorporadas ao preço e o último modelo, Kyle (1985), analisa como a presença de um agente com informação privilegiada afeta a liquidez do mercado. O terceiro capítulo faz um teste para a eficiência do mercado de câmbio brasileiro. Apesar de não se poder negar a presença de co integração entre as séries, não se pode aceitar a hipótese de eficiência semi-forte, ou seja, a hipótese de que o mercado futuro seria um estimador não viesado para o mercado à vista, o que pode ser interpretado como indicação de informação incompleta ou imperfeita.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Uma das formas de acesso à inovação tecnológica é a pesquisa e desenvolvimento (P&D) de novos produtos. Entre projetos de P&D propostos, a empresa precisa selecionar aqueles em que vai realizar investimentos. Esta dissertação é do tipo "proposta de planos ou programas", e analisa a seleção de projetos de P&D. Muitos gerentes de P&D não acreditam que os métodos disponíveis para seleção de projetos melhorem a qualidade das suas decisões. Algumas das fraquezas identificadas em métodos de seleção de projetos são o tratamento inadequado de múltiplos critérios, às vezes interdependentes, o tratamento inadequado do risco e da incerteza, a dificuldade em reconhecer e tratar aspectos não-monetários, e a percepção pelos gerentes de P&D que os modelos são desnecessariamente difíceis de entender e utilizar. O objetivo deste estudo é analisar os benefícios proporcionados pela utilização da teoria de opções reais, do alinhamento dos projetos de P&D à estratégia da empresa e do método de apoio à decisão Analytic Hierarchy Process (AHP) para o processo de seleção de projetos de P&D em empresas do setor elétrico brasileiro, e em especial será analisado o caso da Eletrosul. A teoria de opções reais e o alinhamento com a estratégia da empresa proporcionam uma considerável ampliação da visão gerencial necessária para decidir quais projetos devem ser executados. A análise dos projetos à luz da estratégia da empresa facilita a efetiva implantação dela, conduz a uma reflexão sobre a estratégia e possibilita que universidades e centros de pesquisa alinhem suas propostas a ela. O método AHP mostrou-se adequado para apoiar o processo de seleção de projetos de P&D, subdividindo uma decisão complexa em comparações duas a duas e a seguir sintetizando-as para chegar a um resultado sobre a decisão complexa. A facilidade de compreensão e a transparência do funcionamento são pontos fortes do método AHP.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Trata do problema da seleção de Sistemas Integrados, ou ERP (Enterprise Resource Systems), investigando o processo especificamente sob o ponto de vista da Análise de Decisões. Procura analisar a associação entre a satisfação tanto com o Sistema Integrado selecionado quanto com a forma em que foi estruturado o próprio processo de seleção, com variáveis especificamente selecionadas para tal, representativas, entre outros, de grupos de critérios de decisão e características específicas do processo de seleção, relacionadas, estas últimas, a questões como o tratamento dado ao fator risco e ao possível caráter coletivo da decisão. Questiona a possibilidade de modelagem do processo de seleção de Sistemas Integrados, a partir da proposta normativa oferecida pela Teoria da Utilidade, e da suposta existência de um gap ou distância entre esta proposta e a prática naquele processo de seleção. Propõe um modelo mental genérico que procura explicar o modo como os agentes decisórios abordam o problema de seleção de sistemas integrados. Apresenta e propõe um modelo dinâmico que justificaria a existência do gap acima mencionado a partir da incapacidade do modelo mental genérico em apreender toda a complexidade inerente ao problema de seleção de sistemas integrados.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O objetivo deste trabalho foi mostrar modelagens alternativas à tradicional maneira de se apurar o risco de mercado para ativos financeiros brasileiros. Procurou-se cobrir o máximo possível de fatores de risco existentes no Brasil; para tanto utilizamos as principais proxies para instrumentos de Renda Fixa. Em momentos de volatilidade, o gerenciamento de risco de mercado é bastante criticado por trabalhar dentro de modelagens fundamentadas na distribuição normal. Aqui reside a maior contribuição do VaR e também a maior crítica a ele. Adicionado a isso, temos um mercado caracterizado pela extrema iliquidez no mercado secundário até mesmo em certos tipos de títulos públicos federais. O primeiro passo foi fazer um levantamento da produção acadêmica sobre o tema, seja no Brasil ou no mundo. Para a nossa surpresa, pouco, no nosso país, tem se falado em distribuições estáveis aplicadas ao mercado financeiro, seja em gerenciamento de risco, precificação de opções ou administração de carteiras. Após essa etapa, passamos a seleção das variáveis a serem utilizadas buscando cobrir uma grande parte dos ativos financeiros brasileiros. Assim, deveríamos identificar a presença ou não da condição de normalidade para, aí sim, realizarmos as modelagens das medidas de risco, VaR e ES, para os ativos escolhidos, As condições teóricas e práticas estavam criadas: demanda de mercado (crítica ao método gausiano bastante difundido), ampla cobertura de ativos (apesar do eventual questionamento da liquidez), experiência acadêmica e conhecimento internacional (por meio de detalhado e criterioso estudo da produção sobre o tema nos principais meios). Analisou-se, desta forma, quatro principais abordagens para o cálculo de medidas de risco sendo elas coerentes (ES) ou não (VaR). É importante mencionar que se trata de um trabalho que poderá servir de insumo inicial para trabalhos mais grandiosos, por exemplo, aqueles que incorporarem vários ativos dentro de uma carteira de riscos lineares ou, até mesmo, para ativos que apresentem risco não-direcionais.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O objetivo deste trabalho é o desenvolvimento de uma ferramenta de regressão multivariável apropriada para abordar o problema da modelagem de propriedades relacionadas à qualidade final de produtos em processos industriais. No caso geral, dados provenientes de sistemas físicos e químicos típicos do meio industrial são caracterizados pela presença de relação não linear entre as variáveis, podendo, ainda, apresentar outros problemas que dificultam o processo de modelagem empírica, como baixa disponibilidade de observações experimentais, presença de ruído excessivo nas medidas e a presença de colinearidade entre os termos explicativos. Foi feita uma revisão de diferentes métodos de regressão multivariável tais como regressão linear múltipla (MLR), regressão não linear baseada em transformações das variáveis explicativas e métodos de redução de dimensionalidade (PCA, PLS, QPLS e BTPLS). Também foram propostas novas metodologias para a abordagem das questões da seleção de variáveis e estimação das incertezas dos modelos. Posteriormente, utilizando as metodologias revisadas e propostas, foi sugerida uma sistemática para o tratamento da questão da modelagem empírica de dados industriais, que constitui a base para a implementação da ferramenta desejada. A aplicabilidade da ferramenta desenvolvida foi ilustrada através de alguns estudos de caso retirados da literatura, onde modelos para a predição de propriedades relativas à qualidade de produtos produzidos em quatro tipos de processos industriais diferentes são obtidos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O trabalho tem como objetivo aplicar uma modelagem não linear ao Produto Interno Bruto brasileiro. Para tanto foi testada a existência de não linearidade do processo gerador dos dados com a metodologia sugerida por Castle e Henry (2010). O teste consiste em verificar a persistência dos regressores não lineares no modelo linear irrestrito. A seguir a série é modelada a partir do modelo autoregressivo com limiar utilizando a abordagem geral para específico na seleção do modelo. O algoritmo Autometrics é utilizado para escolha do modelo não linear. Os resultados encontrados indicam que o Produto Interno Bruto do Brasil é melhor explicado por um modelo não linear com três mudanças de regime, que ocorrem no inicio dos anos 90, que, de fato, foi um período bastante volátil. Através da modelagem não linear existe o potencial para datação de ciclos, no entanto os resultados encontrados não foram suficientes para tal análise.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O trabalho tem como objetivo verificar a existência e a relevância dos Efeitos Calendário em indicadores industriais. São explorados modelos univariados lineares para o indicador mensal da produção industrial brasileira e alguns de seus componentes. Inicialmente é realizada uma análise dentro da amostra valendo-se de modelos estruturais de espaço-estado e do algoritmo de seleção Autometrics, a qual aponta efeito significante da maioria das variáveis relacionadas ao calendário. Em seguida, através do procedimento de Diebold-Mariano (1995) e do Model Confidence Set, proposto por Hansen, Lunde e Nason (2011), são realizadas comparações de previsões de modelos derivados do Autometrics com um dispositivo simples de Dupla Diferença para um horizonte de até 24 meses à frente. Em geral, os modelos Autometrics que consideram as variáveis de calendário se mostram superiores nas projeções de 1 a 2 meses adiante e superam o modelo simples em todos os horizontes. Quando se agrega os componentes de categoria de uso para formar o índice industrial total, há evidências de ganhos nas projeções de prazo mais curto.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

As empresas de capital aberto, listadas em bolsa de valores, são naturalmente aquelas que vieram apresentando retornos superiores perante às demais empresas do seu setor. Assim, será que o viés de seleção desses ativos in uencia sigini cativamente no resultado do Equity Premium Puzzle, primordialmente lançado por Mehra and Prescott (1985)? É essa pergunta que este trabalho investiga e conclui que, sim, de fato pode haver uma in uência desse viés em explicar o Puzzle . Para isso, iremos gerar uma economia cujos ativos, por hipótese, sejam preci cados de acordo com o fator estocástico de desconto (SDF) baseado em consumo, ou seja, os modelos conhecidos como CCAPM (Consumption Capital Asset Pricing Model). Assim, essa economia será gerada via simulação de Monte Carlo, de forma que iremos construir um índice benchmark dessa economia, nos quais participariam apenas os ativos que foram historicamente mais rentáveis. Adota-se tal metodologia em paralelo à forma como os reais benchmarks são construidos (S&P 500, Nasdaq, Ibovespa), em que neles participam, basicamente, as empresas de capital aberta mais negociadas em Bolsa de Valores, que são, comumente, as empresas historicamente mais rentáveis da economia. Em sequência, iremos realizar a estimação via GMM (Generalized Method of Moments) de um dos parâmetros de interesse de uma economia CCAPM: o coe ciente de aversão relativa ao risco (CRRA). Finalmente, os resultados obtidos são comparados e analisados quanto ao viés de estimação.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)