39 resultados para Modelagem de separação debiotecnológicos


Relevância:

20.00% 20.00%

Publicador:

Resumo:

As perdas trabalhistas nas Instituições Financeiras representam um valor considerável que devem ser consideradas no modelo de capital regulatório para risco operacional, segundo Basileia. A presente dissertação demonstra uma forma de mensurar o risco às quais as Instituições Financeiras estão expostas nesse tipo de perdas. Diversos tipos de distribuições são analisados conforme sua aderência tanto na frequência como na severidade das perdas. Para os valores de frequência, foi obtida uma amostra de dados real, enquanto para a severidade foram utilizados valores obtidos de relatórios de instituto de pesquisa que serviram de insumo para os cálculos de ações trabalhistas conforme legislação brasileira vigente na CLT (Consolidação das Leis do Trabalho).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O trabalho tem como objetivo aplicar uma modelagem não linear ao Produto Interno Bruto brasileiro. Para tanto foi testada a existência de não linearidade do processo gerador dos dados com a metodologia sugerida por Castle e Henry (2010). O teste consiste em verificar a persistência dos regressores não lineares no modelo linear irrestrito. A seguir a série é modelada a partir do modelo autoregressivo com limiar utilizando a abordagem geral para específico na seleção do modelo. O algoritmo Autometrics é utilizado para escolha do modelo não linear. Os resultados encontrados indicam que o Produto Interno Bruto do Brasil é melhor explicado por um modelo não linear com três mudanças de regime, que ocorrem no inicio dos anos 90, que, de fato, foi um período bastante volátil. Através da modelagem não linear existe o potencial para datação de ciclos, no entanto os resultados encontrados não foram suficientes para tal análise.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As técnicas qualitativas disponiveis para a modelagem de cenários têm sido reconhecidas pela extrema limitação, evidenciada no principio das atividades do processo, como a fase inicial de concepção. As principais restrições têm sido: • inexistência de uma ferramenta que teste a consistência estrutural interna do modelo, ou pela utilização de relações econômicas com fundamentação teórica mas sem interface perfeita com o ambiente, ou pela adoção de variações binárias para testes de validação; • fixação "a priori" dos possíveis cenários, geralmente classificados sob três adjetivos - otimista, mais provável e pessimista - enviesados exatamente pelos atributos das pessoas que fornecem esta informação. o trabalho trata da utilização de uma ferramenta para a interação entre uma técnica que auxilia a geração de modelos, suportada pela lógica relacional com variações a quatro valores e expectativas fundamentadas no conhecimento do decisor acerca do mundo real. Tem em vista a construção de um sistema qualitativo de previsão exploratória, no qual os cenários são obtidos por procedimento essencialmente intuitivo e descritivos, para a demanda regional por eletricidade. Este tipo de abordagem - apresentada por J. Gershuny - visa principalmente ao fornecimento de suporte metodológico para a consistência dos cenários gerados qualitativamente. Desenvolvimento e estruturação do modelo são realizados em etapas, partindo-se de uma relação simples e prosseguindo com a inclusão de variáveis e efeitos que melhoram a explicação do modelo. o trabalho apresenta um conjunto de relações para a demanda regional de eletricidade nos principais setores de consumo residencial, comercial e industrial bem como os cenários resultantes das variações mais prováveis das suas componentes exógenas. Ao final conclui-se que esta técnica é útil em modelos que: • incluem variáveis sociais relevantes e de dificil mensuração; • acreditam na importância da consistência externa entre os resultados gerados pelo modelo e aqueles esperados para a tomada de decisões; • atribuem ao decisor a responsabilidade de compreender a fundamentação da estrutura conceitual do modelo. Adotado este procedimento, o autor aqui recomenda que o modelo seja validado através de um procedimento iterativo de ajustes com a participação do decisor. As técnicas quantitativas poderão ser adotadas em seguida, tendo o modelo como elemento de consistência.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Modelos de predição baseados em estimações não-paramétricas continuam em desenvolvimento e têm permeado a comunidade quantitativa. Sua principal característica é que não consideram a priori distribuições de probabilidade conhecidas, mas permitem que os dados passados sirvam de base para a construção das próprias distribuições. Implementamos para o mercado brasileiro os estimadores agrupados não-paramétricos de Sam e Jiang (2009) para as funções de drift e de difusão do processo estocástico da taxa de juros instantânea, por meio do uso de séries de taxas de juros de diferentes maturidades fornecidas pelos contratos futuros de depósitos interfinanceiros de um dia (DI1). Os estimadores foram construídos sob a perspectiva da estimação por núcleos (kernels), que requer para a sua otimização um formato específico da função-núcleo. Neste trabalho, foi usado o núcleo de Epanechnikov, e um parâmetro de suavizamento (largura de banda), o qual é fundamental para encontrar a função de densidade de probabilidade ótima que forneça a estimação mais eficiente em termos do MISE (Mean Integrated Squared Error - Erro Quadrado Integrado Médio) no momento de testar o modelo com o tradicional método de validação cruzada de k-dobras. Ressalvas são feitas quando as séries não possuem os tamanhos adequados, mas a quebra estrutural do processo de difusão da taxa de juros brasileira, a partir do ano 2006, obriga à redução do tamanho das séries ao custo de reduzir o poder preditivo do modelo. A quebra estrutural representa um processo de amadurecimento do mercado brasileiro que provoca em grande medida o desempenho insatisfatório do estimador proposto.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os leilões para concessão de blocos de petróleo no Brasil utilizam uma equação para formar a pontuação que define o vencedor. Cada participante deve submeter ao leiloeiro um lance composto por três atributos: Bônus de Assinatura (BA), Programa Exploratório Mínimo (PEM) e Conteúdo Local (CL). Cada atributo possui um peso na equação e a nota final de cada participante também depende dos lances ofertados pelos outros participantes. Apesar de leilões de petróleo serem muito estudados na economia, o leilão multi-atributos, do tipo máxima pontuação, ainda é pouco analisado, principalmente como mecanismo de alocação de direitos minerários. Este trabalho destaca a inserção do CL como atributo que transforma a estrutura, do que poderia ser um leilão simples de primeiro preço, em um leilão multi-atributos de máxima pontuação. Demonstra-se como o CL, através da curva de custos do projeto, está relacionado também ao Bônus de Assinatura, outro importante atributo da equação. Para compreender o impacto do fenômeno da inserção do CL, foram criados três casos de leilões hipotéticos, onde, dentre outras simplificações, o programa exploratório mínimo foi fixado para todas as empresas envolvidas. No caso base (Sem CL), simula-se a estrutura de um leilão de primeiro preço, onde apenas o BA define o vencedor do leilão. Já no caso forçado (CLO=CLR), há inserção do atributo CL, sendo o participante obrigado a cumprir o CL ofertado. Por fim, o caso completo (Com Multa) permite que o participante preveja a aplicação de multa por descumprimento do CL ofertado e, caso haja benefício econômico, descumpra efetivamente o CL ofertado. Considerando estes casos, argumenta-se que, apesar do o lucro das empresas e a eficiência do leilão não serem alterados, a inclusão do conteúdo local na estrutura do leilão pode ter reflexos consideráveis na receita do governo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A escolha da cidade do Rio de Janeiro como sede de grandes eventos esportivos mundiais, a Copa do Mundo de Futebol de 2014 e os Jogos Olímpicos de 2016, colocou-a no centro de investimentos em infraestrutura, mobilidade urbana e segurança pública, com consequente impacto no mercado imobiliário, tanto de novos lançamentos de empreendimentos, quanto na revenda de imóveis usados. Acredita-se que o preço de um imóvel dependa de uma relação entre suas características estruturais como quantidade de quartos, suítes, vagas de garagem, presença de varanda, tal como sua localização, proximidade com centros de trabalho, entretenimento e áreas valorizadas ou degradadas. Uma das técnicas para avaliar a contribuição dessas características para a formação do preço do imóvel, conhecido na Econométrica como Modelagem Hedônica de Preços, é uma aplicação de regressão linear multivariada onde a variável dependente é o preço e as variáveis independentes, as respectivas características que deseja-se modelar. A utilização da regressão linear implica em observar premissas que devem ser atendidas para a confiabilidade dos resultados a serem analisados, tais como independência e homoscedasticidade dos resíduos e não colinearidade entre as variáveis independentes. O presente trabalho objetiva aplicar a modelagem hedônica de preços para imóveis localizados na cidade do Rio de Janeiro em um modelo de regressão linear multivariada, em conjunto com outras fontes de dados para a construção de variáveis de acessibilidade e socioambiental a fim de verificar a relação de importância entre elas para a formação do preço e, em particular, exploramos brevemente a tendência de preços em função da distância a favelas. Em atenção aos pré-requisitos observados para a aplicação de regressão linear, verificamos que a premissa de independência dos preços não pode ser atestada devido a constatação da autocorrelação espacial entre os imóveis, onde não apenas as características estruturais e de acessibilidade são levadas em consideração para a precificação do bem, mas principalmente a influência mútua que os imóveis vizinhos exercem um ao outro.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho será apresentada a modelagem por regressão logística, com a finalidade de prever qual seria a inadimplência dos clientes que compõem o portfólio de uma grande instituição financeira do país. Sendo assim, será explorada a ideia de usar o conceito de provisionamento pura e simplesmente, através da estimação de uma probabilidade de default dado por um ou mais modelos estatísticos que serão construídos no decorrer do trabalho, conforme incentiva o comitê de Basileia. Um dos modelos será feito a partir de uma separação prévia de público através de clusters e a outra técnica a ser explorada será a criação de um modelo sem nenhuma separação. O objetivo será a comparação entre as duas métricas de classificação de risco e verificar os trade-off entre elas e os impactos de variáveis macroeconômicas nestes modelos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Modelos para detecção de fraude são utilizados para identificar se uma transação é legítima ou fraudulenta com base em informações cadastrais e transacionais. A técnica proposta no estudo apresentado, nesta dissertação, consiste na de Redes Bayesianas (RB); seus resultados foram comparados à técnica de Regressão Logística (RL), amplamente utilizada pelo mercado. As Redes Bayesianas avaliadas foram os classificadores bayesianos, com a estrutura Naive Bayes. As estruturas das redes bayesianas foram obtidas a partir de dados reais, fornecidos por uma instituição financeira. A base de dados foi separada em amostras de desenvolvimento e validação por cross validation com dez partições. Naive Bayes foram os classificadores escolhidos devido à simplicidade e a sua eficiência. O desempenho do modelo foi avaliado levando-se em conta a matriz de confusão e a área abaixo da curva ROC. As análises dos modelos revelaram desempenho, levemente, superior da regressão logística quando comparado aos classificadores bayesianos. A regressão logística foi escolhida como modelo mais adequado por ter apresentado melhor desempenho na previsão das operações fraudulentas, em relação à matriz de confusão. Baseada na área abaixo da curva ROC, a regressão logística demonstrou maior habilidade em discriminar as operações que estão sendo classificadas corretamente, daquelas que não estão.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A aprovação e posterior regulamentação da Lei 12.305, de 2 de agosto de 2010, que institui a Política Nacional de Resíduos Sólidos – PNRS estabeleceu necessidades de uma nova articulação entre os três entes federados – União, Estados e Municípios – o setor produtivo e a sociedade em geral na busca de soluções para os problemas atuais na gestão de resíduos sólidos. Baseada principalmente no conceito de responsabilidade compartilhada, toda a sociedade – cidadãos, setor produtivo, governos e sociedade civil organizada – passa a ser responsável pela gestão dos resíduos sólidos por ela produzidos. Falando especificamente do cidadão, um dos atuais desafios é saber como seu comportamento em relação à separação de resíduos recicláveis no âmbito do seu domicílio se relaciona com os objetivos e metas de reciclagem do município. Considerou-se uma amostra (N=310) de residentes em domicílios do Rio de Janeiro, e os dados coletados foram analisados segundo o modelo ABC de STERN. Os resultados empíricos mostraram que as variáveis associadas ao hábito, às normas sociais diretas e às atitudes afetivas têm peso significativo na predição do modelo do comportamento pró-reciclagem. Como contribuição prática, espera-se que o PMGIRS do Rio de Janeiro possa ser aprimorado, contribuindo para o aumento da participação do cidadão na separação de resíduos recicláveis em seu domicílio, auxiliando os gestores municipais nas decisões necessárias ao cumprimento de objetivos e metas relacionados com a reciclagem na cidade do Rio de Janeiro.