37 resultados para Modelo de risco proporcional de cox.
em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul
Resumo:
Os primeiros estudos sobre previsão de falência foram elaborados por volta da década de 30. Entretanto, o assunto só ganhou impulso a partir da utilização de técnicas estatísticas, ao longo dos anos 60. No Brasil, os primeiros trabalhos sobre o assunto datam dos anos 70. A esse respeito, vale destacar que a técnica estatística empregada em grande parte destes estudos foi a análise discriminante linear multivariada. Na tentativa de contribuir para o tema, este trabalho se propõs a testar um modelo de previsão de concordatas de empresas de capital aberto, a partir da modelagem desenvolvida por Cox (1972). Esse modelo se diferencia daqueles estimados a partir de técnicas logit, probit e análise discriminante na medida em que fornece não apenas a probabilidade de que um determinado evento ocorra no futuro, mas também uma estimativa do tempo até sua ocorrência. A análise dos resultados demonstrou que é possível identificar, antecipadamente, o risco de concordata de uma empresa de capital aberto. Nesse sentido, acredita -se que o modelo de Cox possa ser utilizado como auxiliar na previsão de concordatas de companhias abertas operando na Bolsa de Valores de São Paulo – Bovespa.
Resumo:
A mortalidade dos pacientes diabéticos, quando iniciam tratamento hemodialítico, ainda é muito elevada, significativamente maior do que a dos pacientes não diabéticos. As doenças cardíacas são a principal causa de morte nestes pacientes. O diabetes, por si só, está associado a uma alta prevalência de hipertensão, doença cardiovascular e insuficiência cardíaca, resultando em morbi-mortalidade significativas. Tradicionalmente, a mortalidade tem sido associada à cardiopatia isquêmica. A mortalidade cardiovascular, entretanto, não está relacionada apenas à isquemia, mas também à insuficiência cardíaca e à morte súbita. O objetivo deste estudo foi analisar o papel da doença cardiovascular como fator prognóstico para a morte de pacientes diabéticos e não diabéticos, que iniciam hemodiálise, levando em consideração outros fatores. Este foi um estudo prospectivo de uma coorte de 40 pacientes diabéticos e 28 não diabéticos, que iniciaram programa de hemodiálise, de agosto de 1996 a junho de 1999, em 5 hospitais de Porto Alegre, Brasil. O tempo total de acompanhamento foi de 4,25 anos. A avaliação inicial, realizada entre o 20 e o 30 mês de hemodiálise, incluiu: um questionário com características demográficas, história do diabetes e suas complicações, história de hipertensão e acidente vascular cerebral; o exame físico incluindo avaliação nutricional e exame oftalmológico; e avaliação laboratorial com medidas de parâmetros nutricionais, bioquímicos, hormonais, perfil lipídico, e controle metabólico do diabetes, além da avaliação da adequação da diálise. Para a avaliação cardiovascular foram utilizados: questionário Rose, ECG em repouso, cintilografia em repouso e sob dipiridamol, e ecocardiograma bi-dimensional e com Doppler. A mortalidade foi analisada ao final dos 51 meses, e as causas de morte, definidas pelos registros médicos, atestados de óbito ou informações do médico assistente ou familiar. Na análise estatística, foram empregados o teste t de Student, o qui-quadrado (χ2) ou teste exato de Fisher. Para a análise da sobrevida, o método de Kaplan-Meier foi utilizado, e, para identificar os principais fatores associados à mortalidade, construiu-se um modelo de regressão múltipla de Cox. O nÍvel de significância adotado foi de 5%. Ao final do estudo, os pacientes diabéticos tiveram um índice de mortalidade significativamente mais elevado do que os pacientes sem diabetes (47,5% vs. 7,1%; P=0,0013, log rank test). Na análise de Cox, o padrão pseudonormal ou restritivo de disfunção diastólica esteve associado a um risco de 3,2 (IC 95%:1,2-8,8; P=0,02), e a presença de diabetes, a um risco de 4,7 (IC 95%:1,03-21,4; P=0,04) para a morte. Concluiu-se que a disfunção diastólica do ventrículo esquerdo foi o principal preditor de mortalidade nesta coorte de pacientes que estão iniciando tratamento hemodialítico.
Resumo:
O objetivo desta tese foi o desenvolvimento de um modelo que permita descrever a percepção de conforto e a percepção de risco. A sua fundamentação teórica foi construída com base em diferentes abordagens (Ergonomia,Teorias do Desing, Teorias de Risco, Psicologia Cognitiva e Semiótica) e foi direcionada à compreensão de como as pessoas se relacionam com produtos, como se define conforto e como os riscos são percebidos. Um desafio inicial passou pela definição de conforto, que é um conceito difuso, não bem definido na literatura. Por outro lado,a percepção de risco é claramente definida por meio de diversos modelos, a despeito de diversos desses modelos não considerarem diferenças culturais e individuais. Entre diversas possibilidades,esta tese foi direcionada ao calçado de saltos altos e bicos finos, que é um controverso objeto que inspira paixão e medo. Com o objetivo de compreender a percepção de conforto e de risco relacionada ao uso de calçados feminimos, foram realizadas duas pesquisas: a primeira visando compreender o senso comum acerca do tema, e a segunda para compreender a percepção das usuárias. Os resultados indicaram que a percepção de conforto e a percepção de risco são influenciadas por características individuais, que foram identificadas como referências dominantes. Para indivíduos que tem a referência dominante orientada ao prazer,a aparência é importante e afeta a percepção de conforto, enquanto é negado o risco. Nos casos em que a dor é a referência dominante, a aparência é negligenciada, enquanto a percepção de risco apresenta-se altamente sensível e afeta a percepçãp de conforto. Com base nos resultados das pesquisas e em referências teóricas (JORDAN,1997; COELHO&DAHLMAN,2002; CABANAC,2002; DESMET,2003; NORMAN,2004), foi proposto um modelo para a percepção de conforto e risco Esse modelo inclui as dimensões do produto (aparência, usabilidade e funcinabilidade), as formas de estímulo( como objeto, agente ou evento), a referência dominante( prazer ou dor), os níveis do processo de avaliação (visceral, comportamental ou reflexivo) e as respostas afetivas (emoções prazerosas, sentimentos de indiferença e/ou emoções desprazerosas). Acredita-se que este modelo pode ser usado tanto com fins preditivos como explicativos. Contudo, é necessário ainda validá-lo, por meio de experimentos com outras categorias de produtos.
Resumo:
Esta dissertação procura promover uma análise da mudança de regimes na volatilidade condicional do risco Brasil, após a implementação do Real, com ênfase nas mudanças markovianas de regimes. De acordo com a literatura de risco país, na presença de equilíbrios múltiplos e profecias auto-realizáveis, a deterioração dos fundamentos percebidos de um país é condição necessária para a determinação de um equilíbrio macroeconômico ruim de uma pequena economia aberta e em desenvolvimento (PEAD), com reversão de capitais, alto serviço da dívida pública, perspectivas sombrias de crescimento e uma avaliação do crédito como ruim (Razin & Sadka, 2001). Ainda que tal condição seja necessária, ela não parece ser suficiente para explicar por que, em alguns momentos, apesar de um nível alto de risco país, o equilíbrio tido como ruim não se materializa. Neste sentido, através da adaptação de um jogo típico de modelos de crises cambiais de segunda geração, esta dissertação lança a hipótese de que uma das razões pelas quais uma PEAD sofra tais crises de liquidez seja a deterioração da média dos fundamentos percebidos ao lado do aumento do medo dos investidores de que haja interrupções no fluxo de capitais. A metodologia utilizada é a dos modelos GARCH nãolineares com componentes observáveis e não observáveis markovianos, aplicados à série diária do risco país do Brasil entre maio de 1994 a setembro de 2002. Os resultados empíricos sugerem que, de fato, durante os episódios de crise de liquidez do Brasil, o risco país sobe e a volatilidade muda para um regime mais alto. Em contrapartida, nos períodos com regimes baixos de volatilidade, independentemente do nível do risco país, nenhuma crise severa e repentina atinge o país. Além disso, ainda que não desprovida de limitações, a análise da volatilidade condicional do risco país pode servir como um instrumento prático de monitoramento da duração de crises de liquidez para uma PEAD altamente dependente do influxo de capitais externos como o Brasil.
Resumo:
Os fenômenos convulsivos despertaram o interesse de estudiosos e pensadores já na Antigüidade, quando aspectos mágicos e sobrenaturais eram a eles associados. No século XIX foram lançadas as bases dos conceitos atuais sobre a desestruturação funcional cerebral na epilepsia, e Berger, em 1929, marcou definitivamente a história com a descoberta dos ritmos cerebrais. Crise epiléptica e epilepsia não são sinônimos, já que o último termo refere-se a crises recorrentes espontâneas. Ela costuma iniciar na infância, daí a preocupação com o risco de repetição do primeiro episódio e com a decisão de instituir tratamento medicamentoso. Fatores prognósticos são apontados, mas não há consenso. No Brasil existem poucas pesquisas nesta linha, tanto de prevalência da epilepsia como de fatores envolvidos na recorrência de crises. Este estudo teve como objetivo geral avaliar aspectos clinicoeletrográficos capazes de auxiliar no prognóstico e no manejo da epilepsia da criança e do adolescente. Foram objetivos específicos determinar a incidência de crise epiléptica não provocada recorrente; identificar fatores remotos implicados na ocorrência de crise epiléptica; relacionar tipo de crise com achados eletrencefalográficos; relacionar tipo de crise, duração da crise, estado vigília/sono no momento da crise e achados eletrencefalográficos com possibilidade de recorrência; e identificar os fatores de risco para epilepsia. Foram acompanhados 109 pacientes com idades entre 1 mês e 16 anos, com primeira crise não-provocada, em média por 24 meses, a intervalos trimestrais, no Hospital de Clínicas de Porto Alegre (HCPA). Foram realizados eletrencefalogramas (EEG) após a primeira crise; depois, solicitados anualmente. Não foram incluídos casos com epilepsia ou síndrome epiléptica bem definida, ou que fizeram uso prévio de drogas antiepilépticas. A média de idade foi 6 anos, com predomínio da faixa etária de 6 a 12 anos. Setenta eram meninos e 39, meninas. Os indivíduos brancos eram 92, e os não-brancos, 17. O nível de escolaridade dos casos esteve de acordo com a distribuição da idade e, entre os responsáveis, predominaram 8 anos de escolaridade. Foi possível concluir que as crises únicas não-provocadas mais freqüentes foram generalizadas, e sem predomínio significativo do tipo de EEG. A incidência de crise não-provocada recorrente foi 51,4%. História de intercorrências pré-natais maternas aumentou em 2 vezes o risco de repetição de crises. Via de nascimento, escore de Apgar no 5º minuto, relação peso ao nascer/idade gestacional, intercorrências no período pós-natal imediato e desenvolvimento neuropsicomotor não tiveram influência na recorrência. História familiar de crises mostrou tendência à significância estatística para repetição dos episódios, com risco de 1,7. Não foi encontrada associação entre tipo de crise e achado eletrencefalográfico. A maioria das crises foi de curta duração (até 5 minutos), mas este dado não esteve relacionado com a recorrência. Estado de vigília teve efeito protetor na recorrência. Se a primeira crise foi parcial, o risco de repetição foi 1,62, com tendência à significância. Quando o primeiro EEG foi alterado, houve relação significativa com primeira crise tanto generalizada como parcial. O primeiro EEG com alterações paroxísticas focais apontou risco de repetição de 2,90. Quando as variáveis envolvidas na repetição de crises foram ajustadas pelo modelo de regressão de Cox, EEG alterado mostrou risco de 2,48, com riscos acumulados de 50%, 60%, 62% e 68%; com EEG normal, os riscos foram 26%, 32%, 34% e 36% em 6, 12, 18 e 24 meses respectivamente.
Resumo:
No próximo ano, completam-se 40 anos desde a primeira tentativa de transplante hepático (TxH) em seres humanos. Há quase 20 anos, o transplante (Tx) tornou-se uma opção terapêutica real para os pacientes portadores de doença hepática terminal. Atualmente, o TxH é o tratamento de escolha para diversas enfermidades hepáticas, agudas ou crônicas. Dos transplantes realizados na Europa ou nos EUA, em torno de 12% dos pacientes são crianças e adolescentes. No Brasil, 20,9% dos pacientes transplantados de fígado em 2001 tinham até 18 anos de idade e, destes, 60,7% tinham 5 anos ou menos. O objetivo do TxH é a manutenção da vida dos pacientes com doença hepática irreversível, e a principal forma de avaliação de sucesso é a sobrevida após o Tx. A primeira semana que se segue ao TxH, apesar dos excelentes progressos dos últimos anos, continua sendo o período mais crítico. A maioria dos óbitos ou das perdas do enxerto ocorrem nas primeiras semanas, em particular, nos primeiros 7 dias de TxH. Diversos fatores de risco para o resultado do TxH podem ser identificados na literatura, porém há poucos estudos específicos do Tx pediátrico. As crianças pequenas apresentam características particulares que os diferenciam do Tx nos adultos e nas crianças maiores. Com o objetivo de identificar fatores de risco para o óbito nos 7 primeiros dias após os transplantes hepáticos eletivos realizados em 45 crianças e adolescentes no Hospital de Clínicas de Porto Alegre entre março de 1995 e agosto de 2001, foi realizado um estudo de caso-controle. Entre os 6 casos (13,3%) e os 39 controles foram comparadas características relacionadas ao receptor, ao doador e ao procedimento cirúrgico e modelos prognósticos. Das variáveis relacionadas ao receptor, o gênero, o escore Z do peso e da estatura para a idade, a atresia de vias biliares, a cirurgia abdominal prévia, a cirurgia de Kasai, a história de ascite, de peritonite bacteriana espontânea, de hemorragia digestiva e de síndrome hepatopulmonar, a albuminemia, o INR, o tempo de tromboplastina parcial ativada e o fator V não foram associados com o óbito na primeira semana. A mortalidade inicial foi maior nas crianças com menor idade (p=0,0035), peso (p=0,0062) e estatura (p<0,0001), bilirrubinemia total (BT) (p=0,0083) e bilirrubinemia não conjugada (BNC) (p=0,0024) elevadas, e colesterolemia reduzida (p=0,0385). Os receptores menores de 3 anos tiveram um risco 25,5 vezes maior de óbito que as crianças maiores (IC 95%: 1,3–487,7). A chance de óbito após o Tx dos pacientes com BT superior a 20 mg/dL e BNC maior que 6 mg/dL foi 7,8 (IC95%: 1,2–50,1) e 12,7 (IC95%: 1,3–121,7) vezes maior que daqueles com níveis inferiores, respectivamente. Das características relacionadas ao doador e ao Tx, as variáveis gênero, doador de gênero e grupo sangüíneo ABO não idênticos ao do receptor, razão peso do doador/receptor, causa do óbito do doador, enxerto reduzido, tempo em lista de espera e experiência do Programa não foram associados com o óbito nos primeiros 7 dias. Transplantes com enxertos de doadores de idade até 3 anos, ou de peso até 12 Kg representaram risco para o óbito dos receptores 6,8 (IC95%: 1,1–43,5) e 19,3 (IC95%: 1,3–281,6) vezes maior, respectivamente. O tempo de isquemia total foi em média de 2 horas maior nos transplantes dos receptores não sobreviventes (p=0,0316). Os modelos prognósticos Child-Pugh, Rodeck e UNOS não foram preditivos do óbito. Os pacientes classificados como alto risco no modelo de Malatack apresentaram razão de chances para o óbito 18,0 (IC95%: 1,2–262,7) vezes maior que aqueles com baixo risco. A mortalidade na primeira semana foi associada a valores elevados do escore PELD. O risco de óbito foi de 11,3 (IC95%: 1,2–107,0) nas crianças com valor do PELD maior que 10. As crianças pequenas e com maior disfunção hepática apresentaram maior risco de óbito precoce. Doador de pequeno porte e prolongamento do tempo de isquemia também foram associados à mortalidade. Somente os modelos de Malatack e PELD foram preditivos da sobrevida.
Resumo:
Este estudo testou a existência do efeito clientela no cenário brasileiro, verificando se o preço das ações que pagaram dividendos durante os anos de 1996 a 1998 comportou-se conforme o modelo de Elton e Gruber (1970). Além disso, verificou a existência de alguma anormalidade no retomo das ações no primeiro dia ex-dividend. Em relação ao modelo de Elton e Gruber, dos 620 eventos analisados, em apenas quatro casos, o valor da ação no 10 dia após o pagamento do dividendo situou-se dentro do intervalo teórico esperado. Trinta por cento dos eventos apresentaram um resultado surpreendente, em que o preço da ação no primeiro dia ex-dividend foi maior do que na data em que a ação tinha direito de receber dividendos. Essas constatações contrariam as expectativas do modelo, e esse comportamento pode ser considerado irracional, já que se estaria pagando mais por uma ação sem direito a dividendos, do que quando esta tinha direito a recebê-lo. O cálculo dos retornos anormais evidenciou um retomo anormal médio positivo no primeiro dia exdividend de 5,2% para a amostra total e de 2,4% para a amostra sem outliers. Além disso, constataram-se retornos anormais significativos a 5% e 1% em outros dias da janela do evento, o que demonstra o comportamento anormal do mercado desses papéis nesse período. O retomo anormal cumulativo (CAR) apresentou um retomo residual de 5% no 50 dia ex-dividend para a amostra total e 2% após a exclusão dos outliers, o que significa que as empresas que distribuíram dividendos obtiveram um retomo anormal no preço de suas ações durante a janela do evento. Verificou-se, ainda, uma relação diretamente proporcional entre o yield da ação e os resultados anormais encontrados em ambas as hipóteses. Isso se deve à redução de incerteza e à minimização do risco do investidor. As empresas que optaram por pagar altos dividendos em valores absolutos e yields elevados para as suas ações apresentaram retornos anormais médios superiores aos demais. Enfim, os resultados encontrados não identificaram evidências de efeito clientela no mercado acionário brasileiro. Pode-se dizer que a formação de preços das ações que distribuem dividendos no Brasil está bem mais relacionada à minimização da incerteza do investidor do que influenciada pela interferência tributária nos mesmos.
Resumo:
Quantificação de incerteza e risco tem aplicação direta no projeto de limites de cava e na programação de produção. Pequenas variações nas condições de contorno de um projeto podem ter impacto significativo sobre o retorno final do mesmo na ordem de milhões de dólares. Preço de mercado do bem mineral, o custo de capital, taxas de atratividade, etc, são fatores usualmente testados para analisar a viabilidade de um empreendimento, porém, raramente é considerada a incerteza relacionada ao atributo geológico em questão. O propósito de um planejamento de lavra tem sido prover subsidio para o engenheiro de minas decidir sobre a capacidade de minerar determinadas unidades de lavra do depósito a partir de teores estimados. Salienta-se porém que existe, a partir dos dados amostrais, incertezas a respeito do modelo geológico que devem ser consideradas ao se projetar uma cava e desenvolver a lavra. A simulação geoestatistica tem a capacidade de produzir múltiplos modelos equiprováveis, os quais podem ser avaliados independentementecomo possíveis cenários do depósito mineral. Simulação condicional, ao contrário de técnicas de interpolação e estimativa, provê respostas para questões associadas a risco devido à variações nos teores do modelo geológico. Ao gerar múltiplos cenários tem-se acesso à probabilidade e conseqüentemente às variações de retorno financeiro e rotas de extração de minério de um projeto. o presente trabalho tem como objetivo a investigação de novas metodologias que contribuam para a construção de cenários de planejamento de lavra e avaliação do impacto provocado nestes pela incerteza fornecida a partir de modelos simulados. As respostas buscadas dentro da abordagem sugerida por esse trabalho, compreendem a definição de uma metodologia para controle e planejamento de lavra a médio e longo prazo por incorporação da flutuabilidade local associada ao minério, avaliando a sensibilidade do retorno financeiro e o traçado de lavra em relação ao método de geração do modelo geológico de teores. Para solucionar o problema em questão, sugere-se a geração de modelos estocásticos e a alimentação de múltiplos modelos selecionados por critérios considerados relevantes para a delimitação do espaço de incerteza. A aplicação de funções de transferência tais como mudança de suporte e seqüenciamento de produção sobre os modelos simulados é a chave para a obtenção de respostas a respeito do impacto sobre a lucratividade de um projeto. Ao alimentar à essas funções modelos equiprováveis que preservam as características estatísticas e a conectividade espacial dos dados amostrais mas que invariavelmente possuem diferentes distribuições de teores tem-se a dimensão em termos econômicos do risco associado à incerteza geológica. Foi confrontado o retorno financeiro produzido por modelos simulados e verificou-se para o caso especifico que os métodos de simulação geoestatistica empregados não produziram diferenças significativas quando comparados casos selecionados segundo os mesmos critérios. Porém, entre cenários extremos gerados pelo mesmo algoritmo de simulação foram verificadas desigualdades relevantes. Verificou-se também a transferência de minério entre diferentes classes de qualidade ao proceder-se com variações nas dimensões dos blocos de lavra.
Resumo:
O presente trabalho objetivou a realização de um estudo de caso sobre o tema risco de crédito. Avaliou-se o risco de crédito sob dois vetores: o risco esperado e o risco não esperado. Procede-se então a uma revisão dos principais modelos de gestão da carteira de crédito destacando-se suas características, aplicações e limitações. O modelo da autarquia é comparado aos modelos utilizados pelo mercado, os quais são apresentados em grau crescente de complexidade. O modelo de mercado utilizado neste trabalho foi constituído a partir do credit scoring, uma ferramenta estatística de pontuação de créditos derivada da aplicação da técnica estatística denominada Análise Discriminante. Este modelo resultou na boa discriminação dos clientes com necessidades emergenciais de empréstimos (bons clientes) dos clientes com situação financeira precária (maus clientes) possibilitando uma boa prevenção da probabilidade de inadimplência. A partir das classes de risco constituídas foi possível a aplicação da análise de portfolio para o cálculo da perda potencial na carteira. Assim, por meio de um estudo de caso, realizado em uma instituição financeira brasileira foram comparadas as medidas de capital e de risco de crédito estabelecidos pelo Banco Central do Brasil, através das resoluções 2.099/94 e 2.682/99, com as medidas calculadas a partir de um modelo de credit scoring. Essa comparação resultou na avaliação da eficácia da norma quanto à mensuração do risco em carteiras de crédito. Os resultados apontam o conservadorismo da autarquia no cálculo desses saldos, penalizando a instituição financeira analisada ao exigir a constituição de provisão e patrimônio líquido mínimo acima do que seria necessário. O risco calculado a partir do modelo de credit scoring para uma carteira de crédito direto ao consumidor foi cerca de 20% inferior aos montantes calculados pelo Banco Central do Brasil.
Resumo:
Em todas as organizações, o tratamento dos dados e das informações tem representado grande parte das preocupações dos administradores. A introdução de sistemas de informações e de tecnologia da informação, no seu mais amplo sentido, nas empresas de todas as especialidades, independentemente de seu porte, propicia agilidade, rapidez e precisão aos negócios. Contudo as empresas do subsetor de edificações da indústria da construção civil têm se caracterizado pelo uso de recursos computacionais num nível inferior ao observado em outros ramos industriais. Esta resistência à introdução de novas tecnologias é inversamente proporcional à quantidade de dados e informações processados e compartilhados pelos profissionais do setor. Em particular, deve-se salientar que, no processo de desenvolvimento do projeto executivo de uma obra de edificação, um número enorme de dados e informações recebe algum tipo de tratamento. Verificando-se que o processo de desenvolvimento dos documentos complementares à parte gráfica dos projetos, principalmente nas pequenas e i micro-empresas, tem se apresentado de forma inadequada à importância do setor e dos próprios documentos, este trabalho desenvolveu um sistema de informações baseado num modelo que integra a elaboração desses vários documentos. O sistema, denominado SINDOC, auxilia os usuários nos processos decisórios, fazendo com que soluções adequadas, completas e coerentes venham a ser obtidas. Para oferecer subsídios ao desenvolvimento do sistema, empresas do setor foram analisadas, assim como o perfil dos seus profissionais. Estes estudos garantiram que o sistema resultante fosse adequado para o setor. Isto foi comprovado mediante experimento em laboratório utilizado para avaliar e validar o sistema. O trabalho pretende contribuir para incentivar mudanças nas empresas do subsetor de edificações quanto ao tratamento de dados e informações, apresentando sistema adequado às suas necessidades e às características de seus usuários.
Resumo:
Este trabalho apresenta uma análise das melhorias introduzidas no Processo de Desenvolvimento de Produtos (PDP) de uma empresa de calçados denominada Calçados Reifer Ltda. Estas melhorias foram aplicadas especificamente ao setor de Modelagem, que é o principal responsável por este desenvolvimento, objetivando sua otimização e a diminuição no parâmetro tempo de entrega do novo produto ao mercado. O processo de desenvolvimento dos novos modelos na indústria de calçados é estratégico, devido aos requisitos dos clientes relativos a este parâmetro serem progressivamente menores -especialmente para as companhias que produzem para exportação. Qualquer demora relativa à definição ou ao cumprimento das especificações de produto podem pôr em risco a competitividade da empresa. Assim, foi analisada a estrutura do PDP atual baseada nas referências teóricas, como as providas pelas ciências administrativas, e pela gestão do desenvolvimento de produtos e processos. A proposta de um processo aperfeiçoado e mais rápido, baseado em uma abordagem específica de gestão de recursos, introduzindo melhorias significativas na gestão do processo e na qualidade do produto final obtido, a par da agilização do processo, possibilitou a obtenção de melhorias no PDP.
Resumo:
Sempre houve, na humanidade, incertezas quanto ao futuro. Por parte dos investidores, incertezas e riscos nos investimentos. Outros acreditam que os mercados financeiros operam de forma eficiente e, portanto, para reduzirem o risco e minimizarem as perdas tentam fazer regressão à média, ou seja, tomam decisões pensando que os fatos voltarão ao “normal”. Neste sentido, o presente trabalho procura discutir uma nova metodologia, proposta por Haugen (2000), e denominada de Modelo de Fator de Retorno Esperado, utilizando-se de variáveis fundamentalistas. Contudo, no dia-a-dia, os erros cometidos, a ambigüidade dos fatos e, principalmente, o poder das emoções humanas - “efeito manada”, podem rapidamente destruir um modelo. Os mercados são bem menos eficientes na prática do que quando se estudam ou se tenta aplicar as teorias. Por isso, os modelo aqui estudados, o Modelo de Fator do Retorno Esperado e, secundariamente, o Modelo de Precificação de Ativos(CAPM) e a Teoria de Preços por Arbitragem(APT), diferem muito entre si. Este trabalho teve como objetivo principal avaliar o desempenho do Modelo de Fator de Retorno Esperado. Assim, o trabalho mostrou que o Modelo de Fator de Retorno Esperado, ao ser utilizado na composição de carteiras de investimento, é eficiente. Carteiras montadas de acordo com este modelo superaram o desempenho do Índice principal do mercado acionário brasileiro. Pôde-se constatar que outras variáveis, além do beta, aqui denominadas de fundamentalistas, podem explicar a rentabilidade esperada de um ativo. São elas: Valor de Mercado (VM), Indicador de Preço/Lucro (PL), o índice Preço de Mercado/Valor Patrimonial (PV), o Retorno sobre o Patrimônio líquido (ROE), a Liquidez em Bolsa(Liq) e o Beta do Mercado (BETA).
Resumo:
O mercado financeiro nacional vem experimentando mudanças significativas a partir da implantação do novo padrão monetário em 1994. Como conseqüência, os ganhos do sistema bancário, decorrentes do floating foram reduzidos, obrigando os bancos a expandirem suas carteiras de empréstimos que demandam esforços em medir e administrar o risco de crédito. Valendo-se de indicadores econômicofinanceiros e variáveis, o presente estudo visa avaliar a eficácia desses indicadores e variáveis utilizados por uma instituição financeira nacional no processo de concessão de crédito a empresas do setor industrial da região sul do Brasil. A metodologia do estudo propõe inicialmente uma análise estatística dos dados através da Análise da Regressão Logística, procedimentos – enter e stepwise. Concluído o teste de um modelo de previsão de insolvência empresarial, verifica-se quais são os indicadores e variáveis mais significativos e que proporcionam informações valiosas sobre a saúde financeira das empresas, revelando uma possível tendência ao desequilíbrio e a probabilidade à insolvência, levando-se em conta também como informação no gerenciamento do risco de crédito. O estudo mostrou que as variáveis que relacionam a liquidez seca e o saldo de tesouraria / necessidade de capital de giro apresentaram-se como os mais significativos dos sintomas de insolvência.