999 resultados para Modelo Geral Linearizado
Resumo:
A competitividade do mercado tem levado empresas, pressionadas por concorrentes e com recursos limitados, a tomarem ações imediatas para garantir sua sobrevivência. Os escassos recursos materiais e humanos disponíveis necessitam ser investidos na operacionalização de estratégias bem planejadas que possam garantir a competitividade no curto, médio e longo prazos. Um erro no posicionamento estratégico pode comprometer de forma bastante significativa uma organização. Este trabalho apresenta o estudo de caso efetuado em uma empresa de componentes eletrônicos sobre a proposta de utilização do Planejamento Estratégico na preparação de um modelo geral de mudança de estrutura para Implantação de um Sistema da Qualidade baseado na Norma ISO Série 9000. Este estudo serve como alerta aos administradores quanto aos riscos e perdas a que podem estar se expondo quando alocam tempo, capital e pessoas, para somente obter o certificado ISO, sem enfatizar o aprendizado decorrente desta certificação. A implantação de um sistema da qualidade passa a ser visto como uma ferramenta e não só com um conjunto de normas que permitem obter um certificado. O estudo possibilitou a constatação, na prática, das várias fases que conduzem uma empresa a introduzir em suas atividades o Sistema da Qualidade.
Resumo:
O que faz com que, nos modelos de negociação com informações assimétricas no mercado de capitais, haja compra e venda de ativos? Seria o fato de as informações não serem as mesmas para todos os agentes que atuam na bolsa de valores o motivo da especulação? Faz sentido falar em compra e venda de ativos, quando os diversos agentes que compõem o mercado agem de forma racional e sabem que todos os demais agem assim? A grande motivação para a formulação deste trabalho foi a de que todos os artigos desenvolvidos até os dias de hoje - sobre equilíbrio com negociação em mercados de capitais - consideram de alguma maneira a presença de comportamento irracional de algum agente ou do mercado como um todo. Ver, por exemplo, os modelos apresentados em Kyle (1985) e Glosten e Milgrom (1985), onde a irracional idade existe no comportamento dos investidores denominados aleat6rios. Tais aplicadores demandam ativos de maneira aleat6ria, ou seja, não possuem uma estratégia que determine os seus desejos de compra E venda de ações. O que nos causou muita estranheza foi o fato de serem modelos de expectativas racionais, isto é, existe urna hip6tese de racionalidade entre OS indivíduos que negociam no setor financeiro. Portanto, a presença dos investidores aleat6rios torna esses trabalhos inconsistentes. O objetivo deste capítulo: retirar esses investidores aleatórios do mercado e, com isso, descobrir se sem a presença deles existir um ponto de alocação Pareto superior com a negociação.
Resumo:
Fundamentação, desenvolvimento e proposição metódica de um modelo geral para a estimativa do valor econômico das empresas e de seus respectivos títulos de financiamento, quer ações, debêntures ou quaisquer outros. O modelo se fundamenta nas teorias acadêmicas mais modernas e na capacidade econômica das empresas em gerar fundos de caixa no decorrer do tempo, o que o torna de aplicação universal, quer em contextos econômicos estáveis, como inflacionários demonstrada a praticabilidade do modelo através da avaliação econômica de uma empresa brasileira com base , exclusivamente em dados e informações. disponíveis publicamente
Resumo:
O modelo evidencia que as atividades de qualquer tipo de empresa, inclusive a de serviços, podem ser organizadas em quatro grupos (produção, atendimento, apoio e planejamento) e que essa organização é aplicável à empresa como um todo, a qualquer órgão (departamento, seção) e a qualquer célula de trabalho, inclusive a constituída por apenas um funcionário. O modelo, por mergulhar, como nenhum outro, nas profundezas da empresa, complementa outros modelos (Tavistock, Katz & Kahn, Kast & Rosenzweig). A comparação com o modelo da Cadeia de Valores de Porter e as vantagens apontadas no texto permitem concluir que o modelo é bastante adequado para a proposição de mudanças na empresa que melhorem sua posição competitiva.
Resumo:
Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)
Resumo:
Baseado nos conceitos da geometria fractal e nas leis de Laplace e de Poiseuille, foi criado um modelo geral para estimar a condutividade hidráulica de solos não saturados, utilizando a curva de retenção da água no solo, conforme representada por um modelo em potência. Considerando o fato de que este novo modelo da condutividade hidráulica introduz um parâmetro de interpolação ainda desconhecido, e que, por sua vez, depende das propriedades dos solos, a validação do modelo foi realizada, utilizando dois valores-limite fisicamente representativos. Para a aplicação do modelo, os parâmetros de forma da curva de retenção da água no solo foram escolhidos de maneira a se obter o modelo de van Genuchten. Com a finalidade de obter fórmulas algébricas da condutividade hidráulica, foram impostas relações entre seus parâmetros de forma. A comparação dos resultados obtidos com o modelo da condutividade e a curva experimental da condutividade dos dois solos, Latossolo Vermelho-Amarelo e Argissolo Amarelo, permitiu concluir que o modelo proposto é simples em sua utilização e é capaz de predizer satisfatoriamente a condutividade hidráulica dos solos não saturados.
Resumo:
Dentre as principais áreas que constituem a Ciência da Computação, uma das que mais influenciam o mundo atual é a Engenharia de Software, envolvida nos aspectos tecnológicos e gerenciais do processo de desenvolvimento de software. Software tornou-se a base de sustentação de inúmeras organizações dos mais diversos ramos de atuação espalhados pelo planeta, consistindo de um elemento estratégico na diferenciação de produtos e serviços atuais. Atualmente, o software está embutido em sistemas relacionados a infindável lista de diferentes ciências e tecnologias. A Tecnologia de Processo de Software surgiu em meados da década de 1980 e representou um importante passo em direção à melhoria da qualidade de software através de mecanismos que proporcionam o gerenciamento automatizado do desenvolvimento de software. Diversas teorias, conceitos, formalismos, metodologias e ferramentas surgiram nesse contexto, enfatizando a descrição formal do modelo de processo de software, para que possa ser automatizado por um ambiente integrado de desenvolvimento de software. Os modelos de processos de software descrevem o conhecimento de uma organização e, portanto, modelos que descrevem experiências bem sucedidas devem ser continuamente disseminados para reutilização em diferentes projetos. Apesar da importância desse tópico, atualmente apenas uma pequena porção do conhecimento produzido durante o desenvolvimento de software é mantido para ser reutilizado em novos projetos. Embora, à primeira vista, o desafio de descrever modelos reutilizáveis para processos de software pareça ser equivalente ao problema tratado pela tradicional área de reutilização de produtos software, isso é apenas parcialmente verdade, visto que os processos envolvem elementos relacionados com aspectos sociais, organizacionais, tecnológicos e ambientais. A crescente complexidade da atual modelagem de processos vem influenciando a investigação de tecnologias de reutilização que sejam viáveis nesse campo específico. A investigação conduzida nesse trabalho culminou na especificação de um meta-modelo que tem como objetivo principal aumentar o nível de automação fornecido na reutilização de processos, apoiando a modelagem de processos abstratos que possam ser reutilizados em diferentes contextos. O meta-modelo proposto por esse trabalho - denominado APSEE-Reuse - fornece uma série de construtores sintáticos que permitem que os diferentes aspectos desse contexto sejam descritos segundo múltiplas perspectivas, complementares entre si, contribuindo para diminuir a complexidade do modelo geral. A solução proposta destaca-se por fornecer um formalismo para modelagem de processos, o qual é integrado à uma infraestrutura de automação de processos de software, permitindo que a reutilização esteja intimamente relacionada com as outras etapas do ciclo de vida de processos. Os diferentes componentes envolvidos na definição do modelo APSEE-Reuse proposto foram especificados algebricamente, constituindo uma base semântica de alto 15 nível de abstração que deu origem a um conjunto de protótipos implementados no ambiente PROSOFT-Java. O texto ainda discute os experimentos realizados com o meta-modelo proposto na especificação de diferentes estudos de casos desenvolvidos a partir de exemplos retirados na literatura especializada, e de processos que fornecem soluções em contextos e necessidades específicas de projetos desenvolvidos no PPGC-UFRGS. Finalmente, são apresentadas considerações acerca dos trabalhos relacionados, os elementos críticos que influenciam a aplicabilidade do modelo e as atividades adicionais vislumbradas a partir do trabalho proposto.
Resumo:
O ICTM (Interval Categorizer Tesselation Model), objeto da presente tese, é um modelo geral para análise de espaços de natureza geométrica, baseado em tesselaçoes, que é capaz de produzir uma categorização confiável de conjunto de pontos de um dado espaço, de acordo com múltiplas características dos pontos, cada característica correspondendo a uma camada do modelo. Por exemplo, na análise de terrenos geográficos, uma região geográfica pode ser analisada de acordo com a sua topografia, vegetaçao, demografia, dados econômicos etc, cada uma gerando uma subdivisão diferente da região. O modelo geral baseado em tesselações não está restrito, porém, a análise de espaços bi-dimensionais. O conjunto dos pontos analisados pode pertencer a um espaço multidimensional, determinando a característica multi-dimensional de cada camada. Um procedimento de projeção das categorizações obtidas em cada camada sobre uma camada básica leva a uma categorização confiavel mais significante, que combina em uma só classificação as análises obtidas para cada característica. Isto permite muitas análises interessantes no que tange a dependência mútua das características. A dimensão da tesselação pode ser arbitrária ou escolhida de acordo com algum critério específico estabelecido pela aplicação. Neste caso, a categorização obtida pode ser refinada, ou pela re-definição da dimensão da tesselação ou tomando cada sub-região resultante para ser analisada separadamente A formalização nos registradores pode ser facilmente recuperada apenas pela indexação dos elementos das matrizes, em qualquer momento da execução. A implementação do modelo é naturalmente paralela, uma vez que a análise é feita basicamente por regras locais. Como os dados de entrada numéricos são usualmente suscetíveis a erros, o modelo utiliza a aritmética intervalar para se ter um controle automático de erros. O modelo ICTM também suporta a extração de fatos sobre as regiões de modo qualitativo, por sentenças lógicas, ou quantitativamente, pela análise de probabilidade. Este trabalho recebe apoio nanceiro do CNPq/CTPETRO e FAPERGS.
Resumo:
The General Ocean Turbulence Model (GOTM) is applied to the diagnostic turbulence field of the mixing layer (ML) over the equatorial region of the Atlantic Ocean. Two situations were investigated: rainy and dry seasons, defined, respectively, by the presence of the intertropical convergence zone and by its northward displacement. Simulations were carried out using data from a PIRATA buoy located on the equator at 23º W to compute surface turbulent fluxes and from the NASA/GEWEX Surface Radiation Budget Project to close the surface radiation balance. A data assimilation scheme was used as a surrogate for the physical effects not present in the one-dimensional model. In the rainy season, results show that the ML is shallower due to the weaker surface stress and stronger stable stratification; the maximum ML depth reached during this season is around 15 m, with an averaged diurnal variation of 7 m depth. In the dry season, the stronger surface stress and the enhanced surface heat balance components enable higher mechanical production of turbulent kinetic energy and, at night, the buoyancy acts also enhancing turbulence in the first meters of depth, characterizing a deeper ML, reaching around 60 m and presenting an average diurnal variation of 30 m.
Resumo:
Este artigo buscar?? tra??ar um panorama da evolu????o do perfil da for??a de trabalho e dos sal??rios praticados no setor p??blico ao longo da d??cada de 1990, buscando compar??-la com o comportamento observado no setor privado, e sugerir medidas para a melhoria do sistema salarial. Na primeira se????o, ser?? apresentada uma compara????o entre os perfis da for??a de trabalho nos dois setores, enquanto na segunda ser?? analisada a evolu????o das remunera????es e desenvolvido um modelo geral de determina????o dos sal??rios, que possibilitar?? a an??lise dos diferenciais de remunera????o entre os trabalhadores com caracter??sticas pessoais semelhantes nos dois setores. A terceira se????o se ocupar?? da discuss??o em torno das distor????es que ainda persistem no sistema salarial no setor p??blico federal, apesar do processo de aprimoramento pelo qual passou nos ??ltimos anos, e apresentar?? algumas sugest??es para suprimi-las.
Resumo:
Este ensaio discute como as organizações, por intermédio do gerenciamento de impressões (GI), buscam criar imagens que lhes proporcionam legitimação no ambiente social. Um modelo geral do processo de legitimação utilizando o GI organizacional é apresentado e discutido. Com base na construção teórica realizada, argumenta-se que as organizações empreendem estratégias e táticas de GI no sentido de controlar as impressões de públicos-chave e obter seu endosso e suporte. Propõe-se, então, que essas estratégias e táticas sejam operacionalizadas por meio de ações de comunicação corporativa. Esse processo pode ser caracterizado não apenas pela aquisição, mas também pela manutenção de uma imagem organizacional legitimada. Defende-se que a teoria de GI, associada aos aportes oriundos do campo da comunicação corporativa, pode auxiliar e enriquecer o entendimento do processo pelo qual as organizações obtêm a legitimidade em seus espaços sociais.
Resumo:
Dada a relevância das operadoras de planos de saúde na prestação de serviços de saúde e sua grande importância para clientes individuais e empresariais, assim como para profissionais e empresas prestadoras de serviços de saúde, é importante antecipar a capacidade financeira das operadoras que efetivamente cumprir suas obrigações contratuais (prover serviços a clientes, pagar prestadores). Para isso, desenvolvemos um modelo de previsão de insolvência específico para operadoras de planos de saúde. Por meio de uma regressão logística sobre 17 indicadores financeiros de cerca de 600 operadoras brasileiras de planos de saúde, desenvolvemos um modelo capaz de prever a insolvência de uma operadora após um ano, e analisamos a precisão desse modelo específico em comparação com a de um modelo geral bastante popular, o escore Z" de Altman.
Resumo:
OBJETIVO: Analisar os determinantes da mortalidade neonatal, segundo modelo de regressão logística multinível e modelo hierárquico clássico. MÉTODOS: Estudo de coorte com 138.407 nascidos vivos com declaração de nascimento e 1.134 óbitos neonatais registrados em 2003 no estado do Rio Grande do Sul. Foram vinculados os registros do Sistema de Informações sobre Nascidos Vivos e Mortalidade para o levantamento das informações sobre exposição no nível individual. As variáveis independentes incluíram características da criança ao nascer, da gestação, da assistência à saúde e fatores sociodemográficos. Fatores associados foram estimados e comparados por meio da análise de regressão logística clássica e multinível. RESULTADOS: O coeficiente de mortalidade neonatal foi 8,19 por mil nascidos vivos. As variáveis que se mostraram associadas ao óbito neonatal no modelo hierárquico foram: baixo peso ao nascer, Apgar no 1º e 5º minutos inferiores a oito, presença de anomalia congênita, prematuridade e perda fetal anterior. Cesariana apresentou efeito protetor. No modelo multinível, a perda fetal anterior não se manteve significativa, mas a inclusão da variável contextual (taxa de pobreza) indicou que 15% da variação da mortalidade neonatal podem ser explicados pela variabilidade nas taxas de pobreza em cada microrregião. CONCLUSÕES: O uso de modelos multiníveis foi capaz de mostrar pequeno efeito dos determinantes contextuais na mortalidade neonatal. Foi observada associação positiva com a taxa de pobreza, no modelo geral, e com o percentual de domicílios com abastecimento de água entre os nascidos pré-termos.
Resumo:
Não existe uma definição única de processo de memória de longo prazo. Esse processo é geralmente definido como uma série que possui um correlograma decaindo lentamente ou um espectro infinito de frequência zero. Também se refere que uma série com tal propriedade é caracterizada pela dependência a longo prazo e por não periódicos ciclos longos, ou que essa característica descreve a estrutura de correlação de uma série de longos desfasamentos ou que é convencionalmente expressa em termos do declínio da lei-potência da função auto-covariância. O interesse crescente da investigação internacional no aprofundamento do tema é justificado pela procura de um melhor entendimento da natureza dinâmica das séries temporais dos preços dos ativos financeiros. Em primeiro lugar, a falta de consistência entre os resultados reclama novos estudos e a utilização de várias metodologias complementares. Em segundo lugar, a confirmação de processos de memória longa tem implicações relevantes ao nível da (1) modelação teórica e econométrica (i.e., dos modelos martingale de preços e das regras técnicas de negociação), (2) dos testes estatísticos aos modelos de equilíbrio e avaliação, (3) das decisões ótimas de consumo / poupança e de portefólio e (4) da medição de eficiência e racionalidade. Em terceiro lugar, ainda permanecem questões científicas empíricas sobre a identificação do modelo geral teórico de mercado mais adequado para modelar a difusão das séries. Em quarto lugar, aos reguladores e gestores de risco importa saber se existem mercados persistentes e, por isso, ineficientes, que, portanto, possam produzir retornos anormais. O objetivo do trabalho de investigação da dissertação é duplo. Por um lado, pretende proporcionar conhecimento adicional para o debate da memória de longo prazo, debruçando-se sobre o comportamento das séries diárias de retornos dos principais índices acionistas da EURONEXT. Por outro lado, pretende contribuir para o aperfeiçoamento do capital asset pricing model CAPM, considerando uma medida de risco alternativa capaz de ultrapassar os constrangimentos da hipótese de mercado eficiente EMH na presença de séries financeiras com processos sem incrementos independentes e identicamente distribuídos (i.i.d.). O estudo empírico indica a possibilidade de utilização alternativa das obrigações do tesouro (OT’s) com maturidade de longo prazo no cálculo dos retornos do mercado, dado que o seu comportamento nos mercados de dívida soberana reflete a confiança dos investidores nas condições financeiras dos Estados e mede a forma como avaliam as respetiva economias com base no desempenho da generalidade dos seus ativos. Embora o modelo de difusão de preços definido pelo movimento Browniano geométrico gBm alegue proporcionar um bom ajustamento das séries temporais financeiras, os seus pressupostos de normalidade, estacionariedade e independência das inovações residuais são adulterados pelos dados empíricos analisados. Por isso, na procura de evidências sobre a propriedade de memória longa nos mercados recorre-se à rescaled-range analysis R/S e à detrended fluctuation analysis DFA, sob abordagem do movimento Browniano fracionário fBm, para estimar o expoente Hurst H em relação às séries de dados completas e para calcular o expoente Hurst “local” H t em janelas móveis. Complementarmente, são realizados testes estatísticos de hipóteses através do rescaled-range tests R/S , do modified rescaled-range test M - R/S e do fractional differencing test GPH. Em termos de uma conclusão única a partir de todos os métodos sobre a natureza da dependência para o mercado acionista em geral, os resultados empíricos são inconclusivos. Isso quer dizer que o grau de memória de longo prazo e, assim, qualquer classificação, depende de cada mercado particular. No entanto, os resultados gerais maioritariamente positivos suportam a presença de memória longa, sob a forma de persistência, nos retornos acionistas da Bélgica, Holanda e Portugal. Isto sugere que estes mercados estão mais sujeitos a maior previsibilidade (“efeito José”), mas também a tendências que podem ser inesperadamente interrompidas por descontinuidades (“efeito Noé”), e, por isso, tendem a ser mais arriscados para negociar. Apesar da evidência de dinâmica fractal ter suporte estatístico fraco, em sintonia com a maior parte dos estudos internacionais, refuta a hipótese de passeio aleatório com incrementos i.i.d., que é a base da EMH na sua forma fraca. Atendendo a isso, propõem-se contributos para aperfeiçoamento do CAPM, através da proposta de uma nova fractal capital market line FCML e de uma nova fractal security market line FSML. A nova proposta sugere que o elemento de risco (para o mercado e para um ativo) seja dado pelo expoente H de Hurst para desfasamentos de longo prazo dos retornos acionistas. O expoente H mede o grau de memória de longo prazo nos índices acionistas, quer quando as séries de retornos seguem um processo i.i.d. não correlacionado, descrito pelo gBm(em que H = 0,5 , confirmando- se a EMH e adequando-se o CAPM), quer quando seguem um processo com dependência estatística, descrito pelo fBm(em que H é diferente de 0,5, rejeitando-se a EMH e desadequando-se o CAPM). A vantagem da FCML e da FSML é que a medida de memória de longo prazo, definida por H, é a referência adequada para traduzir o risco em modelos que possam ser aplicados a séries de dados que sigam processos i.i.d. e processos com dependência não linear. Então, estas formulações contemplam a EMH como um caso particular possível.
Resumo:
Tese de Doutoramento em Engenharia Industrial e de Sistemas.