1000 resultados para Dualidade (Matematica)


Relevância:

10.00% 10.00%

Publicador:

Resumo:

A partir de uma base de dados de ações da Telemar S.A., do período de 21/09/1998 a 21/10/2002, e de opções de 02/10/2000 a 21/10/2002, foi avaliado qual o previsor que prevê com maior precisão a volatilidade futura: o implícito ou o estatístico. A volatilidade implícita foi obtida por indução retroativa da fórmula de Black-Scholes. As previsões estatísticas da volatilidade foram obtidas pelos modelos de média móvel ponderada igualmente, modelo GARCH, EGARCH e FIGARCH. Os resultados das regressões do conteúdo de informação revelam que a volatilidade implícita ponderada possui substancial quantidade de informações sobre a volatilidade um passo à frente, pois apresenta o maior R2 ajustado de todas as regressões. Mesmo sendo eficiente, os testes indicam que ela é viesada. Porém, a estatística Wald revela que os modelos EGARCH e FIGARCH são previsores eficientes e não viesados da variação absoluta dos retornos da Telemar S.A. entre t e t + 1, apesar do R2 um pouco inferior a volatilidade implícita. Esse resultado a partir de parâmetros baseados em dados ex-post, de certo modo refuta a hipótese de que as opções possibilitam melhores informações aos participantes do mercado sobre as expectativas de risco ao longo do próximo dia Nas regressões do poder de previsão, que testam a habilidade da variável explicativa em prever a volatilidade ao longo do tempo de maturidade da opção, os resultados rejeitam a hipótese da volatilidade implícita ser um melhor previsor da volatilidade futura. Elas mostram que os coeficientes das volatilidades implícitas e incondicionais são estatisticamente insignificantes, além do R2 ajustado ser zero ou negativo. Isto, a princípio, conduz à rejeição da hipótese de que o mercado de opções é eficiente. Por outro lado, os resultados apresentados pelos modelos de volatilidade condicional revelam que o modelo EGARCH é capaz de explicar 60% da volatilidade futura. No teste de previsor eficiente e não viesado, a estatística Wald não rejeita esta hipótese para o modelo FIGARCH. Ou seja, um modelo que toma os dados ex-post consegue prever a volatilidade futura com maior precisão do que um modelo de natureza forward looking, como é o caso da volatilidade implícita. Desse modo, é melhor seguir a volatilidade estatística - expressa pelo modelo FIGARCH, para prever com maior precisão o comportamento futuro do mercado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nesta tese mostramos que uma função de custo contínua e uma tecnologia uniproduto, convexa, monôtona não-crescente e regular implicam que a função de custo mínimo é semicontínua superior em relação ao produto e que a demanda por insumos é fechada. Se a imagem da tecnologia for compacta então a função de custo mínimo é contínua e a demanda por insumos é hemicontínua superior e valor-compacto em relação ao produto. Se a tecnologia possuir a propriedade de ser localmente não-disjunta então a função de custo mínimo é contínua e a demanda por insumos é hemicontínua superior e valorcompacto em relação ao produto. Se a função de custo for monôtona não-decrescente, semicontínua inferior em relação aos contornos inferiores e a tecnologia for uniproduto, convexa, monótona não-crescente, regular, fechada com imagem compacta então a função de custo mínimo é semicontínua inferior em relação ao produto e a demanda ampliada por insumos é hemicontínua superior e valor-compacto em relação ao produto. Se a tecnologia possuir a propriedade de ser localmente não-disjunta então o mesmo resultado é válido. Introduzimos as noções de função monótona não-decrescente e semicontínua inferior em relação aos contornos num espaço topológico ordenado, de correspondência localmente não-disjunta e de demanda ampliada. Mostramos que funções com a propriedade anterior são semicontínuas inferiores e que correspondências convexas localmente não-disjuntas são hemicontínuas inferiores.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Teoria das Categorias é uma ramificação da Matemática Pura relativamente recente, tendo sua base sido enunciada ao final da primeira metade do século XX. Embora seja Teoria de grande expressividade, sua aplicação efetiva tem encontrado até o momento grandes obstáculos, todos decorrência natural da brevidade de sua História. A baixa oferta de bibliografia (e predominantemente em língua inglesa) e a falta de uniformidade na exposição do que sejam os tópicos introdutórios convergem e potencializam outro grande empecilho à sua propagação - a baixa oferta de cursos com enfoque em Teoria das Categorias. Consegue, a despeito destes obstáculos, arrebanhar admiradores em inúmeros centros de reconhecida excelência técnica e científica. Dentre todas as áreas do conhecimento, atrai em especial a atenção da Ciência da Computação, por características como independência de implementação, dualidade, herança de resultados, possibilidade de comparação da expressividade de outros formalismos, forte embasamento em notação gráfica e, sobretudo, pela expressividade de suas construções [MEN2001]. No Brasil, já conta com o reconhecimento de seu papel no futuro da Ciência da Computação por parte de instituições como SBC e MEC. Os obstáculos aqui descritos, entretanto, ainda necessitam ser transpostos. O presente trabalho foi desenvolvido visando contribuir nesta tarefa. O projeto consiste em uma iniciativa aplicada em Ciência da Computação, a qual visa oportunizar o franco acesso aos conceitos categoriais introdutórios: uma aplicação de computador que faça amplo uso de representação diagramática para apresentar a proposição de conceitos básicos do grupo de pesquisa em Teoria das Categorias do Instituto de Informática da UFRGS. A proposição e implementação de uma ferramenta, embora não constitua iniciativa inédita no mundo, até onde se sabe é a segunda experiência desta natureza. Ademais, vale destacar que os conceitos tratados, assim como os objetivos visados, são atendidos de forma única e exclusiva por esta aplicação. Conjuntamente, vislumbra-se a aplicação desenvolvida desempenhando importante papel de agente catalisador na propagação da visão dos Grupos de Pesquisa em Teoria das Categorias da UFRGS e da PUC/RJ do que sejam os "conceitos categoriais introdutórios".

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente texto trata de um estudo de caso que foi norteado pelo seguinte problema: “Qual a influencia dos fatores depressivos no trabalho do enfermeiro psiquiátrico?”. Nesse sentido, verificar os fatores responsáveis pela dualidade sofrimento e prazer no trabalho do enfermeiro psiquiátrico, levando em consideração os fatores depressivos existentes nesta profissão, será a questão mostradora desta pesquisa, que tem como base à teoria de Cristoph Dejours. A coleta de dados foi realizada por meio de um roteiro composto de questões fechadas com o intuito de caracterizar os entrevistados. Na seqüência, as entrevistas sofreram um processo de semi-estruturação, primeiramente, gravadas e posteriormente, transcritas. Essa coleta utilizou-se de sete enfermeiros da categoria psiquiátrica da unidade psiquiátrica do hospital geral (UPHG), ligada a uma Instituição Federal de Ensino Superior localizada na cidade de Santa Maria no interior do Estado do Rio grande do Sul. Para análise das respostas referentes às questões das entrevistas, foi utilizada a metodologia da Análise de Conteúdo. Os resultados estão apresentados em quatro categorias, que foram: “Trabalho em linhas gerais”, relata o trabalho num sentido mais amplo; “A valorização do bem-estar do enfermeiro”, que ressalta a importância de se ter um ambiente agradável de trabalho; “A busca do prazer no trabalho”, que mostra caminhos para a busca do prazer no trabalho e por fim “Ações preventivas para combater a depressão no ambiente de trabalho”, que compreende formas de evitar aspectos depressivos na realidade do enfermeiro psiquiátrico.

Relevância:

10.00% 10.00%

Publicador:

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Data available on continuos-time diffusions are always sampled discretely in time. In most cases, the likelihood function of the observations is not directly computable. This survey covers a sample of the statistical methods that have been developed to solve this problem. We concentrate on some recent contributions to the literature based on three di§erent approaches to the problem: an improvement of the Euler-Maruyama discretization scheme, the use of Martingale Estimating Functions and the application of Generalized Method of Moments (GMM).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Data available on continuous-time diffusions are always sampled discretely in time. In most cases, the likelihood function of the observations is not directly computable. This survey covers a sample of the statistical methods that have been developed to solve this problem. We concentrate on some recent contributions to the literature based on three di§erent approaches to the problem: an improvement of the Euler-Maruyama discretization scheme, the employment of Martingale Estimating Functions, and the application of Generalized Method of Moments (GMM).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We apply the concept of exchangeable random variables to the case of non-additive robability distributions exhibiting ncertainty aversion, and in the lass generated bya convex core convex non-additive probabilities, ith a convex core). We are able to rove two versions of the law of arge numbers (de Finetti's heorems). By making use of two efinitions. of independence we rove two versions of the strong law f large numbers. It turns out that e cannot assure the convergence of he sample averages to a constant. e then modal the case there is a true" probability distribution ehind the successive realizations of the uncertain random variable. In this case convergence occurs. This result is important because it renders true the intuition that it is possible "to learn" the "true" additive distribution behind an uncertain event if one repeatedly observes it (a sufficiently large number of times). We also provide a conjecture regarding the "Iearning" (or updating) process above, and prove a partia I result for the case of Dempster-Shafer updating rule and binomial trials.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho apresenta um conjunto de técnicas para a modelagem paramétrica e geração de malhas de superfícies para uso em sistemas de análise e simulações numéricas pelo Método dos Elementos Finitos. Foram desenvolvidos algoritmos para a geração paramétrica de superfícies, para a determinação das curvas de interseções entre superfícies e para a geração de malhas em superfícies curvas e recortadas. Foram implementas linhas e curvas paramétricas básicas, a partir das quais são geradas superfícies paramétricas de vários tipos que proporcionam uma grande flexibilidade de modelamento geométrico. Curvas e superfícies são geradas e manipuladas de forma interativa. São apresentadas técnicas que simplificam a implementação de linhas e superfícies paramétricas. Foi desenvolvido um algoritmo para determinar as curvas de interseção entre superfícies paramétricas, que são utilizadas como linhas de recorte (trimming lines) para obter geometrias complexas e compostas de várias superfícies. O algoritmo desenvolvido emprega técnicas de subdivisão adaptativa, por quadtrees, em função da curvatura local das superfícies. Primeiramente, obtém-se uma aproximação das curvas de interseção no espaço 3D, através da aproximação por triângulos. Os resultados iniciais são refinados e projetados sobre as duas superfícies envolvidas com algoritmos que permitem obter grande precisão. As curvas de interseção finais são mapeadas nos espaços paramétricos das duas superfícies, porém com uma parametrização única, o que facilita a junção com superfícies adjacentes Um algoritmo de geração de malha foi desenvolvido para gerar malhas triangulares de qualidade sobre as superfícies curvas e recortadas. O algoritmo utiliza um processo de subdivisão adaptativa por quadtrees, similar ao utilizado no algoritmo de interseção, para definir tamanhos de elementos em função da curvatura local. Em seguida, aplica-se um algoritmo tipo advancing front para gerar a malha sobre a superfície. Os algoritmos foram implementados e testados em um ambiente gráfico interativo especialmente desenvolvido para este trabalho. São apresentados vários exemplos que comprovam a eficiência das técnicas e algoritmos propostos, incluindo exemplos de matrizes de conformação mecânica para uso com código de análise METAFOR, análise de sensibilidade para otimização de pré-formas e de modelagem de superfícies compostas recortadas com geração de malhas de qualidade, para uso em análise por Elementos Finitos ou como contorno para geração de elementos tridimensionais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esse texto aborda, sob uma visão abrangente, a questão do investimento direto estrangeiro (IDE) no Mercosul. Discute, de início, duas medidas de base, imprescindíveis para se pensar em termos sérios o investimento direto, e aborda, então, os problemas afetos a uma área unificada de IDE e como atacar, com ações concretas, a sua realização. Considera ainda o tema da postura comum vis à vis os parceiros externos, particularmente nas negociações comerciais. Analisa, de forma geral, itens relativos à implementação das idéias, ressaltando a importância da Secretaria do Mercosul e tratando, brevemente, de uma dualidade chave nos processos de integração: a interação supranacionalidade - subsidiariedade. Também enfatiza a importância da transparência e da disseminação de informação no seio do bloco. Talvez a sua maior mensagem seja que os passos que levam a um mercado comum pleno, atrativo ao IDE, não se dão com facilidade, não sendo nem obra do acaso, nem o resultado de um processo contínuo, sem sobressaltos. Somente a absoluta convicção da sua necessidade, expressa em forte vontade política de realizar as tarefas devidas, fará com que os resultados esperados se tornem realidade.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho, um problema de transferência de calor da dinâmica de gases rarefeitos, causado pela diferença de temperaturas nas superfícies de um canal, é abordado. O problema é formulado através dos modelos cinéticos BGK, S e Gross-Jackson da equação linearizada de Boltzmann e resolvido, de forma unificada, pelo método analítico de ordenadas discretas (método ADO). Resultados numéricos para as perturbações de densidade e temperatura e também para o fluxo de calor são apresentados e comparados, mostrando que não se pode dizer que algum dos três modelos seja uma melhor aproximação da solução aos resultados da equação linearizada de Boltzmann.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho busca, mediante o estudo dos processos de intervenção do Estado, no domínio econômico, correlacionar, com maior abrangência, razões históricas que contribuíram, contribuem ou influenciam para a ocorrência de não conformidades nos negócios públicos. A partir desse entendimento, utiliza-se a CAIXA como objeto de estudo, estando ela inserida em um cenário sob forte influência de diversos fatores históricos, buscando, enquanto empresa pública bancária pertencente ao Estado Brasileiro e dele assumindo características e sujeição a riscos (do próprio Estado e do seu "modus operandi"), continuar, de forma sustentável e progressiva, a implementar políticas públicas e a garantir a sua sobrevivência como instituição bancária tradicional. A CAIXA sempre operou com a dualidade de ser um banco comercial e prover políticas publicas, assumindo riscos, principalmente se for verificado o modelo utilizado na concessão de créditos, notadamente, dos financiamentos habitacionais, fator preponderante ao requerimento de reestruturação patrimonial por parte da empresa. Sua reestruturação foi conseqüência, dentre outros fatores, dessa dualidade. A CAIXA, como agente distribuidor o fazia em detrimento da sua condição de solvência. É a partir da re-capitalização que o trabalho foca-se na verificação de características gerenciais da CAIXA, visando a alternativas que contribuam para a melhoria dos instrumentos de controle e gestão, de forma a garantir sua permanência de forma competitiva no mercado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A opção pelas alianças estratégicas como forma de sobrevivência empresarial tem se tornado cada vez mais comum, principalmente a partir da década de 1980. Dentre as alianças que vêm sendo formadas, um modelo chama a atenção por suas características peculiares: as alianças estratégicas entre empresas concorrentes. Essas alianças, também conhecidas como Alianças Horizontais, trazem em si um elemento de cooperação e competição simultâneos, criando um aparente paradoxo. Compreender como os gestores lidam com essa dualidade é uma tarefa interessante que nos leva a trafegar em um espectro de posições estratégicas que vão desde a competição extrema até a irrestrita cooperação, passando por uma visão co-opetitiva, onde as relações de mercado podem ser, ao mesmo tempo, de competição e cooperação, em um complexo jogo de percepções e impressões onde a fronteira da concorrência torna-se cada vez mais nebulosa. Esta pesquisa buscou compreender como se dá a criação de sentido (sensemaking) nos processos de formação e gestão de alianças estratégicas entre empresas concorrentes através das etapas de busca, percepção e interpretação propostas por Daft e Weick (1984). Para tal, foi necessário compreender os conceitos de Alianças Estratégicas e de criação de sentido (sensemaking), bem como entender o processo de criação de sentido acerca dessas oportunidades de alianças. Foi também importante investigar se essas alianças são formadas com intuitos instrumentais e imediatos ou se são vistas como estratégicas para a organização e de longo prazo. Utilizou-se neste trabalho uma estratégia de pesquisa com base em Estudo de Casos Múltiplos, valendo-se para tal de Análises de Antenarrativas e utilizou-se o Método do Incidente Crítico para orientar a análise. Análises de Antenarrativas buscam construir a narrativa dos casos através de fragmentos de falas e notícias. Por se tratar de uma construção focada na cognição dos gestores e reconhecendo a dificuldade de se captar essas questões, as antenarrativas forneceram um arcabouço material valioso para a construção dos casos. Foram estudadas as alianças entre TAM e Varig, quando realizaram operações de code-share durante cerca de 2,5 anos no início da década, e a Credicard, joint venture formada na década de 70 por Itaú, Unibanco e Citibank, para a expansão do mercado de cartões de crédito no país. Os casos utilizados foram escolhidos por duas razões principais: fornecem um ciclo completo de duas alianças diferentes, em setores diferentes, porém realizadas entre concorrentes; são casos emblemáticos na economia brasileira, com desfecho recente. Foi possível verificar que, para os casos citados, o sentido da aliança se altera ao longo do tempo, alterando também as ações tomadas por cada um dos parceiros em função da percepção que eles tem do ambiente e dos próprios parceiros. Enquanto muda a percepção, muda o proprio jogo da aliança. Dessa forma, é possível supor que o significado das alianças que vai mudando ao longo do tempo pode ser, em dado momento, instrumental e, em outro, estratégico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A comunicação é essencial para a vida em grupo, e se dá através da linguagem. Existem diversas formas de linguagem, porém a linguagem matemática vai além das demais, pois é universal. O advento dos aparelhos eletrônicos e, em especial, do computador, tornou possível o desenvolvimento de padrões e aplicativos que pudessem manipular símbolos matemáticos eletronicamente. A Web trouxe consigo a linguagem HTML para visualização de textos e, mais atualmente, o padrão de linguagem de marcação XML e seus aplicativos, que têm características melhores que o HTML quanto à estruturação, armazenamento e indexação de dados. Uma das aplicações advindas do XML foi a linguagem de marcação matemática MathML, que contribui para a manipulação e visualização de formalismos matemáticos na Web, e vem se tornando um padrão no meio acadêmico, educacional e comercial. As diversas aplicações matemáticas (editores, ambientes matemáticos) desenvolvidas para o computador geralmente não permitem a discussão em linguagem matemática de forma síncrona pela rede de computadores. Sabe-se que na Internet a conexão de pessoas num mesmo momento através de ferramentas síncronas é muito difundida, como é o caso de aplicativos do tipo bate-papo; no entanto, esses aplicativos não possuem funcionalidades que permitam a troca de textos matemáticos. Há, portanto, uma limitação em relação a ferramentas de comunicação síncrona para matemática na Web. Este trabalho quer oferecer uma alternativa ao público que deseje trocar formalismos matemáticos de forma síncrona pela Web, a fim de verificar se esse tipo de ferramenta é efetivamente usável para discussões matemáticas. Para isso, foi desenvolvido um protótipo que reúne as características de uma ferramenta típica de bate-papo com as vantagens advindas das linguagens de marcação: o ChatMath. O trabalho também aponta características de aplicativos matemáticos e de ferramentas síncronas textuais e descreve as linguagens de marcação matemática. Para fins de avaliação do protótipo desenvolvido, fez-se uma pesquisa a fim de verificar sua efetiva utilidade para troca de formalismos matemáticos, dentro do contexto educacional. Os resultados dessa pesquisa confirmam a hipótese levantada, embora identifiquem modificações funcionais e de uso da ferramenta, havendo necessidade de reaplicação da avaliação, para se obter resultados mais detalhados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Aquilo que passamos a entender como racional e lógico a partir da era moderna, provê um esquema mental para tomada de ações que carrega um arcabouço de premissas e valores consigo. Essas regras visam a maximização utilitária das consequências, esvaziadas de qualquer valor subjetivo. Weber (1994) classificou acessoriamente esse esquema como “racionalidade instrumental”, que se caracteriza por ser orientada pelos fins, meios e consequências da ação. Em contraposição, definiu ainda a “racionalidade substantiva”, postulada nos valores do sujeito, que não se orienta por quaisquer consequências da ação. Muitos autores partiram dessas racionalidades para representar a dualidade que acomete o mundo a partir da centralidade do mercado e sua lógica instrumental, mas foi Guerreiro Ramos (1989) quem deu contundente contribuição ao estudo das organizações separando diferentes enclaves sociais, nos quais as racionalidades seriam mais adequadas em um ou outro espaço. Nesse contexto, o mercado é um enclave importante e legítimo, mas apartado de outros, nos quais as relações sociais existem para servir o sujeito. Esse trabalho, fundamentado na Teoria Crítica, reconhece que as ONGs (Organizações Não Governamentais) devem pertencer a um campo distinto daquele das empresas econômicas, por se basearem em racionalidades diferentes das mesmas. Foi realizada uma pesquisa de campo junto a cinco organizações sem fins lucrativos, com fins declarados de ação social (Harmonicanto, Reviverde, ACAM, Observatório de Favelas e Bola pra Frente), buscando identificar as influências desviacionistas que a adoção da racionalidade instrumental impõe sobre a realização dos objetivos previstos para essas organizações. Observou-se que existem contingências que favorecem o uso da instrumentalidade nessas organizações, como: necessidade de autossustentação, área de atuação, tamanho da organização, influência do líder, etc. Conclui-se que tais organizações, apesar de não serem espaços dedicados à atualização do sujeito (como define a Isonomia de Guerreiro Ramos), delatam o seu fim público e orientam-se pelas consequências sempre que absorvem de forma crua a dinâmica organizacional de uma empresa econômica.