910 resultados para Process-based model (PBM)
Resumo:
We study the relationship between the sentiment levels of Twitter users and the evolving network structure that the users created by @-mentioning each other. We use a large dataset of tweets to which we apply three sentiment scoring algorithms, including the open source SentiStrength program. Specifically we make three contributions. Firstly we find that people who have potentially the largest communication reach (according to a dynamic centrality measure) use sentiment differently than the average user: for example they use positive sentiment more often and negative sentiment less often. Secondly we find that when we follow structurally stable Twitter communities over a period of months, their sentiment levels are also stable, and sudden changes in community sentiment from one day to the next can in most cases be traced to external events affecting the community. Thirdly, based on our findings, we create and calibrate a simple agent-based model that is capable of reproducing measures of emotive response comparable to those obtained from our empirical dataset.
Resumo:
For the first time, nanograined Pb(1-1.5x)La(x)TiO(3) ferroelectric ceramics, with x=0.2, were produced by a process based on a high-pressure densification technique (HPD) that eliminates the need of high-temperature sintering. Our results showed the production of workable dense ceramics with average grain size around 100 nm and free from secondary phase. Regarding the dielectric measurements, the samples showed satisfactory dielectric losses as well as remarkable diffusivity in the dielectric curves. Moreover, ferroelectric hysteresis measurements showed that samples produced by the HPD technique can stand high electric fields necessary to switch the polarization and thus to induce piezoelectric activity. Our results demonstrated clearly the viability of the proposed method to produce nanograined ferroelectric bulk ceramics, then opening the possibility of developing new technologies.
Resumo:
We study random walks systems on Z whose general description follows. At time zero, there is a number N >= 1 of particles at each vertex of N, all being inactive, except for those placed at the vertex one. Each active particle performs a simple random walk on Z and, up to the time it dies, it activates all inactive particles that it meets along its way. An active particle dies at the instant it reaches a certain fixed total of jumps (L >= 1) without activating any particle, so that its lifetime depends strongly on the past of the process. We investigate how the probability of survival of the process depends on L and on the jumping probabilities of the active particles.
Resumo:
Using a physically based model, the microstructural evolution of Nb microalloyed steels during rolling in SSAB Tunnplåt’s hot strip mill was modeled. The model describes the evolution of dislocation density, the creation and diffusion of vacancies, dynamic and static recovery through climb and glide, subgrain formation and growth, dynamic and static recrystallization and grain growth. Also, the model describes the dissolution and precipitation of particles. The impeding effect on grain growth and recrystallization due to solute drag and particles is accounted for. During hot strip rolling of Nb steels, Nb in solid solution retards recrystallization due to solute drag and at lower temperatures strain-induced precipitation of Nb(C,N) may occur which effectively retard recrystallization. The flow stress behavior during hot rolling was calculated where the mean flow stress values were calculated using both the model and measured mill data. The model showed that solute drag has an essential effect on recrystallization during hot rolling of Nb steels.
Resumo:
The aim of this thesis is to explore how different competing discourses in the historical context of the Swedish education development have qualified and disqualified different constructions of national curriculum. How and after what kind of principles is the curriculum constructed? What qualify who are going to be recognized as the author and addressee of the curriculum? These key ques-tions of the study are discussed in the first part of the thesis. My point of depar-ture is that the curriculum can be understood as a relation between freedom and control. In an educational system this relationship reflects the problematic ten-sion between the external demands from an authoritative center and the local need to independently reflect over educational issues. How these concepts are defined by the prevailing social discourses affect specific relations and construc-tions of curricula as a steering tool and a producer of specific teacher identities. In this sense, I claim that curriculum is constructed in different ways depending on which of the didactic questions are emphasized and answered and who is judged as the legitimate author. Based on this, three models of curriculum con-struction are formulated; the content based, the result based and the process based. These models are subsequently used as an analytical tool to examine the historical development of Swedish national curricula. The second part of the thesis investigates the Swedish education system and the production of the national curriculum as a product of rival discourses. The historical investigation begins 1842 when the first state curriculum was issued and the inquiry concludes in 2008. The findings indicate that no one single con-struction has been totally dominant and that there has been an on-going discur-sive struggle between different alternative and opinions about what teachers must do and be.
Resumo:
Computer technology enables the creation of detailed documentation about the processes that create or affect entities (data, objects, etc.). Such documentation of the past can be used to answer various kinds of questions regarding the processes that led to the creation or modification of a particular entity. The answer to such questions is known as an entity's provenance. In this paper, we derive a number of principles for documenting the past, grounded in work from philosophy and history, which allow for provenance questions to be answered within a computational context. These principles lead us to argue that an interaction-based model is particularly suited for representing high quality documentation of the past.
Resumo:
We develop a job-market signaling model where signals may convey two pieces of information. This model is employed to study the GED exam and countersignaling (signals non-monotonic in ability). A result of the model is that countersignaling is more expected to occur in jobs that require a combination of skills that differs from the combination used in the schooling process. The model also produces testable implications consistent with evidence on the GED: (i) it signals both high cognitive and low non-cognitive skills and (ii) it does not affect wages. Additionally, it suggests modifications that would make the GED a more effective signal.
Resumo:
Com a implementação do Acordo de Basiléia II no Brasil, os grandes conglomerados bancários poderão utilizar o chamado modelo IRB (Internal Ratings Based) para cômputo da parcela de risco de crédito da exigência de capital. O objetivo deste trabalho é mensurar a diferença entre o capital mínimo exigido (e, conseqüentemente, do Índice de Basiléia) calculado pela abordagem IRB em relação à regulamentação atual. Para isso, foram estimadas probabilidades de inadimplência (PD) utilizando matrizes de transição construídas a partir dos dados da Central de Risco de Crédito (SCR) do Banco Central do Brasil. Os resultados indicam aumento da exigência de capital, ao contrário do ocorrido nos países do G-10
Resumo:
Pretende-se no presente trabalho avaliar a gestão do processo de negociação complexa da 5ª Conferência Ministerial da Organização Mundial do Comércio em Cancún, ocorrida entre os dias 10 e 14 de setembro de 2003, no México, apontando os problemas e questões que resultaram no colapso de um possível acordo. O futuro da OMC é incerto e mudanças traumáticas sofridas por muitos países que vivem sob as regras da OMC indicam que alguma coisa na OMC terá que mudar, principalmente nos processos de negociação complexa, de forma que a integridade da organização não seja comprometida. Buscou-se respostas na análise e avaliação da gestão do processo de negociação, estudando e pesquisando os conceitos de barganha posicional, detalhando o processo de negociação baseado em princípios, explorando em profundidade o estado da arte para gestão de conversas difíceis. Dissecando a questão dos conflitos e das coalizões, mostrando a dificuldade existente na resolução de disputas públicas e no uso de instrumentos para quebrar o impasse nas negociações buscou-se estabelecer o instrumental teórico que possibilitasse aprofundar o diagnóstico da situação atual na OMC. Como recomendação explorou-se a avaliação de conflitos, com base na eficiência - teoria dos jogos-, justiça e na eqüidade, a melhor forma de negociação baseada em princípios, de gestão de público demandante, no diálogo dos multistakeholders, a importância das conversas informais paralelas, o ambiente da complexidade e a visão ampla que proporciona o enfoque do funcionamento de sistemas decisórios autopoiéticos.
Resumo:
O mundo está passando por grandes mudanças que vêm afetando as esferas sociais, tecnológicas, empresariais e mentais. As empresas têm sido ameaçadas por diversos fatores como rapidez no lançamento de novos produtos, interferência dos governos, clientes cada vez mais conscientes e exigentes, aumento da concorrência, globalização e o surgimento constante de novas tecnologias. Essas mudanças exigem das empresas uma estrutura mais flexível capaz de absorver as rápidas necessidades do ambiente, e o formato atual não tem se mostrado adequado para vencer estes desafios. Nesse contexto, a gestão baseada em processos tem se mostrado promissora ao ser incorporada nas principais tecnologias de gestão como BSC, NBR ISO 9000, gestão de custos com ABC, entre outras. Como toda nova abordagem, as tecnologias (ou modelos) baseadas em processos sofrem de vários problemas, sendo alguns já conhecidos, como resistência às mudanças, falta de preparo e apoio insuficiente da alta direção. Os estudos desses fatores são incipientes e em sua maioria não tratam de seus impactos em empresas públicas. Esse trabalho tem como objetivo justamente identificar esses fatores na literatura (teoria e casos de estudo) e confrontá-los com aqueles encontrados em uma empresa pública (estudo de caso), analisando sua pertinência. Os resultados encontrados, além de confirmarem os fatores, sugerem que a sua utilização, na forma de um checklist, podem beneficiar as empresas na prevenção, redução ou eliminação de problemas que impactam ou inviabilizam um projeto.
Resumo:
A presente pesquisa teve como objetivo verificar o impacto que o treinamento causa na produtividade do trabalho. O arcabouço teórico fundamentou-se em Formação Profissional, Educação, Qualificação, Treinamento e Produtividade. O processo metodológico empregado, baseado no estruturalismo, buscou identificar e descrever as relações subjacentes entre treinamento e produtividade nos seus elementos essenciais. O estudo é exploratório, descritivo e explicativo. A coleta de dados foi realizada através de entrevistas semi-estruturadas, utilizando o critério de saturação para definir o número de entrevistas. Foram entrevistados gestores e profissionais de três grandes empresas privadas do Rio de Janeiro, procurando-se identificar a relação entre a produtividade do trabalho e o treinamento gerencial. Para análise dos dados foi construída uma matriz contendo as respostas dos entrevistados, que subsidiou a interpretação das informações. Os resultados obtidos indicam que não é possível estabelecer uma correlação direta entre treinamento e produtividade do trabalho no universo pesquisado, já que: 1) o treinamento é realizado com base em considerações diversas da área de produtividade (atualização técnica, equiparação a concorrência, maximização do desempenho); 2) a produtividade do trabalho raramente é medida, muitas vezes não é sequer controlada; 3) existe uma confusão conceitual entre desempenho (esforço realizado) e produtividade (resultado alcançado).
Resumo:
O propósito principal deste trabalho foi avaliar como as competências centrais de Dell Inc., que formam a base de sua vantagem competitiva, contribuem ou não para a iniciativa da empresa de ingressar no segmento de prestação de serviços, na indústria da Tecnologia da Informação. Para identificar as competências centrais da Dell Inc. foram utilizados os critérios propostos na teoria Resource Based Model.
Resumo:
Esta tese tem por objetivo principal o estudo da relação entre atividade econômica, inflação e política monetária no tocante a três aspectos importantes. O primeiro, a perspectiva histórica da evolução da relação entre atividade e inflação no pensamento econômico. O segundo, a análise da dinâmica inflacionária utilizando um modelo com fundamentação microeconômica, no caso a curva de Phillips Novo-Keynesiana, com uma aplicação ao caso brasileiro. O terceiro, a avaliação da eficiência dos mecanismos de sinalização de política monetária utilizados pelo Banco Central no Brasil com base nos movimentos na estrutura a termo da taxa de juros com a mudança da meta da Selic. O elemento central que une estes ensaios é a necessidade do formulador de política econômica compreender o impacto significativo das ações de política monetária na definição do curso de curto prazo da economia real para atingir seus objetivos de aliar crescimento econômico com estabilidade de preços. Os resultados destes ensaios indicam que o modelo Novo-Keynesiano, resultado de um longo desenvolvimento na análise econômica, constitui-se numa ferramenta valiosa para estudar a relação entre atividade e inflação. Uma variante deste modelo foi empregada para estudar com relativo sucesso a dinâmica inflacionária no Brasil, obtendo valores para rigidez da economia próximos ao comportamento observado em pesquisas de campo. Finalmente, foi aliviada a previsibilidade das ações do Banco Central para avaliar o estágio atual de desenvolvimento do sistema de metas no Brasil, através da reação da estrutura a termo de juros às mudanças na meta da taxa básica (Selic). Os resultados indicam que comparando o período de 2003 a 2008 com 2000 a 2003, verificamos que os resultados apontam para o aumento da previsibilidade das decisões do Banco Central. Este fato pode ser explicado por alguns fatores: o aprendizado do público sobre o comportamento do Banco Central; a menor volatilidade econômica no cenário econômico e o aperfeiçoamento dos mecanismos de sinalização e da própria operação do sistema de metas. Comparando-se o efeito surpresa no Brasil com aqueles obtidos por países que promoveram mudanças significativas para aumentar a transparência da política monetária no período de 1990 a 1997, observa-se que o efeito surpresa no Brasil nas taxas de curto prazo reduziu-se significativamente. No período de 2000 a 2003, o efeito surpresa era superior aos de EUA, Alemanha e Reino Unido e era da mesma ordem de grandeza da Itália. No período de 2003 a 2008, o efeito surpresa no Brasil está próximo dos valores dos EUA e Alemanha e inferiores aos da Itália e Reino Unido.
Resumo:
Com a implementação do Acordo de Basiléia II no Brasil, os grandes conglomerados bancários poderão utilizar o chamado modelo IRB (Internal Ratings Based) para cômputo da parcela de risco de crédito da exigência de capital. O objetivo desta dissertação é mensurar a diferença entre o capital mínimo exigido (e, conseqüentemente, do Índice de Basiléia) calculado pela abordagem IRB em relação à regulamentação atual. Para isso, foram estimadas probabilidades de inadimplência (PD) utilizando matrizes de transição construídas a partir dos dados da Central de Risco de Crédito (SCR) do Banco Central do Brasil. Os resultados indicam aumento da exigência de capital, ao contrário do ocorrido nos países do G-10.
Resumo:
Neste trabalho é discutido o impacto causado pelos parâmetros de processo com comportamento estocástico em um modelo de otimização, aplicado ao planejamento mineiro. Com base em um estudo de caso real, construiu-se um modelo matemático representando o processo produtivo associado à mineração, beneficiamento e comercialização de carvão mineral. Este modelo foi otimizado com a técnica de programação linear, sendo a solução ótima perturbada pelo comportamento estocástico de um dos principais parâmetros envolvidos no processo produtivo. A análise dos resultados permitiu avaliar o risco associado à decisão ótima, sendo com isto proposta uma metodologia para avaliação do risco operacional.