1000 resultados para Modelo Novo-Keynesiano
Resumo:
Contexto: la esquizofrenia es un síndrome complejo relacionado con genes y factores de riesgo no genéticos. Estudios epidemiológicos reconocidos reportan su presencia en todas las culturas y regiones geográficas. En este sentido, las Hipótesis Etiológicas Unificadas enfrentan simultáneamente el desafío de presentar los datos experimentales y demostrar que éstos dan cuenta del perfil universal del síndrome. Objetivos: revisar sistemáticamente las más prominentes Hipótesis Etiológicas Unifi - cadas, así como la distribución semántica de los hallazgos genéticos (mediante técnicas de minería de datos) y proponer un nuevo modelo, basado en los efectos dinámicos de carácter epigenético sobre la activación genética en el neurodesarrollo y la pubertad. Resultados: de manera general, las Hipótesis Etiológicas Unificadas contradicen los principales hallazgos genéticos (que sugieren que la esquizofrenia está asociada al perfil de neurotransmisores como D-1 y la cascada Glutamato-NMDA); también, por regla general, los hallazgos genéticos se encuentran esparcidos por todo el genoma (tal como revelamos en un mapa topológico de los 3519 estudios en el asunto). La clave para este estado complejo de cosas puede estar representada por la asociación entre la perspectiva de que cada polimorfismo asociado a la esquizofrenia representa un factor de riesgo estadístico (es decir, aumentando el riesgo de inestabilidades del desarrollo), mientras que las cascadas moleculares de carácter epigenético y los factores de riesgo ambientales permanecen actuantes mediante la activación de genes en períodos críticos.
Resumo:
Este artigo discute o modelo Nórdico ou o modelo de Estado-Providência e a educação. Mostra como os processos de reestruturação estão acontecendo a nível político e a nível institucional e, ainda, como é que as estruturas básicas do modelo e exemplo nórdico, especialmente os princípios subjacentes às comprehensive schools e às escolas locais, estão a ser abandonados. Pela abordagem institucional, está a emergir um novo pacto geracional ou um modelo institucional, mas a sua legitimação e estabelecimento levarão muito tempo. As mudanças na política e na organização ocorrem de forma muito mais rápida do que nos contextos sócio-culturais. Exemplos de histórias de sucesso, como a reforma dinamarquesa do mercado laboral e o crescimento do cluster finlandês do conhecimento intensivo em TIC, abriram o caminho para esta transformação. Há ainda a possibilidade de uma estratégia de Estado-Providência e de uma estratégia de Estado Competitivo poderem coexistir.
Resumo:
A Gestão do Conhecimento compõe uma nova fase organizacional e faz com que as empresas invistam, cada vez mais, para implantar esse novo modelo de gestão. Vários estudiosos compartilham desta esfera para visão do ensino-aprendizado organizacional, como: Cyrineu Terra, Idalberto Chiavenato, Antonio Carvalho e Oziléia Serafim, Peter Senger, Peter Drucker, Sanches, Nonaka e Takeuchi, entre outros. Eles defendem um objetivo comum: “que as organizações deverão se estruturar mais para serem “ensinantes e aprendizes”. Desenvolver pessoas e aprender a utilizar e avaliar sua capacidade intelectual será a grande estratégia competitiva para inovação de valores humanos e organizacionais. Através desta visão, é que se poderá focar que quando as pessoas estão mais treinadas e intelectualmente desenvolvidas darão mais resultados e tornarão as empresas mais competitivas. Sendo assim, o objetivo é poder mostrar como as empresas deverão, nesse momento, investir mais no seu “pessoal” e será demonstrado por um case de estudo na empresa Ótica Diniz Belém e poder avaliar a Gestão do Conhecimento nessa empresa, ressaltando a sua contribuição para a melhoria do desempenho das organizações, assim como, reconhecer os fatores determinantes que justifiquem a utilização da Gestão do Conhecimento, por fim, verificar a importância do desenvolvimento intelectual de “pessoas” para maior produtividade, como são estabelecidos em variados exemplos de empresas. As mudanças estão ocorrendo aceleradas e isso todos nós podemos comprovar, pois o mercado de trabalho e as organizações estarão mais exigentes, assim a área Gestão de conhecimento sofrerá mais impacto e as pessoas atuarão mais parcerias e sendo o real capital intelectual da organização.
Resumo:
Este trabalho constitui-se em um estudo acerca da construção do conhecimento do tema Marketing Metrics dentro da disciplina de marketing, centrando-se na linha de pesquisa de Valor do Cliente, uma das cinco principais que estão sendo trabalhadas sobre o tema. Assim, o autor deste trabalho realizou um estudo exploratório dividido em duas etapas, uma de análise da bibliografia acerca do Marketing Metrics em diversos centros acadêmicos e outra de verificação empresarial para analisar o grau de conhecimento e avaliação da importância do tema na visão empresarial. Ao final, o autor chega a um modelo sobre a construção de conhecimento do tema pesquisado e suposições a serem futuramente testadas, incluindo a influência de fatores como a natureza do negócio em que está inserida, o tamanho da base de clientes, a necessidade de uso do produto ou serviço, as barreiras de saída e o tamanho da empresa no grau de necessidade de relacionamento com os clientes, bem como a influência deste na busca do conhecimento acadêmico.
Resumo:
O mundo passa por profundas mudanças no que se refere ao papel do Estado. As economias apresentam um crescente aumento da participação privada em setores originalmente estatais com a abertura comercial e a desregulamentação de algumas atividades econômicas contribuindo para a diminuição da participação do Estado como empresário. Neste novo ambiente econômico, as políticas públicas de estímulo à concorrência passam a ter um papel fundamental, garantindo que o mercado possa alocar eficientemente os recursos dentro da economia. É neste contexto que os debates em torno da reorganização da indústria de energia elétrica ganharam forte impulso, com diversos países passando por processos de reforma na estrutura de suas respectivas indústrias, bem como as instituições e regulamentos que controlam o funcionamento das mesmas. A reestruturação do setor elétrico brasileiro objetiva, em tese, promover a competição em alguns mercados, transformando alguns segmentos de regime monopolista em competitivo. Isto vem acarretando a formação de um novo paradigma, influenciado pela mudança da gestão das empresas, de pública para privada, e pela inserção da regulamentação que vise a promover a eficiência das companhias naqueles segmentos onde o mercado é cativo. Assim, este trabalho propõe-se a contribuir com o debate acerca da reforma da indústria de energia elétrica (IEE) do Brasil, discutindo, entre outros pontos, a introdução da comercialização e o conflito existente entre reestruturação industrial e seu processo regulatório. Procurou-se identificar as possíveis fontes de ineficiência, decorrentes da proposta da consultoria britânica Coopers & Lybrand, do novo modelo para o setor elétrico brasileiro. Analisaram-se as teorias de Mercados Contestáveis, de Custos de Transação e de Estrutura-Conduta- Desempenho, procurando a que melhor interpreta e/ou avalia os possíveis efeitos, vantagens e desvantagens da proposta de mudança estrutural e regulamentar da IEE do Brasil. Neste contexto, o trabalho conclui que a Economia dos Custos de Transação é a mais adequada para essa finalidade, pois apresenta condições que permitem avaliar o problema tanto sob a ótica da adequabilidade da nova estrutura de governança quanto do ponto de vista das relações comerciais, o que é de fundamental importância para o entendimento do processo, não sendo possível atender, em sua totalidade, aos questionamentos inerentes à situação com base nas teorias de Mercados Contestáveis e Estrutura-Conduta-Desempenho. O trabalho inclui, também, uma análise sobre a comercialização da energia elétrica, sujeita às incertezas do setor, que combina as teorias matemáticas e econômicas de última geração para obter uma representação realista do sistema e oferecer ao agente de decisão um auxílio preciso e confiável.
Resumo:
Este texto apresenta um novo modelo multiparadigma orientado ao desenvolvimento de software distribuído, denominado Holoparadigma. O Holoparadigma possui uma semântica simples e distribuída. Sendo assim, estimula a modelagem subliminar da distribuição e sua exploração automática. A proposta é baseada em estudos relacionados com modelos multiparadigma, arquitetura de software, sistemas blackboard, sistemas distribuídos, mobilidade e grupos. Inicialmente, o texto descreve o modelo. Logo após, é apresentada a Hololinguagem, uma linguagem de programação que implementa os conceitos propostos pelo Holoparadigma. A linguagem integra os paradigmas em lógica, imperativo e orientado a objetos. Além disso, utiliza um modelo de coordenação que suporta invocações implícitas (blackboard) e explícitas (mensagens). A Hololinguagem suporta ainda, concorrência, modularidade, mobilidade e encapsulamento de blackboards em tipos abstratos de dados. Finalmente, o texto descreve a implementação da Holoplataforma, ou seja, uma plataforma de desenvolvimento e execução para a Hololinguagem. A Holoplataforma é composta de três partes: uma ferramenta de conversão de programas da Hololinguagem para Java (ferramenta HoloJava), um ambiente de desenvolvimento integrado (ambiente HoloEnv) e um plataforma de execução distribuída (plataforma DHolo).
Resumo:
Nos últimos anos, algumas mudanças ocorreram no contexto industrial, a qual tornaram a função produção uma importante fonte de vantagem competitiva para as empresas. Como resultado, surgiu um novo campo de pesquisa, entitulado estratégia de produção, que está interessado no estudo dos aspectos estratégicos da produção. Tais mudanças, também têm afetado a indústria da construção civil, subsetor edificações, mas somente um pequeno número de estudos sobre estratégia de produção tem sido desenvolvido neste setor. O objetivo principal desta Tese é o desenvolvimento de um modelo de formulação de estratégias de produção para pequenas empresas de construção, considerando tanto os aspectos relacionados com o conteúdo da estratégia quanto os ligados ao processo de formulação. Três estudos de caso foram realizados em três pequenas empresas do Rio Grande do Sul e consistiram no desenvolvimento da estratégia de produção destas empresas. Em cada uma delas, foi realizado um diagnóstico estratégico da função produção e definido as estratégias de produção, utilizando, para isso, o modelo proposto. Além disso, foram realizadas algumas entrevistas com especialistas em gerenciamento de obras com o intuito de embasar a adaptação dos conceitos de estratégia de produção para a construção de edificações. Os resultados mostraram que o modelo proposto foi bem aceito pela alta e média gerência das empresas e, que, para implementação do mesmo seja bem sucedida, é primordial considerar algumas características das pequenas empresas, tais como, a perspectiva incremental das mudanças, a estreita visão de longo prazo e as respostas rápidas para a aplicação do modelo.
Resumo:
Este trabalho apresenta uma análise das melhorias introduzidas no Processo de Desenvolvimento de Produtos (PDP) de uma empresa de calçados denominada Calçados Reifer Ltda. Estas melhorias foram aplicadas especificamente ao setor de Modelagem, que é o principal responsável por este desenvolvimento, objetivando sua otimização e a diminuição no parâmetro tempo de entrega do novo produto ao mercado. O processo de desenvolvimento dos novos modelos na indústria de calçados é estratégico, devido aos requisitos dos clientes relativos a este parâmetro serem progressivamente menores -especialmente para as companhias que produzem para exportação. Qualquer demora relativa à definição ou ao cumprimento das especificações de produto podem pôr em risco a competitividade da empresa. Assim, foi analisada a estrutura do PDP atual baseada nas referências teóricas, como as providas pelas ciências administrativas, e pela gestão do desenvolvimento de produtos e processos. A proposta de um processo aperfeiçoado e mais rápido, baseado em uma abordagem específica de gestão de recursos, introduzindo melhorias significativas na gestão do processo e na qualidade do produto final obtido, a par da agilização do processo, possibilitou a obtenção de melhorias no PDP.
Resumo:
Neste trabalho estudamos modelos teóricos que descrevem sistemas eletrônicos fortemente correlacionados, em especial o modelo t-J, e suas aplicações a compostos de óxidos de cobre, notadamente os compostos que apresentam supercondutividade de alta temperatura crítica e o composto Sr2CuO2Cl2. No primeiro capítulo do trabalho, fazemos uma exposição de três modelos que envolvem o tratamento das interações elétron-elétron, que são os modelos de Hubbard de uma banda, o modelo de Heisenberg e o modelo t-J. Na dedução deste último fazemos uma expansão canônica do hamiltoniano de Hubbard, no limite de acoplamento forte, levando-nos a obter um novo hamiltoniano que pode ser utilizado para descrever um sistema antiferromagnético bidimensional na presen- ça de lacunas, que é exatamente o que caracteriza os compostos supercondutores de alta temperatura crítica na sua fase de baixa dopagem.Após termos obtido o hamiltoniano que descreve o modelo t-J, aplicamos à este uma descrição de polarons de spin, numa representação de holons, que são férmions sem spin, e spinons, que são bósons que carregam somente os graus de liberdade de spin. Utilizando uma função de Green para descrever a propagação do polaron pela rede, obtemos uma equação para a sua autoenergia somando uma série de diagramas de Feynman, sendo que para este cálculo utilizamos a aproxima ção de Born autoconsistente[1]. Do ponto de vista numérico demonstramos que a equação integral de Dyson resultante do tratamento anterior não requer um procedimento iterativo para sua solução, e com isto conseguimos trabalhar com sistemas com grande número de partículas. Os resultados mostram, como um aspecto novo, que o tempo de vida média do holon tem um valor bastante grande no ponto (π,0 ) da rede recíproca, perto da singularidade de Van Hove mencionada na literatura[2]. Este aspecto, e suas implicações, é amplamente discutido neste capítulo. No capítulo 3 estudamos o modelo estendido t-t'-J, com tunelamento à segundos vizinhos e a incorporação dos termos de três sítios[3]. Fazemos a mesma formulação do capítulo anterior, e discutimos as aplicações dos nossos resultados ao óxido mencionado anteriormente. Finalmente, no último capítulo apresentamos uma aplicação original do modelo t-J à uma rede retangular, levemente distorcida, e demonstramos que os resultados do capítulo 3 são reproduzidos sem necessidade de introduzir termos de tunelamento adicionais no hamiltoniano. Esta aplicação pode se tornar relevante para o estudo das fases de tiras encontradas recentemente nesses materiais de óxidos de cobre.
Resumo:
propósito deste trabalho estudar as implicações econômicas da previdência social no contexto do mais amplamente difundido modelo de gerações superpostas (OLG), construído por Paul Samuelson (1958) complementado por Peter Diamond (1965) exemplifica-las mediante simulações. Para tanto, serão utilizadas três versões destes modelos, do próprio Diamond (1965), de Robert Barro (1974) de Marco Martins (1995), as quais se diferenciam pela maneira como cada uma delas incorpora demanda por capital dos agentes. Serão examinados em especial os efeitos da previdência sobre acumulação de capital sobre bem-estar da sociedade.
Resumo:
Dentre as várias mudanças implementadas pelo novo Sistema de Pagamentos Brasileiro (SPB), em funcionamento desde abril de 2002, destaca-se a criação do Sistema de Transferência de Reservas (STR). Visando a redução de riscos, este sistema, operado em Liquidação Bruta em Tempo Real (LBTR), impossibilita a ocorrência de saldos a descoberto nas contas Reservas Bancárias. Esta mudança criou um novo motivo para a demanda de reservas por parte dos bancos, além do já existente de cumprimento de compulsório: liquidar suas operações em tempo real. O trabalho de Heller e Lengwiler (JME, 2003) desenvolve um modelo no qual a demanda por reservas depende da distribuição conjunta do total de pagamentos, da exigibilidade de compulsórios e da taxa de juros. Neste trabalho busca-se verificar se tal modelo, com as devidas alterações referentes às particularidades do sistema brasileiro, é aplicável ao caso brasileiro e, caso afirmativo, verificar se o atual nível de liquidez no sistema está acima do ótimo. Mostra ainda que o modelo desenvolvido em Heller e Lengwiler apresenta forte restrição implícita. De forma a resolver tal problema, este trabalho propõe novo modelamento. Por fim busca verificar se uma redução nas alíquotas de compulsório traria algum impacto na demanda por títulos públicos federais utilizados pelos bancos como fonte de liquidez intradiária.
Resumo:
O objetivo deste trabalho é modelar o comportamento estratégico dos indivíduos diante de um choque estocástico que desloca o preço de determinado ativo financeiro do seu equilíbrio inicial. Investiga-se o caminho do preço de mercado em direção ao novo equilíbrio, conduzido pelas sucessivas negociações dos agentes em busca de oportunidades de obter lucros imediatos. Os operadores, que por suposição possuem funções de utilidade avessas ao risco, devem escolher a quantidade ótima transacionada e quanto devem aguardar para executar as suas ordens, tendo em vista a diminuição da volatilidade do preço do ativo à medida que as transações se sucedem após o choque. Procura-se demonstrar que os operadores que aceitam incorrer em riscos mais elevados negociam com maior frequência e em volumes e velocidades maiores, usufruindo lucros esperados mais altos que os demais.
Resumo:
Modelos BDI (ou seja, modelos Beliefs-Desires-Intentions models) de agentes têm sido utilizados já há algum tempo. O objetivo destes modelos é permitir a caracterização de agentes utilizando noções antropomórficas, tais como estados mentais e ações. Usualmente, estas noções e suas propriedades são formalmente definidas utilizandos formalismos lógicos que permitem aos teóricos analisar, especificar e verificar agentes racionais. No entanto, apesar de diversos sistemas já terem sido desenvolvidos baseados nestes modelos, é geralmente aceito que existe uma distância significativa entre esta lógicas BDI poderosas e sistemas reais. Este trabalho defende que a principal razão para a existência desta distância é que os formalismos lógicos utilizados para definir os modelos de agentes não possuem uma semântica operacional que os suporte. Por “semântica operacional” entende-se tanto procedimentos de prova que sejam corretos e completos em relação à semântica da lógica, bem como mecanismos que realizem os diferentes tipos de raciocínio necessários para se modelar agentes. Há, pelo menos, duas abordagens que podem ser utilizadas para superar esta limitação dos modelos BDI. Uma é estender as lógicas BDI existentes com a semântica operacional apropriada de maneira que as teorias de agentes se tornem computacionais. Isto pode ser alcançado através da definição daqueles procedimentos de prova para as lógicas usadas na definição dos estados mentais. A outra abordagem é definir os modelos BDI utilizando formalismos lógicos apropriados que sejam, ao mesmo tempo, suficientemente poderosos para representar estados mentais e que possuam procedimentos operacionais que permitam a utilizaçao da lógica como um formalismo para representação do conhecimento, ao se construir os agentes. Esta é a abordagem seguida neste trabalho. Assim, o propósito deste trabalho é apresentar um modelo BDI que, além de ser um modelo formal de agente, seja também adequado para ser utilizado para implementar agentes. Ao invés de definir um novo formalismo lógico, ou de estender um formalismo existente com uma semântica operacional, define-se as noções de crenças, desejos e intenções utilizando um formalismo lógico que seja, ao mesmo tempo, formalmente bem-definido e computacional. O formalismo escolhido é a Programação em Lógica Estendida com Negação Explícita (ELP) com a semântica dada pelaWFSX (Well-Founded Semantics with Explicit Negation - Semântica Bem-Fundada com Negação Explícita). ELP com a WFSX (referida apenas por ELP daqui para frente) estende programas em lógica ditos normais com uma segunda negação, a negação explícita1. Esta extensão permite que informação negativa seja explicitamente representada (como uma crença que uma propriedade P não se verifica, que uma intenção I não deva se verificar) e aumenta a expressividade da linguagem. No entanto, quando se introduz informação negativa, pode ser necessário ter que se lidar com programas contraditórios. A ELP, além de fornecer os procedimentos de prova necessários para as teorias expressas na sua linguagem, também fornece um mecanismo para determinar como alterar minimamente o programa em lógica de forma a remover as possíveis contradições. O modelo aqui proposto se beneficia destas características fornecidas pelo formalismo lógico. Como é usual neste tipo de contexto, este trabalho foca na definição formal dos estados mentais em como o agente se comporta, dados tais estados mentais. Mas, constrastando com as abordagens até hoje utilizadas, o modelo apresentanto não é apenas uma especificação de agente, mas pode tanto ser executado de forma a verificar o comportamento de um agente real, como ser utilizado como mecanismo de raciocínio pelo agente durante sua execução. Para construir este modelo, parte-se da análise tradicional realizada na psicologia de senso comum, onde além de crenças e desejos, intenções também é considerada como um estado mental fundamental. Assim, inicialmente define-se estes três estados mentais e as relações estáticas entre eles, notadamente restrições sobre a consistência entre estes estados mentais. Em seguida, parte-se para a definição de aspectos dinâmicos dos estados mentais, especificamente como um agente escolhe estas intenções, e quando e como ele revisa estas intenções. Em resumo, o modelo resultante possui duas características fundamentais:(1) ele pode ser usado como um ambiente para a especificação de agentes, onde é possível definir formalmente agentes utilizando estados mentais, definir formalmente propriedades para os agentes e verificar se estas propriedades são satifeitas pelos agentes; e (2) também como ambientes para implementar agentes.
Resumo:
A pesquisa versa sobre a importância da liderança para uma eficiente prestação jurisdicional, a qual resulta de um concatenado trabalho de equipe entre o juiz e os servidores de uma determinada unidade judicial. A necessidade de o magistrado contribuir para a formação de uma equipe de alto desempenho para o enfrentamento da intempestividade da prestação jurisdicional, principal problema do Poder Judiciário, buscando as almejadas celeridade e efetividade da justiça. A qualidade da prestação jurisdicional dependerá da gestão imprimida pelo juiz na sua unidade. A pesquisa aponta para a necessidade de o juiz exercer sua atividade meio como um líder, dominando técnicas modernas de gestão e também influenciando sua equipe em busca da excelência. Será analisado o tipo de liderança que melhor se amolda à judicatura, que é a servidora. Nela o magistrado identifica as necessidades de seus funcionários e trata de supri-las, recebendo em troca a máxima dedicação e motivação possíveis. O juiz líder administra sua unidade e forja uma equipe qualificada e motivada. Em face da impossibilidade de conceituar o juiz líder, são apontados os seus traços característicos, que o tornam o novo modelo do juiz brasileiro: o juiz líder servidor. Identificação dessas características na dimensão organizacional, na dimensão interpessoal, bem como as habilidades pessoais que o definem. Por fim, é abordada a necessidade de o Judiciário refletir sobre o atual sistema de recrutamento seletivo dos magistrados, priorizando a escolha sobre pessoas vocacionadas e, após a seleção, investir na constante formação de líderes nos seus quadros que, alinhados, proporcionarão uma justiça célere, humana, justa e efetiva.
Resumo:
A crise brasileira dos anos 80 encerrou o ciclo desenvolvimentista, que prevaleceu no país por mais de 30 anos, e abriu as portas para uma série de *transformações importantes na economia brasileira. Nos anos 90 iniciou-se a reforma do Estado e a liberalização comercial e financeira, que seria ampliada e consolidada com o Plano Real. O objetivo deste trabalho é avaliar a natureza e a magnitude dessas transformações na política econômica brasileira, verificando em que medida elas lançam as bases para um novo modelo econômico no Brasil. Até que ponto a turbulência financeira internacional e a crise cambial de 1998/99 comprometeram esse modelo? Quais são as conseqüências do abandono da âncora cambial e a adoção do ajuste imposto pelo FMI?