982 resultados para Teoria da Escolha Racional
Resumo:
Esta tese de doutorado apresenta a teoria da Relação Cronointervalar, a qual propõe critérios para a estruturação do andamento em composição musical, demonstrando como trocas de andamento regidas por proporções matemáticas presentes na série harmônica, podem relacionar-se com centros harmônicos, movimentos melódicos, compassos irregulares, entre outros elementos, de uma composição. A teoria da Relação Cronointervalar pretende oferecer uma ferramenta composicional que venha a acrescentar-se ao desenvolvimento das técnicas de organização do andamento, explorando aspectos não presentes em modelos anteriores. É nossa intenção que a teoria ofereça princípios e aplicabilidade relativamente simples, de forma que esta venha a ter o potencial de ser utilizada por uma gama ampla de interessados, estudantes de composição, professores de composição e compositores, nas suas atividades específicas e também no ensino da composição. A teoria da Relação Cronointervalar, tal como formulada, poderá contribuir para a área de composição/teoria, uma vez que o modelo desenvolvido venha a tornar-se técnica composicional sistematizada e com aplicabilidade definida, oferecendo assim uma nova ferramenta com o seu respectivo referencial teórico para a organização do andamento em composição.
Resumo:
Neste trabalho, faz-se uma análise dos textos das provas do Concurso Vestibular UFRGS 2001 a partir da Lingüística Textual, tendo-se como referência Teorias da Enunciação. Busca-se verificar como se caracterizam os textos das provas do ponto de vista lingüístico. Para isso, baseando-se em elementos de textualização, analisam-se alguns aspectos que se destacaram na organização estrutural e enunciativa dos textos das provas. Nesta análise, faz-se também uma tipologização das seqüências textuais que aparecem nos textos das questões das provas. Conclui-se que os textos das provas do vestibular da UFRGS de 2001 caracterizam-se por estabelecer uma aparente proximidade do enunciador com o leitor por meio de alguns recursos de modalização enunciativa e, ao mesmo tempo, por uma tentativa de não-marcação da enunciação, tendo em vista se inserirem numa situação formal de avaliação. A forma como se compõem os textos das provas revela a tentativa de um máximo controle do sentido. É necessário, durante a elaboração das provas, que sejam previstos os conhecimentos e inferências que o leitor poderá fazer a partir de seu conhecimento de mundo e do conhecimento do conteúdo que está sendo avaliado. Por sua vez, o leitor precisa relacionar e mobilizar o seu conhecimento de mundo e do conteúdo avaliado com o que supostamente está de acordo com o mundo científico em que se insere a prova. Quanto mais os conhecimentos de mundo e de conteúdo do produtor e do leitor-candidato coincidirem, maior será a possibilidade de êxito do candidato nas provas. Este trabalho é de interesse especialmente aos estudiosos de língua em seus aspectos textuais e enunciativos, mas também o consideramos pertinente aos professores que preparam seus alunos para provas de escolha múltipla, seja de vestibulares ou concursos públicos em geral.
Resumo:
Teoria das Categorias é uma ramificação da Matemática Pura relativamente recente, tendo sua base sido enunciada ao final da primeira metade do século XX. Embora seja Teoria de grande expressividade, sua aplicação efetiva tem encontrado até o momento grandes obstáculos, todos decorrência natural da brevidade de sua História. A baixa oferta de bibliografia (e predominantemente em língua inglesa) e a falta de uniformidade na exposição do que sejam os tópicos introdutórios convergem e potencializam outro grande empecilho à sua propagação - a baixa oferta de cursos com enfoque em Teoria das Categorias. Consegue, a despeito destes obstáculos, arrebanhar admiradores em inúmeros centros de reconhecida excelência técnica e científica. Dentre todas as áreas do conhecimento, atrai em especial a atenção da Ciência da Computação, por características como independência de implementação, dualidade, herança de resultados, possibilidade de comparação da expressividade de outros formalismos, forte embasamento em notação gráfica e, sobretudo, pela expressividade de suas construções [MEN2001]. No Brasil, já conta com o reconhecimento de seu papel no futuro da Ciência da Computação por parte de instituições como SBC e MEC. Os obstáculos aqui descritos, entretanto, ainda necessitam ser transpostos. O presente trabalho foi desenvolvido visando contribuir nesta tarefa. O projeto consiste em uma iniciativa aplicada em Ciência da Computação, a qual visa oportunizar o franco acesso aos conceitos categoriais introdutórios: uma aplicação de computador que faça amplo uso de representação diagramática para apresentar a proposição de conceitos básicos do grupo de pesquisa em Teoria das Categorias do Instituto de Informática da UFRGS. A proposição e implementação de uma ferramenta, embora não constitua iniciativa inédita no mundo, até onde se sabe é a segunda experiência desta natureza. Ademais, vale destacar que os conceitos tratados, assim como os objetivos visados, são atendidos de forma única e exclusiva por esta aplicação. Conjuntamente, vislumbra-se a aplicação desenvolvida desempenhando importante papel de agente catalisador na propagação da visão dos Grupos de Pesquisa em Teoria das Categorias da UFRGS e da PUC/RJ do que sejam os "conceitos categoriais introdutórios".
Resumo:
Uma aplicação distribuída freqüentemente tem que ser especificada e implementada para executar sobre uma rede de longa distância (wide-área network-WAN), tipicamente a Internet. Neste ambiente, tais aplicações são sujeitas a defeitos do tipo colapso(falha geral num dado nó), teporização (flutuações na latência de comunicação) e omissão (perdas de mensagens). Para evitar que este defeitos gerem comseqüências indesejáveis e irreparáveis na aplicação, explora-se técnicas para tolerá-los. A abstração de detectores de defeitos não confiáveis auxilia a especificação e trato de algoritmos distribuídos utilizados em sistemas tolerantes a falhas, pois permite uma modelagem baseada na noção de estado (suspeito ou não suspeito) dos componentes (objetos, processo ou processadores) da aplicação. Para garantir terminação, os algoritmos de detecção de defeitos costumam utilizar a noção de limites de tempo de espera (timeout). Adicionalmente, para minimizar seu erro (falasas suspeitas) e não comprometer seu desempenho (tempo para detecção de um defeito), alguns detectores de defeitos ajustam dinamicamente o timeout com base em previsões do atraso de comunicação. Esta tese explora o ajuste dinâmico do timeout realizado de acordo com métodos de previsão baseados na teoria de séries temporais. Tais métodos supõem uma amostragem periódica e fornececm estimativas relativamente confiáveis do comportamento futuro da variável aleatória. Neste trabalho é especificado uma interface para transformar uma amostragem aperiódica do atraso de ida e volta de uma mensagem (rtt) numa amostragem periódica, é analisado comportamento de séries reais do rtt e a precisão dee sete preditores distintos (três baseados em séries temporais e quatrro não), e é avaliado a influência destes preditores na qualidade de serviço de um detector de defeitos do estilopull. Uma arquitetura orientada a objetos que possibilita a escolha/troca de algoritmos de previsão e de margem de segurança é também proposta. Como resultado, esta tese mostra: (i) que embora a amostragem do rtt seja aperiódica, pode-se modelá-la como sendo uma série temporal (uma amostragem periódica) aplciando uma interface de transformação; (ii) que a série temporal rtt é não estacionária na maioria dos casos de teste, contradizendo a maioria das hipóteses comumente consideradas em detectores de defeitos; (iii) que dentre sete modelos de predição, o modelo ARIMA (autoregressive integrated moving-average model) é o que oferece a melhor precisão na predição de atrasos de comunicação, em termos do erro quadrático médio: (iv) que o impacto de preditores baseados em séries temporais na qualidade de serviço do detector de defeitos não significativo em relação a modelos bem mais simples, mas varia dependendo da margem de segurança adotada; e (v) que um serviço de detecção de defeitos pode possibilitar a fácil escolha de algoritmos de previsão e de margens de segurança, pois o preditor pode ser modelado como sendo um módulo dissociado do detector.
Resumo:
Esta pesquisa trata do tema conflito e negociação. O objetivo geral foi mapear e analisar situações de conflito e o seu processo de negociação em uma indústria de transformação do Rio Grande do Sul. Utilizou-se tanto o método do estudo de caso para uma pesquisa exploratória e de caráter descritivo, como a pesquisa-ação. Os sujeitos da pesquisa foram 21 alunos de um curso de “Negociação” em abril de 2002, o superintendente e a chefia do setor Talentos Humanos da empresa. Para a coleta dos dados foram utilizadas observações participantes, análise de documentos, filmagens e entrevistas semi-estruturadas. A coleta de dados ocorreu entre abril de 2002 e abril de 2003. Investigou-se e foi realizada intervenção na dinâmica dos conflitos no âmbito interno da empresa, diagnosticando os conflitos e analisando os resultados obtidos por meio do método de negociação desenvolvido na Universidade de Harvard. Os resultados demonstraram que a iniciativa para a escolha do modelo negocial integrativo ou competitivo partia da chefia; os subordinados apenas reagiam seguindo o modelo proposto, ou seja, de forma integrativa ou competitiva. Em se tratando de negociações entre colegas e com fornecedores, o modelo integrativo era adotado por iniciativa dos sujeitos, inclusive virando jogos competitivos em integrativos. Também foi constatado que a utilização do processo integrativo para solução de conflitos/problemas no âmbito organizacional é uma forma apropriada para melhores resultados e mais satisfação para todos os envolvidos, humanizando e trazendo a ética para as relações. A participação de uma terceira pessoa na reformulação da forma de negociar trouxe desdobramentos significativos para os sujeitos, atribuindo-se a isso a postura imparcial e a credibilidade alcançada. Finalmente, as conexões entre o pensamento de Habermas desenvolvido na Teoria da Ação Comunicativa e o método de negociação de Harvard ficaram evidentes.
Resumo:
A Teoria da Mente é uma área de estudo que investiga a compreensão da mente pelas crianças pequenas. Uma das questões centrais nesta investigação refere-se a quando a criança começa a entender a mente em sua dimensão metarrepresentativa. Neste estudo, examinou-se o status metarrepresentativo da brincadeira de faz-de-conta, considerada como uma das atividades que indicam a presença de uma teoria da mente, e a sua relação com o nível representativo apresentado nas tarefas de crença falsa e de aparência-realidade, e no emprego de termos mentais. Os dados foram obtidos através de testagem, entrevista e de uma sessão de observação, em que cada um dos sete participantes, com seis anos de idade, foi observado por vinte minutos. As crianças foram filmadas interagindo com colegas e brinquedos e suas falas gravadas, utilizando-se um microfone de lapela. Os resultados mostraram que todas as crianças do estudo resolveram as tarefas de crença falsa e de aparência-realidade, indicando a presença de uma teoria da mente e da capacidade de metarrepresentação. Quanto à brincadeira de faz-de-conta, houve predomínio de episódios categorisados como de brinquedo não-metarrepresentativo, apesar de seis crianças apresentarem episódios de faz-de-conta metarrepresentativo. Quanto ao uso de termos mentais, cinco crianças, em suas conversações, empregaram termos mentais considerados metarrepresentativos. Apesar das crianças apresentarem episódios de faz-de-conta metarrepresentativo, de resolverem corretamente as tarefas e de empregarem termos mentais que requerem metarrepresentação para serem compreendidos, não parece haver uma relação linear entre esses indicadores. Os resultados confirmam a hipótese de alguns autores de que a brincadeira de faz-de-conta metarrepresentativa ocorre mais tardiamente no desenvolvimento, estando estreitamente relacionada à compreensão da sintaxe do termo mental fazer de conta.
Resumo:
Materiais compósitos são empregados nos mais diversos tipos de estruturas (civis, mecânicas, aeronáuticas, etc.). A possibilidade de otimização de suas propriedades, frente às solicitações consideradas, representa uma grande vantagem na sua utilização. A teoria da homogeneização permite a avaliação da influência de detalhes microestruturais nas características do composto através do estudo de uma célula elementar. Os deslocamentos periódicos dessa célula são aproximados com expansões ortogonais polinomiais. A exatidão dos cálculos elásticos está associada ao grau dos polinômios utilizados. O procedimento numérico no modelo viscoelástico é incremental no tempo, utilizando-se de variáveis de estado, cuja implementação proporciona grande economia computacional, pois evita o cálculo de integrais hereditárias. A influência de diversos parâmetros físicos na constituição dos compósitos de fibras unidirecionais estudados é discutida e comparada com resultados obtidos com modelos em elementos finitos, tanto em elasticidade, quanto em viscoelasticidade sem envelhecimento. Para o caso de envelhecimento, no qual as características dos constituintes são variáveis com o tempo, é mostrada a resposta dos compósitos sob relaxação para diferentes instantes iniciais de carregamento em situações de "softening" (ou abrandamento) e "hardening" (ou endurecimento).
Resumo:
O objetivo desse trabalho é calcular o subsídio implícito aos produtores de arroz agulhinha, feijão preto, milho e soja, proveniente da política de preços mínimos, através da avaliação dos prêmios das opções de venda que correspondem à política de preços mínimos para essas commodities.
Resumo:
Um levantamento da literatura teórica desde Tobin (65), revela que ainda não se dispõe de uma teoria abrangente que explique efeito da inflação sobre os agregados reais da economia e, principalmente, sobre crescimento do produto. Nem se dispõe de uma teoria respeito do efeito que incerteza exerce sobre crescimento. Os primeiros trabalhos empíricos sobre assunto, realizados na década de 80, indicavam um efeito negativo da inflação, mas um efeito positivo da incerteza, sobre crescimento. Trabalhos mais recentes, utilizando métodos econométricos mais atualizados, conduzem ao resultado oposto: incerteza reduz crescimento. Este trabalho se propõe investigar efeito conjunto da inflação da incerteza por ela causada sobre bem estar social na América Latina nas três últimas décadas, por um método que preserve dinâmica do processo. escolha desta região se justifica pelo fato de que seus países, embora relativamente homogêneos, em termos de cultura estágio de desenvolvimento econômico, apresentam taxas de inflação bem diferenciadas. Usa-se um modelo ARCH simplificado relacionando taxa de crescimento do consumo em cada país, em cada ano, com sua variância esta com inflação no mesmo país, no ano anterior. seguir, usam-se os resultados obtidos para medir-se, por um cálculo semelhante ao de Lucas (87), custo em termos de bem estar social associado, em cada país, inflação média no período 1962-1989, em comparação com (i) zero de inflação (ii) inflação média dos países do G-7, no mesmo período. modelo ARCH confirma os resultados de trabalhos recentes: inflação, através da incerteza por ela causada, reduz crescimento. Além disso, permite concluir que custo da inflação, em termos de bem estar social medido pela porcentagem adicional de consumo necessário para compensá-la, substancial. Mesmo níveis baixos, de 3-10 ao ano, inflação impõe uma perda de 0,6-3,3 do consumo, conforme coeficiente de desconto intertemporal utilizado. Para Brasil, este custo foi de 8-19 do consumo, para uma inflação média de 60 ao ano (em PPP). Os resultados obtidos parecem (i) confirmar que efeito da inflação sobre bem estar social não linear (ii) indicar que esta não-linearidade pode ser explicada pelo efeito negativo da inflação, via incerteza, sobre crescimento longo prazo do consumo e, em conseqüência, sobre bem estar social.
Resumo:
Este artigo analisa a série de consumo agregado do Brasil. Como usual, investigamos, primeiramente, a aplicabilidade da hipótese do passeio aleatório do consumo, derivada teoricamente a partir das hipóteses de ciclo de vida/renda permanente e expectativas racionais (TRP). Utilizando a decomposição de Beveridge e Nelson (1981) verificamos que o consumo apresenta, além de uma tendência estocástica, uma parte cíclica estacionária, o que não é compatível com a TRP. Este resultado está em conformidade com o resultado de Reis et alii (1998) de que grande parte da população brasileira está restrita a consumir sua renda corrente, existindo um ciclo comum entre consumo e renda. Em uma tentativa de gerar um processo estocástico para o consumo compatível com a evidência empírica introduzimos formação de hábito nas preferências de um consumidor representativo. No entanto, o processo daí derivado não se mostrou significativo diante da possibilidade dos consumidores serem restritos à liquidez.
Resumo:
None
Resumo:
Este trabalho busca explorar, através de testes empíricos, qual das duas principais teorias de escolha de estrutura ótima de capital das empresas, a Static Trade-off Theory (STT) ou a Pecking Order Theory(POT) melhor explica as decisões de financiamento das companhias brasileiras. Adicionalmente, foi estudado o efeito da assimetria de informações, desempenho e liquidez do mercado acionário nessas decisões. Utilizou-se no presente trabalho métodos econométricos com dados de empresas brasileiras de capital aberto no período abrangendo 1995 a 2005, testando dois modelos representativos da Static Trade-off Theory (STT) e da Pecking Order Theory(POT). Inicialmente, foi testado o grupo amplo de empresas e, posteriormente, realizou-se o teste em subgrupos, controlando os efeitos de desempenho e liquidez do mercado acionário, liquidez das ações das empresas tomadoras e assimetria de informações. Desta forma, os resultados obtidos são indicativos de que a Pecking Order Theory, na sua forma semi-forte, se constitui na melhor teoria explicativa quanto à escolha da estrutura de capital das empresas brasileiras, na qual a geração interna de caixa e o endividamento oneroso e operacional é a fonte prioritária de recursos da companhia, havendo algum nível, embora baixo, da utilização de emissão de ações. Os estudos empíricos para os subgrupos de controle sugerem que a liquidez do mercado e liquidez das ações das empresas são fatores de influência na propensão das empresas emitirem ações, assim como a assimetria de informação. O desempenho do mercado acionário, com base nos dados analisados, aparenta ter pouca influência na captação de recursos via emissões de ações das empresas, não sendo feito no presente estudo distinções entre emissões públicas ou privadas
Resumo:
Devido à necessidade de permanecer competitiva e rentável, a indústriada construção civil tem mudado a forma de conduzir seus negócios e adaptado filosofias gerenciais para a suarealidade, como é o casodo Just-in-Time (JIT)e dos Sistemas da Oualidade (por exemplo: TOM e TOC). Dentro deste contexto, encontra-se a aplicação da Teoria das Restrições (TR) no processo de Planejamento e Controle da Produção (PCP) de obras de edificação. A Teoria das Restrições é uma filosofia gerencial fundamentada no conceito de restrição e em como gerenciar as restrições identificadas, fornecendo: (a) um procedimento para os responsáveis pela produção identificarem onde e como concentrar esforços e (b) um processo de melhoria contínua para o sistema produtivo como um todo, buscando sempre o ótimo globalantes do local. O desconhecimento dos possíveis benefícios e dificuldades decorrentes da adaptação e aplicação desta teoria na indústria da construção civil fez com que a aplicação da Teoria das Restrições fosse simulada, usando a técnica STROBOSCOPE (Stateand Resource Based Simulation of Construction Processes), em um empreendimento para analisar os impactos que prazos e custos podem sofrer durante as aplicações em casos reais. Estas simulações mostraram que a Teoria das Restrições e suas técnicas e ferramentas são aplicáveis ao processo de PCP, reduzindo os atrasos e os custos por atraso que um empreendimento pode sofrer.