997 resultados para Teoria do U


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Wydział Nauk Społecznych: Instytut Psychologii

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Trabalho de Projecto apresentado para cumprimento dos requisitos necessários à obtenção do grau de Mestre em Novos Media e Práticas Web

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Lan honen helburua , Howard Gardner - rek proposatutako Adimen Anitzen Teoriaren inguruan hausnarketa eta ike rketa egitea izan da , baita hezkuntza eremuan ezartzearen aukera aztertzea ere. Proposamen honek, adimena bakarra eta orokorra denaren paradigma tradizionala apurtu zuen, adimena anitza dela azpimarratuz. Hortaz, teoria honen ezarpena eskoletan, aldaketa s akona suposatzen du. Izan ere, ikasteko dauden modu desberdinak errespetatuz, pertsona guztiei erantzun egokia ematea lortuko litzateke, modu honetan, eskola zein gizarte inklusiboa lortzeko ateak zabalduz.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

[ES]La adaptación de la Universidad Española al Espacio Europeo de Educación Superior (EEES) ha supuesto un cambio en los estudios universitarios que se advierte en su estructura (títulos de grado de cuatro años,) y que debe manifestarse también en las metodologías utilizadas. En los estudios de Magisterio la nueva ordenación de las enseñanzas ha supuesto la unificación de las anteriores especialidades en dos títulos de grado: Maestro de Educación Infantil y Maestro de Educación Primaria. En estos nuevos títulos las Prácticas de Enseñanza continúan teniendo un importante papel y constituyen un momento privilegiado de integración entre la teoría y la realidad de las aulas. El Practicum es el conjunto de actividades en las que diversas instituciones colaboran con la Escuela Universitaria de Magisterio, a fin de poner al alumnado en contacto con el mundo profesional. Supone la inmersión de los estudiantes en centros educativos con la finalidad de conocerlos directamente, integrar conocimientos teórico-prácticos, y adquirir competencias profesionales en todos los ámbitos de actuación.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Os aspectos quânticos de teorias de campo formuladas no espaço-tempo não comutativo têm sido amplamente estudados ao longo dos anos. Um dos principais aspectos é o que na literatura ficou conhecido como mixing IR/UV. Trata-se de uma mistura das divergências, que foi vista pela primeira vez no trabalho de Minwalla et al [28], onde num estudo do campo escalar não comutativo com interação quártica vemos já a 1 loop que o tadpole tem uma divergência UV associada a sua parte planar e, junto com ela, temos uma divergência IR associada com um gráfico não planar. Essa mistura torna a teoria não renormalizável. Dado tal problema, houve então uma busca por mecanismos que separassem essas divergências a fim de termos teorias renormalizáveis. Um mecanismo proposto foi a adição de um termo não local na ação U*(1) para que esta seja estável.Neste trabalho, estudamos através da renormalização algébrica a estabilidade deste modelo. Para tal, precisamos localizar o operador não local através de campos auxiliares e seus respectivos ghosts (metodo de Zwanziger) na intenção de retirar os graus de liberdade indesejados que surgem. Usamos o approachda quebra soft de BRST para analisar o termo que quebra BRST, que consiste em reescrevermos tal termo com o auxílio de fontes externas que num determinado limite físico voltam ao termo original.Como resultado, vimos que a teoria com a adição deste termo na ação só é renormalizável se tivermos que introduzir novos termos, sendo alguns deles quárticos. Porém, estes termos mudam a forma do propagador, que não desacopla as divergências. Um outro aspecto que podemos salientar é que, dependendo da escolha de alguns parâmetros, o propagador dá indícios de termos um fótonconfinante, seguindo o critério de Wilson e o critério da perda da positividade do propagador.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The consumption of energy on the planet is currently based on fossil fuels. They are responsible for adverse effects on the environment. Renewables propose solutions for this scenario, but must face issues related to the capacity of the power supply. Wind energy offshore emerging as a promising alternative. The speed and stability are greater winds over oceans, but the variability of these may cause inconvenience to the generation of electric power fluctuations. To reduce this, a combination of wind farms geographically distributed was proposed. The greater the distance between them, the lower the correlation between the wind velocity, increasing the likelihood that together achieve more stable power system with less fluctuations in power generation. The efficient use of production capacity of the wind park however, depends on their distribution in marine environments. The objective of this research was to analyze the optimal allocation of wind farms offshore on the east coast of the U.S. by Modern Portfolio Theory. The Modern Portfolio Theory was used so that the process of building portfolios of wind energy offshore contemplate the particularity of intermittency of wind, through calculations of return and risk of the production of wind farms. The research was conducted with 25.934 observations of energy produced by wind farms 11 hypothetical offshore, from the installation of 01 simulated ocean turbine with a capacity of 5 MW. The data show hourly time resolution and covers the period between January 1, 1998 until December 31, 2002. Through the Matlab R software, six were calculated minimum variance portfolios, each for a period of time distinct. Given the inequality of the variability of wind over time, set up four strategies rebalancing to evaluate the performance of the related portfolios, which enabled us to identify the most beneficial to the stability of the wind energy production offshore. The results showed that the production of wind energy for 1998, 1999, 2000 and 2001 should be considered by the portfolio weights calculated for the same periods, respectively. Energy data for 2002 should use the weights derived from the portfolio calculated in the previous time period. Finally, the production of wind energy in the period 1998-2002 should also be weighted by 1/11. It follows therefore that the portfolios found failed to show reduced levels of variability when compared to the individual production of wind farms hypothetical offshore

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The right against self-incrimination is a fundamental right that works in the criminal prosecution, and therefore deserves a study supported by the general theory of criminal procedure. The right has a vague origin, and despite the various historical accounts only arises when there is a criminal procedure structured that aims to limit the State´s duty-power to punish. The only system of criminal procedure experienced that reconciles with seal self-incrimination is the accusatory model. The inquisitorial model is based on the construction of a truth and obtaining the confession at any cost, and is therefore incompatible with the right in study. The consecration of the right arises with the importance that fundamental rights have come to occupy in the Democratic Constitutional States. In the Brazilian experience before 1988 was only possible to recognize that self-incrimination represented a procedural burden for accused persons. Despite thorough debate in the Constituent Assembly, the right remains consecrated in a textual formula that´s closer to the implementation made by the Supreme Court of the United States, known as "Miranda warnings", than the text of the Fifth Amendment to the U.S. Constitution that established originally the right against self-incrimination with a constitutional status. However, the imprecise text does not prevent the consecration of the principle as a fundamental right in Brazilian law. The right against self-incrimination is a right that should be observed in the Criminal Procedure and relates to several of his canons, such as the the presumption of not guilty, the accusatory model, the distribution of the burden of proof, and especially the right of defense. Because it a fundamental right, the prohibition of self-incrimination deserves a proper study to her constitutional nature. For the definition of protected persons is important to build a material concept of accused, which is different of the formal concept over who is denounced on the prosecution. In the objective area of protection, there are two objects of protection of the norm: the instinct of self-preservation of the subject and the ability to self-determination. Configuring essentially a evidence rule in criminal procedure, the analysis of the case should be based on standards set previously to indicate respect for the right. These standard include the right to information of the accused, the right to counsel and respect the voluntary participation. The study of violations cases, concentrated on the element of voluntariness, starting from the definition of what is or is not a coercion violative of self-determination. The right faces new challenges that deserve attention, especially the fight against terrorism and organized crime that force the development of tools, resources and technologies about proves, methods increasingly invasive and hidden, and allow the use of information not only for criminal prosecution, but also for the establishment of an intelligence strategy in the development of national and public security

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This thesis aims to analyze the applicability of Lean Six Sigma and DMAIC to improve processes focused on agriculture. We discuss the origins of each system separately, Lean Manufacturing, the Toyota plants in Japan, and Six Sigma, by Motorola in the U.S., and then appears to merge them and can meet their complementarities and synergy between their tools. Finally, we describe a case study focused on the harvesting department, applicable to all types of manuals crops, covering the production of fruits, vegetables and greens. This study shows the ability to reduce costs, increase productivity and elimination of defects that the methodology developed with the fusion of Lean Manufacturing with Six Sigma allows

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This dissertation aims to analyse the development of the deliberative model of democracy in the U.S., both in an empirical and theoretical levels, from its origins in the eighties of the last century until now. In the first part we study the political and historical elements that build the crisis of the Liberal political system in the seventies in the U.S. and its effects on the political behaviour of citizens. In the second part we discuss the origins and development of the deliberative theory of democracy, its main authors, approaches and elements. The key aspect of this model of democracy is to reverse the apathy and strength the political participation of citizens through public deliberation. In the last part we expose the practical level of the deliberative democracy: how this theory of has been put into practice in the American political domain. We describe the main projects of deliberative democracy rose from civil society from the eighties until today. Finally, we expose the James Fishkin’s proposal of deliberative poll. This is the link between the empirical and theoretical levels of the deliberative model of democracy.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Neste trabalho, foi proposta uma nova família de distribuições, a qual permite modelar dados de sobrevivência quando a função de risco tem formas unimodal e U (banheira). Ainda, foram consideradas as modificações das distribuições Weibull, Fréchet, half-normal generalizada, log-logística e lognormal. Tomando dados não-censurados e censurados, considerou-se os estimadores de máxima verossimilhança para o modelo proposto, a fim de verificar a flexibilidade da nova família. Além disso, um modelo de regressão locação-escala foi utilizado para verificar a influência de covariáveis nos tempos de sobrevida. Adicionalmente, conduziu-se uma análise de resíduos baseada nos resíduos deviance modificada. Estudos de simulação, utilizando-se de diferentes atribuições dos parâmetros, porcentagens de censura e tamanhos amostrais, foram conduzidos com o objetivo de verificar a distribuição empírica dos resíduos tipo martingale e deviance modificada. Para detectar observações influentes, foram utilizadas medidas de influência local, que são medidas de diagnóstico baseadas em pequenas perturbações nos dados ou no modelo proposto. Podem ocorrer situações em que a suposição de independência entre os tempos de falha e censura não seja válida. Assim, outro objetivo desse trabalho é considerar o mecanismo de censura informativa, baseado na verossimilhança marginal, considerando a distribuição log-odd log-logística Weibull na modelagem. Por fim, as metodologias descritas são aplicadas a conjuntos de dados reais.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Available on demand as hard copy or computer file from Cornell University Library.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Available on demand as hard copy or computer file from Cornell University Library.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O objetivo deste trabalho é testar a teoria da Paridade de Poder de Compra em sua versão absoluta e relativa para o Brasil no período de 1995 a 2010, utilizando procedimentos da econometria visando estabelecer através de testes de hipóteses a validação ou rejeição da teoria da Paridade do Poder de Compra. Para a verificação serão utilizados os testes de Dickey-Fuller (DF), Dickey-Fuller Ampliado (ADF) e testes de Cointegração de Engle e Granger e Joahansen. Adotamos para o estudo os países EUA e Brasil, tendo em vista o fluxo de comércio entre estes países e sua importância na economia mundial. Através dos índices de preço IPA e PPI analisarse- á a validação da teoria da Paridade de Poder de Compra em sua versão relativa e absoluta, chegando-se a conclusão de aceitação de sua versão relativa e rejeição de sua versão absoluta.