882 resultados para One free bad policy


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Includes bibliography

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

30.00% 30.00%

Publicador:

Resumo:

China has become a major player in world trade. Although it has not signed any trade agreements with the countries of the North American Free Trade Agreement (NAFTA), China has been gaining ground as a supplier of goods, making vigorous inroads into this area. One of the dominant trends in economic integration has been the development of intra-industry trade, which has flourished in the nafta signatory countries. This paper focuses on the analysis of intra-industry trade in the context of this free trade area, where the production structure of the countries involved has changed significantly since trade liberalization, revealing the internationalization of production chains. Lastly, changes in the trade structure induced by the growing presence of China in the nafta region are captured. Trade within this area works like a radiated wheel, with the United States acting as the axis, while China, Canada and Mexico operate as the spokes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Taking account of the substantial increase in female labour market participation that has occurred throughout the Latin American region, this article describes policies adopted with the aim of reconciling work and family responsibilities between 2003 and 2013, and the implications of their design for socioeconomic and gender equity. We look at the cases of Argentina, Brazil, Chile, Costa Rica and Uruguay, five countries which, on the basis of their track records, are the best placed to implement policies to reorganize time, income and services. The empirical analysis indicates, first, that these changes have contributed to socioeconomic equity more consistently than to gender equity. Second, the scale and type of change was found to vary significantly from one country to another. The article concludes by raising a number of substantive questions about the measures, their implementation and effectiveness, and the variations between countries.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The biotechnology movement in the Caribbean is a fledgling industry that has tremendous potential for development. It focuses on the use of fermentation and enzyme technologies, tissue culture and recombinant DNA (rDNA) technology and is more greatly applied to plant varieties rather than animal species. Tissue culture is by far the most developed type of technology but increasing attention is being paid to rDNA technology. Main areas include application in the agriculture sector but the use in medicine and biology are also being promoted. In its purest form, the term "biotechnology" refers to the use of living organisms or their products to modify human health and the human environment for commercial purposes. The term brings to mind many different things. Some think of developing new types of animals while others anticipate almost unlimited sources of human therapeutic drugs. Still others envision the possibility of growing crops that are more nutritious and naturally pest-resistant to feed a rapidly growing world population. Biotechnology in one form or another has flourished since prehistoric times. When the first human beings realized that they could plant their own crops and breed their own animals, they learned to use biotechnology. The discovery that fruit juices fermented into wine or that milk could be converted into cheese or yogurt, or that beer could be made by fermenting solutions of malt and hops began the study of biotechnology. When the first bakers found that they could make soft, spongy bread rather than a firm, thin cracker, they were acting as fledgling biotechnologists. The first animal breeders, realizing that different physical traits could be either magnified or lost by mating appropriate pairs of animals, engaged in the manipulations of biotechnology. Throughout human history, we have learned a great deal about the different organisms that our ancestors used so effectively. The marked increase in our understanding of these organisms and their cell products gains us the ability to control the many functions of various cells and organisms. Using the techniques of gene splicing and recombinant DNA technology, we can now actually combine the genetic elements of two or more living cells. Functioning lengths of DNA can be taken from one organism and placed into the cells of another organism. As a result, for example, we can cause bacterial cells to produce human molecules. Cows can produce more milk for the same amount of feed. And we can synthesize therapeutic molecules that have never before existed.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

One of the consequences of the recent international economic crisis has been the demand for new economic policy tools, to add to the well-established monetary, exchange-rate, and fiscal policy mechanisms. In particular, more effective ways are needed to regulate the financial system and prevent the emergence of imbalances that affect the real economy. In that context, macroprudential policy has been singled out as another economic-type public policy which could help maintain financial stability. Nonetheless, the discussions and development of the literature on this topic are founded on pragmatic considerations that are not directly related to the orthodox or heterodox schools of economic thought. So the aim of this article is to provide an institutionalist reading of macroprudential policy, to understand it in terms of the theoretical content of institutional approaches.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O estudo teve por objetivo: compreender o processo de consolidação da avaliação na educação superior que, a partir da década de 1990, se materializou nas aferições do Exame Nacional de Cursos (ENC), a fim de interpretar como esse exame repercutiu no Curso de Pedagogia da UFPA, em Santarém. A pesquisa teve por objeto de estudo o Exame Nacional de Cursos e partiu das seguintes questões: a) De que forma se desencadeou o processo histórico de constitucionalização e institucionalização da avaliação no Campo Educacional Brasileiro, especificamente na educação superior? b) Como se consolidou a Política de Avaliação da Educação Superior consubstanciada no ENC no país? e c) Como repercutiram as aferições do ENC no âmbito do Curso de Pedagogia da UFPA, em Santarém? O enfoque foi o sócio-histórico e a abordagem historiográfica, com base na Escola de Analles. Constou de pesquisa documental e análise dos relatos orais de docentes e egressos do Curso, coletados através de entrevista semi-estruturada. Os resultados da investigação mostram que a avaliação da educação superior vem sendo estruturada, desde a implantação dos primeiros cursos de nível superior, com o objetivo de estabelecer controle externo sobre as IES. Na década de 90, o Brasil planejou suas políticas econômicas e educativas iluminado pelas estratégias de ajuste estrutural formuladas pelo FMI e pelo Banco Mundial, em sintonia com os interesses econômicos internacionais. O ENC expressou a opção do Estado brasileiro pela avaliação por exame e seu atrelamento às determinações de organismos internacionais. Foi uma tecnologia de regulação, controle e aferição diagnóstica e camuflou o conflito em torno de dois paradigmas avaliativos que marcaram seu tempo e projetaram os acontecimentos atuais. Um defendido pelo ANDES, que pensava a avaliação a partir de um Programa Institucional autônomo e democrático e o outro originário das determinações do Estado que instituiu a avaliação como política pública, expressa em um Sistema Nacional de Avaliação das IES. As repercussões do ENC no Curso de Pedagogia foram percebidas pelos sujeitos sob forma de pressão, medo, apreensão, terror, angústia, conflito, pavor, ansiedade, agressão e preocupação, mas, representou também, muita determinação pessoal em superar os limites interpostos pelo Estado ao Curso. O ENC repercutiu contraditoriamente, ao produzir, ao mesmo tempo, um estado de tensão e prontidão nos alunos e professores, uma postura de aceitação consciente e intencional ao se submeterem a um exame imposto para assegurar um resultado positivo ao Curso e a UFPA.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho teve por objetivo analisar o processo de mercantilização da educação superior, partindo do estudo dos cursos de pós-graduação lato sensu da Universidade Federal do Pará (UFPA), no período de 2008 a 2012. Entendemos que a pós-graduação lato sensu - PGLS ganhou destaque no Brasil para atender a uma demanda de profissionais carentes de qualificação, em nível superior, para atuar no mercado de trabalho. No entanto, a partir de 1990, a mesma ganha novos contornos, sendo desvinculada da CAPES e sem um órgão regulador que controle sua oferta, aliado ao fato de não ser atendida pela política educacional de pós-graduação. O cenário que se encontra em vigor é a oferta de cursos autofinanciados e conveniados, sendo mantidos mediante cobrança de mensalidades ou convênio com outras instituições. O fato gera algumas contradições, como no caso da legislação, para a Constituição Federal de 1988 estabelece que o ensino seja gratuito em estabelecimentos oficiais, no entanto, o Conselho Superior de Ensino, Pesquisa e Extensão da UFPA aprovou a Resolução UFPA nº 4.065/2010, regulamentando a oferta desses cursos, caracterizando assim uma das faces de adoção da lógica mercantil no interior dessa universidade pública. Para nossas análises e discussões, buscamos aproximações com o materialismo histórico-dialético e utilizamos como fonte de dados os documentos oficiais nacionais e institucionais, dados disponíveis no Sistema de Pós-Graduação On Line, Relatório de Gestão da UFPA, Pareceres de Aprovação, Projetos e Relatórios dos Cursos selecionados para compor a pesquisa, bem como entrevista semiestruturada com 10 sujeitos. Os resultados da pesquisa mostraram que dos 264 cursos lato sensu ofertados entre 2008 e 2012, 65,2% destes foram autofinanciados, 22,7% conveniados e 12,1% gratuitos. Além disso, foram identificados valores diferenciados no pagamento de hora-aula, nas mensalidades e despesas com coordenadores, principalmente entre cursos de uma mesma unidade acadêmica. Ademais, a análise da utilização dos recursos captados mostra que nos cursos autofinanciados a maioria das despesas são para pagamento de hora-aula, já os cursos conveniados destinam a maioria das receitas para manutenção dos cursos com passagens, diárias, material de escritório, e outros. Em síntese, o estudo mostra a consolidação da mercantilização da PGLS na UFPA, haja vista a rentabilidade que estes cursos propiciam, principalmente para determinadas áreas do conhecimento, seja mediante complementação salarial, seja na adequação dessa instituição à dinâmica capitalista atual no prevalecimento da lógica mercantil para a pós-graduação lato sensu.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O uso da técnica da camada equivalente na interpolação de dados de campo potencial permite levar em consideração que a anomalia, gravimétrica ou magnética, a ser interpolada é uma função harmônica. Entretanto, esta técnica tem aplicação computacional restrita aos levantamentos com pequeno número de dados, uma vez que ela exige a solução de um problema de mínimos quadrados com ordem igual a este número. Para viabilizar a aplicação da técnica da camada equivalente aos levantamentos com grande número de dados, nós desenvolvemos o conceito de observações equivalentes e o método EGTG, que, respectivamente, diminui a demanda em memória do computador e otimiza as avaliações dos produtos internos inerentes à solução dos problemas de mínimos quadrados. Basicamente, o conceito de observações equivalentes consiste em selecionar algumas observações, entre todas as observações originais, tais que o ajuste por mínimos quadrados, que ajusta as observações selecionadas, ajusta automaticamente (dentro de um critério de tolerância pré-estabelecido) todas as demais que não foram escolhidas. As observações selecionadas são denominadas observações equivalentes e as restantes são denominadas observações redundantes. Isto corresponde a partir o sistema linear original em dois sistemas lineares com ordens menores. O primeiro com apenas as observações equivalentes e o segundo apenas com as observações redundantes, de tal forma que a solução de mínimos quadrados, obtida a partir do primeiro sistema linear, é também a solução do segundo sistema. Este procedimento possibilita ajustar todos os dados amostrados usando apenas as observações equivalentes (e não todas as observações originais) o que reduz a quantidade de operações e a utilização de memória pelo computador. O método EGTG consiste, primeiramente, em identificar o produto interno como sendo uma integração discreta de uma integral analítica conhecida e, em seguida, em substituir a integração discreta pela avaliação do resultado da integral analítica. Este método deve ser aplicado quando a avaliação da integral analítica exigir menor quantidade de cálculos do que a exigida para computar a avaliação da integral discreta. Para determinar as observações equivalentes, nós desenvolvemos dois algoritmos iterativos denominados DOE e DOEg. O primeiro algoritmo identifica as observações equivalentes do sistema linear como um todo, enquanto que o segundo as identifica em subsistemas disjuntos do sistema linear original. Cada iteração do algoritmo DOEg consiste de uma aplicação do algoritmo DOE em uma partição do sistema linear original. Na interpolação, o algoritmo DOE fornece uma superfície interpoladora que ajusta todos os dados permitindo a interpolação na forma global. O algoritmo DOEg, por outro lado, otimiza a interpolação na forma local uma vez que ele emprega somente as observações equivalentes, em contraste com os algoritmos existentes para a interpolação local que empregam todas as observações. Os métodos de interpolação utilizando a técnica da camada equivalente e o método da mínima curvatura foram comparados quanto às suas capacidades de recuperar os valores verdadeiros da anomalia durante o processo de interpolação. Os testes utilizaram dados sintéticos (produzidos por modelos de fontes prismáticas) a partir dos quais os valores interpolados sobre a malha regular foram obtidos. Estes valores interpolados foram comparados com os valores teóricos, calculados a partir do modelo de fontes sobre a mesma malha, permitindo avaliar a eficiência do método de interpolação em recuperar os verdadeiros valores da anomalia. Em todos os testes realizados o método da camada equivalente recuperou mais fielmente o valor verdadeiro da anomalia do que o método da mínima curvatura. Particularmente em situações de sub-amostragem, o método da mínima curvatura se mostrou incapaz de recuperar o valor verdadeiro da anomalia nos lugares em que ela apresentou curvaturas mais pronunciadas. Para dados adquiridos em níveis diferentes o método da mínima curvatura apresentou o seu pior desempenho, ao contrário do método da camada equivalente que realizou, simultaneamente, a interpolação e o nivelamento. Utilizando o algoritmo DOE foi possível aplicar a técnica da camada equivalente na interpolação (na forma global) dos 3137 dados de anomalia ar-livre de parte do levantamento marinho Equant-2 e 4941 dados de anomalia magnética de campo total de parte do levantamento aeromagnético Carauari-Norte. Os números de observações equivalentes identificados em cada caso foram, respectivamente, iguais a 294 e 299. Utilizando o algoritmo DOEg nós otimizamos a interpolação (na forma local) da totalidade dos dados de ambos os levantamentos citados. Todas as interpolações realizadas não seriam possíveis sem a aplicação do conceito de observações equivalentes. A proporção entre o tempo de CPU (rodando os programas no mesmo espaço de memória) gasto pelo método da mínima curvatura e pela camada equivalente (interpolação global) foi de 1:31. Esta razão para a interpolação local foi praticamente de 1:1.