111 resultados para Axiomas de Eilenberg-Steenrod


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Presentación de un estudio acerca del origen social de los universitarios en España a finales de la década de los cincuenta. El acceso a los estudios superiores, de todos los jóvenes capaces, con independencia de sus medios de fortuna, es probablemente uno de los axiomas, en general, aceptados hoy por todas las comunidades políticas. Para conocer cuál es el origen familiar de nuestro alumnado de las Facultades Universitarias, se utilizan los datos que publica el Instituto Nacional de Estadística, entre los cuales se encuentran los relativos a las profesionales de los padres de los alumnos matriculados. Se han manejado los correspondientes a tres cursos académicos: los últimos existentes se refieren al curso 1958-1959. Se recogen varios cuadros estadísticos. El primero hace referencia a los datos empleados; el segundo se titula Clasificación profesional adoptada por el Instituto Nacional de Estadística, el tercero trata sobre la renta por habitante y por individuo activo; el cuadro número cuatro se refiere a la clasificación por niveles sociales homogéneos de los alumnos en las Facultades universitarias; y el quinto menciona la procedencia social. Para concluir se señala que a largo plazo, la única solución eficaz se encuentra en la aceleración de nuestro grado de desarrollo económico, que promueve paralelamente el bienestar social y cultural de los españoles menos dotados de medios económicos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El optimismo es inevitable si se ha de hablar de educación. El proyecto de futuro debe diferenciarse de la educación misma. Lo que se puede aprender de las arriesgadas reducciones de la pedagogía del siglo XX, es la necesidad de anticipar el futuro por medio de proyectos pedagógicos, porque así pueden expresarse simbólicamente los potenciales de esperanza. Sólo de esta forma se puede lograr una cierta confianza en el futuro imprevisible. Esta confianza no se puede ya articular en ninguna manera de antipedagogía, basada en el fin de siglo. Pero lo nuevo en la dinámica intelectual y cultural iniciada así, es la relativización cada vez más acelerada de los propios conceptos. Resulta cada vez más difícil creer en proyectos de futuro para una educación mejor si se prevé que no se podrán realizar. La modernidad fue un proyecto pedagógico en unas circunstancias muy simples: definición estable del bien, teoría progresista de la historia, razón práctica y una subjetividad orientada hacia ella. El fin de siglo y sus prolongaciones postmodernas enseñan que estas circunstancias no existen ya. Pero ello, no representa una pérdida ya que se comprueba que el carácter de proyecto de la modernidad es inacabable y la educación y su teoría tienen que contar con ello. Lo peculiar de la modernidad está en permitir diferentes situaciones y en hacer de lo diferente la experiencia fundamental. Su carácter ambivalente no debe interpretarse sólo como escisión que pudiera superarse con el esfuerzo pedagógico. En el reside la norma de todas las posibilidades de pensamiento y acción que la modernidad ofrece ¿Pero puede adaptarse la pedagogía a esta situación? Cualquier respuesta imaginable que se ofrezca sólo podrá presentarse en forma axiomática. Sería decisiva la introducción de nuevos axiomas sin eliminarlo todos. Así, procede el juego de la pedagogía de la cultura, etcétera, porque pudieron hacer posible su modernidad sin abandonar el pensamiento pedagógico. Este, quedó adaptado a nuevas situaciones teóricas ¿Por qué no ser en la postmodernidad?.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El bachillerato dotado de una entidad propia debe acentuar su carácter de formación de la personalidad del educando. Y , a la vez, debe ser orientador del futuro profesional del alumno. Así, la finalidad del mismo es hoy la formación de los jóvenes para que puedan elegir libremente su propio destino, con pleno conocimiento de sus capacidades e intereses. Pero el cambio tan radical en la enseñanza ha dado origen a multitud de actitudes en todos los sectores y hasta de la propia administración que no ha sabido seguir una línea directriz de continuidad. Se concibe una enseñanza media integrada en la educación general. En esta tarea ¿Qué papel tienen las matemáticas? Dos notas características son los elementos de Euclides: su contrucción axiomática y el método deductivo. Unos axiomas sin ningún significado concreto originan una estructura, a partir de ellos, por un método rigurosamente deductivo, se demuestra una serie de proposiciones o teoremas, cuyo conjunto forma una teoría matemática. Pero antes de llegar al razonamiento deductivo hay que deleitarse en otro tipo de actividades. También hay que partir de un método riguroso, sencillo y verdadero. Saber es dominar en matemáticas. No se puede pasar de un concepto al siguiente sin haber dominado plenamente el anterior.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Exposición y demostración del concepto de número natural a través del sistema de axiomas, para las clases del curso preuniversitario.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este artículo pertenece a una sección de la revista dedicada a psicología social

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Analizar las relaciones entre el sistema educativo, el sistema político y el sistema social, y dictaminar el sentido de esa comunicación sistémica. Ver la evolución sufrida por el sistema educativo a lo largo del franquismo y la transición política a la democracia en España. Validar o no la tesis en relación a la existencia de una asincronía entre la evolución del hecho educativo y lo acontecido en la dimensión política.. Revisión documental.. Análisis de contenido. Investigación histórica.. La democracia no surge como consecuencia de las relaciones funcionales de sus condiciones objetivas sino como un nuevo resultado contingente de conflictos a partir de los años 60 y 70. Se han analizado y confrontado los axiomas teóricos con la realidad de los hechos. En condiciones adversas y deterioradas, que no favorecieron el desarrollo se llegó a una transición política de éxito. Se produjeron una serie de procesos de migración interior y exterior, junto a un proceso de cambio en el sistema productivo produciendo un giro copernicano en el sistema educativo. El cambio económico producido en este periodo, de dimensiones hasta entonces desconocidas, proporciona una transición del sistema productivo a favor de la industria y los servicios, se observa desigualdades sociales, económicas y culturales. Con una transición de gran incertidumbre, con la que el Rey también se adscribe al proceso democrático, sino por convicción por conveniencia. Se producen fuertes disensiones con la Iglesia y en las instituciones militares, permaneciendo en un pasado dictatorial en lo económico y sin posibilidad de encontrar alternativas más eficientes. Se observa un progresivo esfuerzo en la Administración por transformar y remover las viejas estructuras educativas, favorecido por la participación en foros internacionales, por la búsqueda de una formación integral del alumno, ejercitación de capacidades, disponer la tecnología moderna al servicio de fines educativos, y mejorando la orientación académica, dando los últimos pasos para desembocar en la democracia del sistema educativo actual.. Se observa una asincronía entre la transición educativa y el proceso de cambio político a la democracia, la primera precede a la segunda, pero ambos sistemas se interrelacionan entre si. Podría marcarse una frontera de naturaleza legal, con su origen en la ley de 1970, la Ley General de Educación. (L.G.E.). Se observa una relación significativa entre la estructura productiva y el sistema educativo. A una apertura intelectual coincide con un periodo de crecimiento económico y una creciente desigualdad social. El caudal de estudiantes que acceden a estudios y no descenderá hasta 1977. Existe una disfunción entre la letra de la Ley General de Educación y su efectividad en la práctica, que promovió un amplio movimiento de contestación social en la reforma educativa española.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Resumen basado en el de la publicaci??n

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En el foro se ha discutido ampliamente respecto de la naturaleza jurídica del “Swiss Challenge”, que constituye una figura poco conocida y que muchas veces, incluyendo los organismos de control han considerado que se asimila a una contratación directa, incluso llegando a manifestarse que es una figura no prevista en el Derecho Público Ecuatoriano, y atentatoria de los principios de la contratación administrativa. Con este antecedente, amable lector, surge la necesidad de proceder al análisis del procedimiento “Swiss Challenge”, a fin de determinar si es un procedimiento que cumple con los principios de la contratación administrativa, si se encuentra previsto en la legislación ecuatoriana; así como, evidenciar el tratamiento que se ha dado de este procedimiento en los casos emblemáticos en que se ha desarrollado en el Ecuador. Por esta razón, abordaremos en el primer capítulo del presente trabajo de investigación, los conceptos fundamentales y las diferentes etapas del procedimiento “Swiss Challenge”; así como, su relación con los principios de la contratación administrativa; llegando al análisis del cumplimiento de cada uno; y, de manera especial, respecto de los principios de igualdad, oposición o libre concurrencia y transparencia. Avanzando en el análisis es importante verificar cual ha sido la aplicación que se ha dado en la administración pública ecuatoriana de este procedimiento, para lo cual, nos adentraremos en el análisis de los dos casos emblemáticos de “Swiss Challenge” en la república del Ecuador; esto es, revisaremos los concernientes a la concesión para la construcción, administración y mantenimiento del Nuevo Aeropuerto Internacional de Quito –NAIQ-; así como, el financiamiento y la construcción del proyecto hidroeléctrico Toachi- Pilatón. Asimismo, evidenciaremos si es que el desarrollo del procedimiento “Swiss Challenge” en estos dos proyectos, atendieron a los principios de la contratación administrativa, identificando las dificultades que se hubieren producido en los mismos; aspectos que, determinarán el cumplimiento formal y material de dichos axiomas y su correcta aplicación. Finalmente, realizaremos un análisis de las normas del ordenamiento jurídico ecuatoriano, con especial atención en el cambio de modelo en la gestión de los sectores estratégicos por parte de la Constitución del 2008; lo que nos permitirá desentrañar si el “Swiss Challenge” es un figura prevista en el Ordenamiento Jurídico Ecuatoriano.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Existen conductas netamente sexuales, en las que la red ha llegado a convertirse en un fin o un medio para que ciertos individuos busquen y logren satisfacción sexual a través del chantaje sexual a menores de edad, delito conocido en la normativa penal anglosajona como “grooming” o “child grooming”, conducta que actualmente en el COIP se encuentra tipificada en su Art.- 173; siendo entonces que a través del presente trabajo pretendemos, en base a la teoría el derecho penal mínimo consagrado en el Art 195 de nuestra Constitución, analizar si el tipo penal incluido en el COIP referente al grooming, o como se lo ha denominado, delito de “Contacto con finalidad sexual con menores de dieciocho años por medios electrónicos”, cumple o no con aquella conducta considerada como tal por la doctrina y las legislaciones extranjeras; y especialmente establecer, conforme a los axiomas de Ferrajoli, si existe efectivamente la necesidad y la lesividad como para tipificar esta conducta a través de un tipo penal autónomo o si bien pueden estos actos encontrar su verbo rector y características especiales en otros tipos penales ya existentes en la legislación sustantiva penal, pues es claro que el Derecho Penal, para legitimar su existencia en un Estado Constitucional de Derechos y Justicia, debe limitar el ejercicio del poder punitivo del Estado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Though many global aerosols models prognose surface deposition, only a few models have been used to directly simulate the radiative effect from black carbon (BC) deposition to snow and sea ice. Here, we apply aerosol deposition fields from 25 models contributing to two phases of the Aerosol Comparisons between Observations and Models (AeroCom) project to simulate and evaluate within-snow BC concentrations and radiative effect in the Arctic. We accomplish this by driving the offline land and sea ice components of the Community Earth System Model with different deposition fields and meteorological conditions from 2004 to 2009, during which an extensive field campaign of BC measurements in Arctic snow occurred. We find that models generally underestimate BC concentrations in snow in northern Russia and Norway, while overestimating BC amounts elsewhere in the Arctic. Although simulated BC distributions in snow are poorly correlated with measurements, mean values are reasonable. The multi-model mean (range) bias in BC concentrations, sampled over the same grid cells, snow depths, and months of measurements, are −4.4 (−13.2 to +10.7) ng g−1 for an earlier phase of AeroCom models (phase I), and +4.1 (−13.0 to +21.4) ng g−1 for a more recent phase of AeroCom models (phase II), compared to the observational mean of 19.2 ng g−1. Factors determining model BC concentrations in Arctic snow include Arctic BC emissions, transport of extra-Arctic aerosols, precipitation, deposition efficiency of aerosols within the Arctic, and meltwater removal of particles in snow. Sensitivity studies show that the model–measurement evaluation is only weakly affected by meltwater scavenging efficiency because most measurements were conducted in non-melting snow. The Arctic (60–90° N) atmospheric residence time for BC in phase II models ranges from 3.7 to 23.2 days, implying large inter-model variation in local BC deposition efficiency. Combined with the fact that most Arctic BC deposition originates from extra-Arctic emissions, these results suggest that aerosol removal processes are a leading source of variation in model performance. The multi-model mean (full range) of Arctic radiative effect from BC in snow is 0.15 (0.07–0.25) W m−2 and 0.18 (0.06–0.28) W m−2 in phase I and phase II models, respectively. After correcting for model biases relative to observed BC concentrations in different regions of the Arctic, we obtain a multi-model mean Arctic radiative effect of 0.17 W m−2 for the combined AeroCom ensembles. Finally, there is a high correlation between modeled BC concentrations sampled over the observational sites and the Arctic as a whole, indicating that the field campaign provided a reasonable sample of the Arctic.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper evaluates the current status of global modeling of the organic aerosol (OA) in the troposphere and analyzes the differences between models as well as between models and observations. Thirty-one global chemistry transport models (CTMs) and general circulation models (GCMs) have participated in this intercomparison, in the framework of AeroCom phase II. The simulation of OA varies greatly between models in terms of the magnitude of primary emissions, secondary OA (SOA) formation, the number of OA species used (2 to 62), the complexity of OA parameterizations (gas-particle partitioning, chemical aging, multiphase chemistry, aerosol microphysics), and the OA physical, chemical and optical properties. The diversity of the global OA simulation results has increased since earlier AeroCom experiments, mainly due to the increasing complexity of the SOA parameterization in models, and the implementation of new, highly uncertain, OA sources. Diversity of over one order of magnitude exists in the modeled vertical distribution of OA concentrations that deserves a dedicated future study. Furthermore, although the OA / OC ratio depends on OA sources and atmospheric processing, and is important for model evaluation against OA and OC observations, it is resolved only by a few global models. The median global primary OA (POA) source strength is 56 Tg a−1 (range 34–144 Tg a−1) and the median SOA source strength (natural and anthropogenic) is 19 Tg a−1 (range 13–121 Tg a−1). Among the models that take into account the semi-volatile SOA nature, the median source is calculated to be 51 Tg a−1 (range 16–121 Tg a−1), much larger than the median value of the models that calculate SOA in a more simplistic way (19 Tg a−1; range 13–20 Tg a−1, with one model at 37 Tg a−1). The median atmospheric burden of OA is 1.4 Tg (24 models in the range of 0.6–2.0 Tg and 4 between 2.0 and 3.8 Tg), with a median OA lifetime of 5.4 days (range 3.8–9.6 days). In models that reported both OA and sulfate burdens, the median value of the OA/sulfate burden ratio is calculated to be 0.77; 13 models calculate a ratio lower than 1, and 9 models higher than 1. For 26 models that reported OA deposition fluxes, the median wet removal is 70 Tg a−1 (range 28–209 Tg a−1), which is on average 85% of the total OA deposition. Fine aerosol organic carbon (OC) and OA observations from continuous monitoring networks and individual field campaigns have been used for model evaluation. At urban locations, the model–observation comparison indicates missing knowledge on anthropogenic OA sources, both strength and seasonality. The combined model–measurements analysis suggests the existence of increased OA levels during summer due to biogenic SOA formation over large areas of the USA that can be of the same order of magnitude as the POA, even at urban locations, and contribute to the measured urban seasonal pattern. Global models are able to simulate the high secondary character of OA observed in the atmosphere as a result of SOA formation and POA aging, although the amount of OA present in the atmosphere remains largely underestimated, with a mean normalized bias (MNB) equal to −0.62 (−0.51) based on the comparison against OC (OA) urban data of all models at the surface, −0.15 (+0.51) when compared with remote measurements, and −0.30 for marine locations with OC data. The mean temporal correlations across all stations are low when compared with OC (OA) measurements: 0.47 (0.52) for urban stations, 0.39 (0.37) for remote stations, and 0.25 for marine stations with OC data. The combination of high (negative) MNB and higher correlation at urban stations when compared with the low MNB and lower correlation at remote sites suggests that knowledge about the processes that govern aerosol processing, transport and removal, on top of their sources, is important at the remote stations. There is no clear change in model skill with increasing model complexity with regard to OC or OA mass concentration. However, the complexity is needed in models in order to distinguish between anthropogenic and natural OA as needed for climate mitigation, and to calculate the impact of OA on climate accurately.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os algoritmos baseados no paradigma Simulated Annealing e suas variações são atualmente usados de forma ampla na resolução de problemas de otimização de larga escala. Esta popularidade é resultado da estrutura extremamente simples e aparentemente universal dos algoritmos, da aplicabilidade geral e da habilidade de fornecer soluções bastante próximas da ótima. No início da década de 80, Kirkpatrick e outros apresentaram uma proposta de utilização dos conceitos de annealing (resfriamento lento e controlado de sólidos) em otimização combinatória. Esta proposta considera a forte analogia entre o processo físico de annealing e a resolução de problemas grandes de otimização combinatória. Simulated Annealing (SA) é um denominação genérica para os algoritmos desenvolvidos com base nesta proposta. Estes algoritmos combinam técnicas de busca local e de randomização. O objetivo do presente trabalho é proporcionar um entendimento das características do Simulated Annealing e facilitar o desenvolvimento de algoritmos com estas características. Assim, é apresentado como Simulated Annealing e suas variações estão sendo utilizados na resolução de problemas de otimização combinatória, proposta uma formalização através de um método de desenvolvimento de algoritmos e analisados aspectos de complexidade. O método de desenvolvimento especifica um programa abstrato para um algoritmo Simulated Annealing seqüencial, identifica funções e predicados que constituem os procedimentos deste programa abstrato e estabelece axiomas que permitem a visualização das propriedades que estes procedimentos devem satisfazer. A complexidade do Simulated Annealing é analisada a partir do programa abstrato desenvolvido e de seus principais procedimentos, permitindo o estabelecimento de uma equação genérica para a complexidade. Esta equação genérica é aplicável aos algoritmos desenvolvidos com base no método proposto. Uma prova de correção é apresentada para o programa abstrato e um código exemplo é analisado com relação aos axiomas estabelecidos. O estabelecimento de axiomas tem como propósito definir uma semântica para o algoritmo, o que permite a um desenvolvedor analisar a correção do código especificado para um algoritmo levando em consideração estes axiomas. O trabalho foi realizado a partir de um estudo introdutório de otimização combinatória, de técnicas de resolução de problemas, de um levantamento histórico do uso do Simulated Annealing, das variações em torno do modelo e de embasamentos matemáticos documentados. Isto permitiu identificar as características essenciais dos algoritmos baseados no paradigma, analisar os aspectos relacionados com estas características, como as diferentes formas de realizar uma prescrição de resfriamento e percorrer um espaço de soluções, e construir a fundamentação teórica genérica proposta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O processo de demonstração é axial na construção do conhecimento matemático. Na geometria euclidiana, ele é um dos aspectos que apresenta grandes obstáculos aos alunos. Uma das dificuldades aparece na transição, necessária, entre o conhecimento de natureza empírica, já adquirido, e aquele a ser construído: a geometria euclidiana enquanto modelo teórico, organizado em axiomas, teoremas e demonstrações. Os recursos informáticos hoje disponíveis provocam a busca de estratégias pedagógicas favoráveis à construção deste conhecimento. Entender as suas potencialidades torna-se um objeto de investigação: o que acontece com os processos cognitivos quando ao sujeito em interação com a máquina é possibilitada a concretização de seus construtos e ações mentais, e quando, mediante realimentação imediata, ele é levado a novas reelaborações e construções mentais? E como tais processos concorrem para um novo conhecimento? Esta tese propõe uma engenharia didática, em ambiente de geometria dinâmica, que favorece a ascensão dos alunos em patamar de conhecimento — de empírico a hipotético-dedutivo. Toma-se como referencial a teoria piagetiana, bem como a teoria da situação didática em matemática desenvolvida pela escola francesa. A engenharia se desenrola em três níveis: no primeiro, o propósito é a compreensão do significado e da necessidade de demonstração por via de construções geométricas; no segundo nível, pretende-se o desenvolvimento das primeiras habilidades na produção de demonstrações; e, no terceiro, os problemas propostos ao alunos exigem mais de seus funcionamentos cognitivos no tratamento adequado de uma figura geométrica — trata-se das extensões de desenho e concomitantes apreensões operativas responsáveis pela identificação de subconfigurações geométricas que dão suporte à argumentação dedutiva. Análise a posteriori do desenrolar dos trabalhos dos alunos confirma as expectativas anunciadas na análise a priori apresentada na fase de concepção da situação didática cuja implementação é proposta: o progresso dos alunos na construção de conhecimento em geometria, como modelo matemático, foi expressivo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo do presente trabalho é construir recursos operatórios de leitura que permitam articular, desde um ponto de vista epistemológico, lingüística e psicanálise. Esta temática surge de uma problemática de pesquisa atual, relativa à crescente demanda, endereçada a lingüística, por diferentes práticas clínicas nas quais a linguagem está implicada. Neste sentido, procura-se relacionar um paradigma de linguagem com uma teoria da subjetividade apropriada tanto à reflexão clínica quanto à reflexão epistemológica. Desta forma, esta dissertação opta por um estudo teórico, visando a construção de operadores conceituais que possibilitem a articulação entre a psicanálise lacaniana e as teorias da linguagem de Saussure, Jakobson e Benveniste, utilizando como corpus de análise essas próprias teorias lingüísticas e psicanalíticas. Portanto, seu procedimento analítico pode ser qualificado como metateórico. Quatro critérios são utilizados para a seleção dos autores: 1°) as três teorias são, cada uma a seu modo, estruturalistas – isso significa que a estrutura é o conceito operador que permite pensar as proposições que estão na base de cada teoria (seus axiomas); 2°) as três teorias estabelecem proposições sobre o objeto língua – isso requer perguntar quais axiomas sobre a língua cada teoria teve que construir para dar conta da estrutura. Desses dois critérios deriva-se um terceiro; 3°) as três teorias conformam três “sistemas de linguagem” que não dissolvem o “objeto língua” para se constituírem em sua especificidade (diluindo-a em objetos de outros domínios teóricos, exteriores ao campo da linguagem – ou da lingüística – propriamente dito, tais como, por exemplo, a biologia, a psicologia, a sociologia). Cada sistema é representado por um nome próprio : I – Sistema de Linguagem elaborado por Saussure; II – Sistema de Linguagem tratado por Jakobson; III – Sistema de Linguagem concebido por Benveniste. Como critério de fechamento, temos que : 4°) as três teorias interessam de perto ao Sistema de Linguagem da psicanálise lacaniana. A relação entre tais teorias deverá servir de suporte de leitura à interlocução estabelecida no campo interdisciplinar sobre a presença da linguagem nas diferentes clínicas, assim como revitalizar os campos conceituais tanto da lingüística quanto da psicanálise.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este ensaio se propõe confrontar a abordagem neoclássica da economia como ciência positiva, com a modelo keynesiano e a visão da economia dinâmica de Kalecki, onde a economia é tratada desde a perspectiva de uma ciência moral e normativa. Para tanto analisaremos as bases teóricas de cada modelo, seus pressupostos, leis fundamentais e principais conclusões. Dado o propósito didático do texto nos preocupamos em tentar explicar os antecedentes, axiomas, leis e relações funcionais de cada modelo, dando especial ênfase às que surgem da crítica de postulados anteriores, pois admitimos que cada modelo incorpora valores, pressupostos e metodologia própria, cuja crítica é essencial para o avanço da ciência. A economia neoclássica supõe agentes racionais, informação completa e ações e resultados imediatos. Seu método de análise é a otimização com restrições. O principio ordenador, necessário e suficiente da atividade econômica, consiste no comportamento racional dos agentes. Este modelo tem sua concepção política e ética das relações econômicas, consistente com seus pressupostos, o que fica patente, por exemplo, a propósito de sua teoria da distribuição da renda. Com a introdução de conceitos como: o tempo histórico; o caracter monetário da produção; a preferência pela liquidez; o comportamento subjetivo dos agentes; o predomínio da procura sobre a oferta; as expectativas e a incerteza em relação ao futuro, etc., a macroeconomia de Keynes consegue romper o paradigma anterior, do ajuste automático dos mercados de acordo com um feedeback contínuo e estável, capaz de garantir o equilíbrio de pleno emprego. Embora a análise keynesiana tivesse permitido a abordagem precisa de questões tão importantes como: a natureza e as causas do desemprego; o papel da moeda e do crédito; a determinação dos juros; os condicionantes do investimento, etc., faltava ainda uma teoria dos preços, da distribuição e do ciclo econômico, no que o trabalho de M. Kalecki, certamente parece ter avançado. Este autor parte de um contexto cultural e ideológico que lhe permite abordar sem entraves a natureza do capitalismo. Seu enfoque micro e macroeconômico é integrado e está apoiado no pressuposto da concorrência imperfeita. No universo keynesiano os mercados podem estar em equilíbrio, mas não no de pleno emprego, já segundo Kalecki o ciclo econômico é inevitável. Em ambos os casos os mercados não são perfeitos e não tendem naturalmente para o equilíbrio, o que justifica a ação reguladora do Estado, de acordo sua opção política e um código de valores preestabelecido. É de se imaginar que cada modelo de análise esteja condicionado pelo conjunto de valores dominantes do momento, o que não invalida o caracter de ciência social da economia. Por exemplo, desde a perspectiva individualista da troca mercantil, a economia se apresenta com a metodologia de ciência pura, porém, levando em conta as relações de classe social, é uma ciência moral.