64 resultados para core competence
em Consorci de Serveis Universitaris de Catalunya (CSUC), Spain
Resumo:
This article presents and explores the axioms and core ideas, or idées-force, of the Fascist ideologies of the first third of the twentieth century. The aim is to identify the features that define the term “Classical Fascism” as a conceptual category in the study of politics and to uncover the core ideas of its political theory. This analysis requires an appraisal of both the idées-force themselves and the political use that is made of them. If these appreciations are correct, Classical Fascism is characterized by a set of ideological and political aims and methods in which ideas, attitudes and behaviours are determined by an anti-democratic palingenetic ultranationalism underpinned by a sacralized ideology; the quest for a united, indissoluble society as apolitical system and, at the same time, the collective myth that mobilizes and redeems the nation; and third, violence as a political vehicle applied unchecked against internal opposition and against external enemies who challenge the nation´s progression towards the dream of rebirth and the culmination of this progression in the form of an empire.
Resumo:
Los procesadores multi-core y el multi-threading por hardware permiten aumentar el rendimiento de las aplicaciones. Por un lado, los procesadores multi-core combinan 2 o más procesadores en un mismo chip. Por otro lado, el multi-threading por hardware es una técnica que incrementa la utilización de los recursos del procesador. Este trabajo presenta un análisis de rendimiento de los resultados obtenidos en dos aplicaciones, multiplicación de matrices densas y transformada rápida de Fourier. Ambas aplicaciones se han ejecutado en arquitecturas multi-core que explotan el paralelismo a nivel de thread pero con un modelo de multi-threading diferente. Los resultados obtenidos muestran la importancia de entender y saber analizar el efecto del multi-core y multi-threading en el rendimiento.
Resumo:
La gestión de recursos en los procesadores multi-core ha ganado importancia con la evolución de las aplicaciones y arquitecturas. Pero esta gestión es muy compleja. Por ejemplo, una misma aplicación paralela ejecutada múltiples veces con los mismos datos de entrada, en un único nodo multi-core, puede tener tiempos de ejecución muy variables. Hay múltiples factores hardware y software que afectan al rendimiento. La forma en que los recursos hardware (cómputo y memoria) se asignan a los procesos o threads, posiblemente de varias aplicaciones que compiten entre sí, es fundamental para determinar este rendimiento. La diferencia entre hacer la asignación de recursos sin conocer la verdadera necesidad de la aplicación, frente a asignación con una meta específica es cada vez mayor. La mejor manera de realizar esta asignación és automáticamente, con una mínima intervención del programador. Es importante destacar, que la forma en que la aplicación se ejecuta en una arquitectura no necesariamente es la más adecuada, y esta situación puede mejorarse a través de la gestión adecuada de los recursos disponibles. Una apropiada gestión de recursos puede ofrecer ventajas tanto al desarrollador de las aplicaciones, como al entorno informático donde ésta se ejecuta, permitiendo un mayor número de aplicaciones en ejecución con la misma cantidad de recursos. Así mismo, esta gestión de recursos no requeriría introducir cambios a la aplicación, o a su estrategia operativa. A fin de proponer políticas para la gestión de los recursos, se analizó el comportamiento de aplicaciones intensivas de cómputo e intensivas de memoria. Este análisis se llevó a cabo a través del estudio de los parámetros de ubicación entre los cores, la necesidad de usar la memoria compartida, el tamaño de la carga de entrada, la distribución de los datos dentro del procesador y la granularidad de trabajo. Nuestro objetivo es identificar cómo estos parámetros influyen en la eficiencia de la ejecución, identificar cuellos de botella y proponer posibles mejoras. Otra propuesta es adaptar las estrategias ya utilizadas por el Scheduler con el fin de obtener mejores resultados.
Resumo:
Aquest projecte consisteix en la realització d'un entorn gràfic que serveixi per generar SoCs basats en el processador soft-core OpenRISC. Aquest entorn permetrà afegir diferents components de manera dinàmica a un repositori d’IPs, mostrar i sel·leccionar qualsevol component disponible dins d’aquest repositori, amb la finalitat d’unir-los al bus del sistema i fer-los accessibles al processador OpenRISC. L’entorn també mostrarà en tot moment com va evolucionant el nostre SoC, guardarà cadascún dels projectes que es realitzen amb aquest entorn i finalment permetrà generar el SoC dissenyat.
Resumo:
The aim of this paper is to measure the returns to human capital. We use a unique data set consisting of matched employer-employee information. Data on individuals' human capital include a set of 26 competences that capture the utilization of workers' skills in a very detailed way. Thus, we can expand the concept of human capital and discuss the type of skills that are more productive in the workplace and, hence, generate a higher payoff for the workers. The rich information on firm's and workplace characteristics allows us to introduce a broad range of controls and to improve previous research in this field. This paper gives evidence that the returns to generic competences differ depending on the position of the worker in the firm. Only numeracy skills are reward independent of the occupational status of the worker. The level of technology used by the firm in the production process does not directly increase workers’ pay, but it influences the pay-off to some of the competences. JEL Classification: J24, J31
Diseño y evaluación de un algoritmo paralelo para la eliminación gausiana en procesadores multi-core
Resumo:
Las herramientas de análisis de secuencias genómicas permiten a los biólogos identificar y entender regiones fundamentales que tienen implicación en enfermedades genéticas. Actualmente existe una necesidad de dotar al ámbito científico de herramientas de análisis eficientes. Este proyecto lleva a cabo una caracterización y análisis del rendimiento de algoritmos utilizados en la comparación de secuencias genómicas completas, y ejecutadas en arquitecturas MultiCore y ManyCore. A partir del análisis se evalúa la idoneidad de este tipo de arquitecturas para resolver el problema de comparar secuencias genómicas. Finalmente se propone una serie de modificaciones en las implementaciones de estos algoritmos con el objetivo de mejorar el rendimiento.
Resumo:
Las aplicaciones de alineamiento de secuencias son una herramienta importante para la comunidad científica. Estas aplicaciones bioinformáticas son usadas en muchos campos distintos como pueden ser la medicina, la biología, la farmacología, la genética, etc. A día de hoy los algoritmos de alineamiento de secuencias tienen una complejidad elevada y cada día tienen que manejar un volumen de datos más grande. Por esta razón se deben buscar alternativas para que estas aplicaciones sean capaces de manejar el aumento de tamaño que los bancos de secuencias están sufriendo día a día. En este proyecto se estudian y se investigan mejoras en este tipo de aplicaciones como puede ser el uso de sistemas paralelos que pueden mejorar el rendimiento notablemente.
Resumo:
Aquest projecte de doctorat és un treball interdisciplinari adreçat a l’obtenció de nous nanocompòsits (NCs) funcionals sintetitzats a partir de materials polimèrics bescanviadors d’ions que són modificats amb nanopartícules metàl•liques (NPMs) de diferent composició. Els materials desenvolupats s’avaluen en funció de dues possibles aplicacions: 1) com a catalitzadors de reaccions orgàniques d’interès actual (NCs basats en pal•ladi) i, 2) la seva dedicació a aplicacions bactericides en el tractament d’aigües domèstiques o industrials (NCs basats en plata). El desenvolupament de nanomaterials és de gran interès a l’actualitat donades les seves especials propietats, l’aprofitament de les quals és la força impulsora per a la fabricació de nous NCs. Les nanopartícules metàl•liques estabilitzades en polímer (Polymer Stabilized Metal Nanoparticles, PSNPM) s’han preparat mitjançant la tècnica in-situ de síntesi intermatricial (Inter-matrix synthesis, IMS) que consisteix en la càrrega seqüencial dels grups funcionals de les matrius polimèriques amb ions metàl•lics, i la seva posterior reducció química dins de la matriu polimèrica de bescanvi iònic. L’estabilització en matrius polimèriques evita l’agregació entre elles (self-aggreagtion), un dels principals problemes coneguts de les NPs. Pel desenvolupament d’aquesta metodologia, s’han emprat diferents tipus de matrius polimèriques de bescanvi iònic: membrana Sulfonated PolyEtherEtherKetone, SPEEK, així com fibres sintètiques basades en polypropilè amb diferents tipus de grups funcionals, que ens permeten el seu ús com a filtres en la desinfecció de solucions aquoses o com a material catalitzador. Durant el projecte s’ha anat avançant en l’optimització del material nanocomposite final per a les aplicacions d’interès, en quant activitat i funcionalitat de les nanopartícules i estabilitat del nanocomposite. Així, s’ha optimitzat la síntesi de NPs estabilitzades en resines de bescanvi iònic, realitzant un screening de diferents tipus de resines i la seva avaluació en aplicacions industrials d’interès.
Resumo:
In this paper, we characterize the non-emptiness of the equity core (Selten, 1978) and provide a method, easy to implement, for computing the Lorenz-maximal allocations in the equal division core (Dutta-Ray, 1991). Both results are based on a geometrical decomposition of the equity core as a finite union of polyhedrons. Keywords: Cooperative game, equity core, equal division core, Lorenz domination. JEL classification: C71
Resumo:
This paper describes a failure alert system and a methodology for content reuse in a new instructional design system called InterMediActor (IMA). IMA provides an environment for instructional content design, production and reuse, and for students’ evaluation based in content specification through a hierarchical structure of competences. The student assessment process and information extraction process for content reuse are explained.
Resumo:
This paper describes an experiment to explore the effects of the TENCompetence infrastructure for supporting lifelong competence development which is now in development. This infrastructure provides structured, multi-leveled access to learning materials, based upon competences. People can follow their own learning path, supported by a listing of competences and their components, by competence development plans attached to competences and by the possibility to mark elements as complete. We expected the PCM to have an effect on (1) control of participants of their own learning, and (2) appreciation of their learning route, (3) of the learning resources, (4) of their competence development, and (5) of the possibilities of collaboration. In the experiment, 44 Bulgarian teachers followed a distance learning course on a specific teaching methodology for six weeks. Part of them used the TENCompetence infrastructure, part used an infrastructure which was similar, except for the characterizing elements mentioned above. The results showed that in the experimental condition, more people passed the final competence assess-ment, and people felt more in control of their own learning. No differences between the two groups were found on the amount and appreciation of collaboration and on further measures of competence development.
Resumo:
Student guidance is an always desired characteristic in any educational system, butit represents special difficulty if it has to be deployed in an automated way to fulfilsuch needs in a computer supported educational tool. In this paper we explorepossible avenues relying on machine learning techniques, to be included in a nearfuture -in the form of a tutoring navigational tool- in a teleeducation platform -InterMediActor- currently under development. Since no data from that platform isavailable yet, the preliminary experiments presented in this paper are builtinterpreting every subject in the Telecommunications Degree at Universidad CarlosIII de Madrid as an aggregated macro-competence (following the methodologicalconsiderations in InterMediActor), such that marks achieved by students can beused as data for the models, to be replaced in a near future by real data directlymeasured inside InterMediActor. We evaluate the predictability of students qualifications, and we deploy a preventive early detection system -failure alert-, toidentify those students more prone to fail a certain subject such that correctivemeans can be deployed with sufficient anticipation.
Resumo:
Excess entry refers to the high failure rate of new entrepreneurial ventures. Economic explanations suggest 'hit and run' entrants and risk-seeking behavior. A psychological explanation is that people (entrepreneurs) are overconfident in their abilities (Camerer & Lovallo, 1999). Characterizing entry decisions as ambiguous gambles, we alternatively suggest following Heath and Tversky (1991) that people seek ambiguity when the source of uncertainty is related to their competence. Overconfidence, as such, plays no role. This hypothesis is confirmed in an experimental study that also documents the phenomenon of reference group neglect. Finally, we emphasize the utility that people gain from engaging in activities that contribute to a sense of competence. This is an important force in economic activity that deserves more explicit attention.