983 resultados para distributed work
Resumo:
PURPOSE: The aim of this study was to compare the mechanical external work (per kg) and pendular energy transduction at preferred walking speed (PWS) in obese versus normal body mass subjects to investigate whether obese adults adopt energy conserving gait mechanics. METHODS: The mechanical external work (Wext) and the fraction of mechanical energy recovered by the pendular mechanism (Rstep) were computed using kinematic data acquired by an optoelectronic system and were compared in 30 obese (OG; body mass index [BMI] = 39.6 +/- 0.6 kg m(-2); 29.5 +/- 1.3 yr) and 19 normal body mass adults (NG; BMI = 21.4 +/- 0.5 kg m(-2); 31.2 +/- 1.2 yr) walking at PWS. RESULTS: PWS was significantly lower in OG (1.18 +/- 0.02 m s(-1)) than in NG (1.33 +/- 0.02 m s(-1); P <or= 0.001). There was no significant difference in Wext per unit mass between groups (OG: 0.36 +/- 0.03 J kg(-1) m(-1); NG: 0.31 +/- 0.02 J kg(-1) m(-1); P = 0.12). Rstep was significantly lower in OG (68.4% +/- 2.0%) compared with NG (74.4% +/- 1.0%; P = 0.01). In OG only, Wext per unit mass was positively correlated with PWS (r = 0.57; P < 0.001). CONCLUSION: Obese adults do not appear to alter their gait to improve pendular energy transduction and may select slower PWS to reduce mechanical and metabolic work.
Resumo:
ABSTRACT: BACKGROUND: Cardiovascular magnetic resonance (CMR) has favorable characteristics for diagnostic evaluation and risk stratification of patients with known or suspected CAD. CMR utilization in CAD detection is growing fast. However, data on its cost-effectiveness are scarce. The goal of this study is to compare the costs of two strategies for detection of significant coronary artery stenoses in patients with suspected coronary artery disease (CAD): 1) Performing CMR first to assess myocardial ischemia and/or infarct scar before referring positive patients (defined as presence of ischemia and/or infarct scar to coronary angiography (CXA) versus 2) a hypothetical CXA performed in all patients as a single test to detect CAD. METHODS: A subgroup of the European CMR pilot registry was used including 2,717 consecutive patients who underwent stress-CMR. From these patients, 21% were positive for CAD (ischemia and/or infarct scar), 73% negative, and 6% uncertain and underwent additional testing. The diagnostic costs were evaluated using invoicing costs of each test performed. Costs analysis was performed from a health care payer perspective in German, United Kingdom, Swiss, and United States health care settings. RESULTS: In the public sectors of the German, United Kingdom, and Swiss health care systems, cost savings from the CMR-driven strategy were 50%, 25% and 23%, respectively, versus outpatient CXA. If CXA was carried out as an inpatient procedure, cost savings were 46%, 50% and 48%, respectively. In the United States context, cost savings were 51% when compared with inpatient CXA, but higher for CMR by 8% versus outpatient CXA. CONCLUSION: This analysis suggests that from an economic perspective, the use of CMR should be encouraged as a management option for patients with suspected CAD.
Resumo:
This book explores the perceptions of academic staff and representatives of institutional leadership about the changes in academic careers and academic work experienced in recent years. It emphasizes standardization and differentiation of academic career paths, impact of new forms of quality management on academic work, changes in recruitment, employment and working conditions, and academics' perceptions of their professional contexts. The book demonstrates a growing diversity within the academic profession and new professional roles inhabiting a space which is neither located in the core business of teaching and research nor at the top level management and leadership. The new higher education professionals tend to be important change agents within the higher education institutions not only fulfilling service and bridging functions but also streamlining academic work to make a contribution to the reputation and competitiveness of the institutions as a whole. Based on interviews with academic staff, this book explores the situation in eight European countries: Austria, Croatia, Finland, Germany, Ireland, Romania, and Switzerland.
Resumo:
Con la mayor capacidad de los nodos de procesamiento en relación a la potencia de cómputo, cada vez más aplicaciones intensivas de datos como las aplicaciones de la bioinformática, se llevarán a ejecutar en clusters no dedicados. Los clusters no dedicados se caracterizan por su capacidad de combinar la ejecución de aplicaciones de usuarios locales con aplicaciones, científicas o comerciales, ejecutadas en paralelo. Saber qué efecto las aplicaciones con acceso intensivo a dados producen respecto a la mezcla de otro tipo (batch, interativa, SRT, etc) en los entornos no-dedicados permite el desarrollo de políticas de planificación más eficientes. Algunas de las aplicaciones intensivas de E/S se basan en el paradigma MapReduce donde los entornos que las utilizan, como Hadoop, se ocupan de la localidad de los datos, balanceo de carga de forma automática y trabajan con sistemas de archivos distribuidos. El rendimiento de Hadoop se puede mejorar sin aumentar los costos de hardware, al sintonizar varios parámetros de configuración claves para las especificaciones del cluster, para el tamaño de los datos de entrada y para el procesamiento complejo. La sincronización de estos parámetros de sincronización puede ser demasiado compleja para el usuario y/o administrador pero procura garantizar prestaciones más adecuadas. Este trabajo propone la evaluación del impacto de las aplicaciones intensivas de E/S en la planificación de trabajos en clusters no-dedicados bajo los paradigmas MPI y Mapreduce.
Resumo:
La gestión de recursos en los procesadores multi-core ha ganado importancia con la evolución de las aplicaciones y arquitecturas. Pero esta gestión es muy compleja. Por ejemplo, una misma aplicación paralela ejecutada múltiples veces con los mismos datos de entrada, en un único nodo multi-core, puede tener tiempos de ejecución muy variables. Hay múltiples factores hardware y software que afectan al rendimiento. La forma en que los recursos hardware (cómputo y memoria) se asignan a los procesos o threads, posiblemente de varias aplicaciones que compiten entre sí, es fundamental para determinar este rendimiento. La diferencia entre hacer la asignación de recursos sin conocer la verdadera necesidad de la aplicación, frente a asignación con una meta específica es cada vez mayor. La mejor manera de realizar esta asignación és automáticamente, con una mínima intervención del programador. Es importante destacar, que la forma en que la aplicación se ejecuta en una arquitectura no necesariamente es la más adecuada, y esta situación puede mejorarse a través de la gestión adecuada de los recursos disponibles. Una apropiada gestión de recursos puede ofrecer ventajas tanto al desarrollador de las aplicaciones, como al entorno informático donde ésta se ejecuta, permitiendo un mayor número de aplicaciones en ejecución con la misma cantidad de recursos. Así mismo, esta gestión de recursos no requeriría introducir cambios a la aplicación, o a su estrategia operativa. A fin de proponer políticas para la gestión de los recursos, se analizó el comportamiento de aplicaciones intensivas de cómputo e intensivas de memoria. Este análisis se llevó a cabo a través del estudio de los parámetros de ubicación entre los cores, la necesidad de usar la memoria compartida, el tamaño de la carga de entrada, la distribución de los datos dentro del procesador y la granularidad de trabajo. Nuestro objetivo es identificar cómo estos parámetros influyen en la eficiencia de la ejecución, identificar cuellos de botella y proponer posibles mejoras. Otra propuesta es adaptar las estrategias ya utilizadas por el Scheduler con el fin de obtener mejores resultados.
Resumo:
Background: CMR has recently emerged as a robust and reliable technique to assess coronary artery disease (CAD). A negative perfusion CMR test predicts low event rates of 0.3-0.5%/year. Invasive coronary angiography (CA) remains the "gold standard" for the evaluation of CAD in many countries.Objective: Assessing the costs of the two strategies in the European CMR registry for the work-up of known or suspected CAD from a health care payer perspective. Strategy 1) a CA to all patients or 2) a CA only to patients who are diagnosed positive for ischemia in a prior CMR.Method and results: Using data of the European CMR registry (20 hospitals, 11'040 consecutive patients) we calculated the proportion of patients who were diagnosed positive (20.6%), uncertain (6.5%), and negative (72.9%) after the CMR test in patients with known or suspected CAD (n=2'717). No other medical test was performed to patients who were negative for ischemia. Positive diagnosed patients had a coronary angiography. Those with uncertain diagnosis had additional tests (84.7%: stress echocardiography, 13.1%: CCT, 2.3% SPECT), these costs were added to the CMR strategy costs. Information from costs for tests in Germany and Switzerland were used. A sensibility analysis was performed for inpatient CA. For costs see figure. Results - costs.Discussion: The CMR strategy costs less than the CA strategy for the health insurance systems both, in Germany and Switzerland. While lower in costs, the CMR strategy is a non-invasive one, does not expose to radiation, and yields additional information on cardiac function, viability, valves, and great vessels. Developing the use of CMR instead of CA might imply some reduction in costs together with superior patient safety and comfort, and a better utilization of resources at the hospital level. Document introduit le : 01.12.2011
Resumo:
En aquest treball s’ha dissenyat i fabricat una antena monopol en estructura planar capaç de treballar correctament a les freqüències WLAN de 2,45-2,5 GHz (802.11b/g) i 4,9-5,875 GHz (802.11a/h/j). Per arribar a aquest objectiu primer s’ha presentat el model de línia de transmissió acabada en circuit obert per simular el comportament d’una antena. S’han comparat i verificat els resultats amb el model d’antena de fil. Seguidament, s’ha estudiat el comportament que introdueix el fet de carregar l’antena amb un ressonador LC. Finalment, s’ha passat del model d’antena de fil a una estructura planar. Aquesta geometria ha permès la realització del trap LC de forma distribuïda a través d’un ressonador CLL. El principi de disseny de l’antena està basat en la introducció d’aquest ressonador CLL amb freqüència de ressonància situada entre les dos bandes de treball i que junt amb l’ajust dels diversos paràmetres que defineixen l’antena han permès obtenir més 1 GHz d’ample de banda a la freqüència de 5 GHz.
Resumo:
El treball realitzat amb l’ajuda MQD2006 està relacionat amb l’ús de portafolis electrònics en un context universitari. Els objectius que ens havíem traçat, eren: 1)Dissenyar una versió beta del portafolis digital desenvolupat adhoc pel grup 2)Implementar una metodologia avaluativa basada en el portafolis digital desenvolupat 3)Generar portafolis digitals com a model de bones pràctiques d’avaluació de l’alumnat 4)Recollir dades sobre el seu funcionament en relació a l’alumnat A més dels anteriors objectius, relacionats amb els aspectes pedagògics freuit de la implementació i ús dels portafolis digitals, hi ha dos objectius relacionats amb aspectes didàctics. Aquests són: 5) Anàlisi dels canvis en la metodologia didàctica i en els continguts curriculars 6) Anàlisi de criteris de sostenibilitat de la utilització continuada del portafolis digital. Almenys 5 d’aquests 6 objectius s’han complert de manera completa, i un (el nombre cinc) ha quedat solament esbossat. Per altra banda, alguns resultats inesperats s’han produït en aquests dos anys i es poden afegir a aquesta llista inicial: 7) Expansió i difusió de l’experiència cap a altres universitats. 8) Possibilitat de plantejar un projecte d’investigació bàsica sobre les conseqüències de l’ús de portafolis en la docència universitària basada en l’EEES. La Memòria seguirà de prop aquests objectius, si bé es distribuiran d’una manera diferent. Com a resultats i conclusions hem pogut veure que l’eina ha estat ben valorada en quant a la metodologia d’ús proposada, en quant al propi seguiment de l’aprenentatge i per una autoavaluació continuada. Hem vist una millora en les reflexions dels estudiants fent servir un diàleg on-line entre professor-estudiant. D’altra banda, hem detectat que es requereix millorar la seva usabilitat, un ús continuat més llarg i algunes recomanacions encarades al treball docent del professorat i no tant de l’eina.
Resumo:
We analyze the impact of working and contractual conditions, particularly exposure to job risks, on the probability of acquiring a disability. We postulate a model in which this impact is mediated by the choice of occupation, with a level of risk associated to it. We assume this choice is endogenous, and that it depends on preferences and opportunities in the labour market, both of which may differ between immigrants and natives. To test this hypothesis we use data from the Continuous Sample of Working Lives of the Spanish SS system. It contains individual, job and firm information of over a million workers, including a representative sample of immigrants. We find that risk exposure increases the probability of permanent disability by 5.3%; temporary employment also influences health. Migrant status -with differences among regions of origin- significantly affects both disability and the probability of being employed in a risky occupation. Most groups of immigrants work in riskier jobs, but have lower probability of becoming disabled. Nevertheless, our theoretical hypothesis that disability and risk are jointly determined is not valid for immigrants: i.e. for them working conditions is not a matter of choice in terms of health.
Resumo:
En el entorno actual, diversas ramas de las ciencias, tienen la necesidad de auxiliarse de la computación de altas prestaciones para la obtención de resultados a relativamente corto plazo. Ello es debido fundamentalmente, al alto volumen de información que necesita ser procesada y también al costo computacional que demandan dichos cálculos. El beneficio al realizar este procesamiento de manera distribuida y paralela, logra acortar los tiempos de espera en la obtención de los resultados y de esta forma posibilita una toma decisiones con mayor anticipación. Para soportar ello, existen fundamentalmente dos modelos de programación ampliamente extendidos: el modelo de paso de mensajes a través de librerías basadas en el estándar MPI, y el de memoria compartida con la utilización de OpenMP. Las aplicaciones híbridas son aquellas que combinan ambos modelos con el fin de aprovechar en cada caso, las potencialidades específicas del paralelismo en cada uno. Lamentablemente, la práctica ha demostrado que la utilización de esta combinación de modelos, no garantiza necesariamente una mejoría en el comportamiento de las aplicaciones. Por lo tanto, un análisis de los factores que influyen en el rendimiento de las mismas, nos beneficiaría a la hora de implementarlas pero también, sería un primer paso con el fin de llegar a predecir su comportamiento. Adicionalmente, supondría una vía para determinar que parámetros de la aplicación modificar con el fin de mejorar su rendimiento. En el trabajo actual nos proponemos definir una metodología para la identificación de factores de rendimiento en aplicaciones híbridas y en congruencia, la identificación de algunos factores que influyen en el rendimiento de las mismas.
Resumo:
For the execution of the scientific applications, different methods have been proposed to dynamically provide execution environments for such applications that hide the complexity of underlying distributed and heterogeneous infrastructures. Recently virtualization has emerged as a promising technology to provide such environments. Virtualization is a technology that abstracts away the details of physical hardware and provides virtualized resources for high-level scientific applications. Virtualization offers a cost-effective and flexible way to use and manage computing resources. Such an abstraction is appealing in Grid computing and Cloud computing for better matching jobs (applications) to computational resources. This work applies the virtualization concept to the Condor dynamic resource management system by using Condor Virtual Universe to harvest the existing virtual computing resources to their maximum utility. It allows existing computing resources to be dynamically provisioned at run-time by users based on application requirements instead of statically at design-time thereby lay the basis for efficient use of the available resources, thus providing way for the efficient use of the available resources.