28 resultados para cargas de Mülliken
em Consorci de Serveis Universitaris de Catalunya (CSUC), Spain
Resumo:
We distinguish and quantify which part of the expenditures of the Spanish central government are on own competences, on competences of the regional governments and those that are on shared powers between both levels of government. The results obtained show that a great amount of the expenditures actually done by the central government are in fact on competences of the regional governments and on shared powers
Resumo:
Objetivo: explorar la identificación de los factores individuales de complejidad de cuidados en enfermos hospitalizados. Método: se empleó un diseño cualitativo de investigación-acción participativa con el método de análisis directo de contenido de los breves relatos de los participantes, enfermeras y enfermeros de los hospitales del lnstituto Catalán de la Salud, sobre casos en los que hubieran experimentado situaciones de complejidad. La suficiencia muestral se estableció a partir del criterio de saturación de la información. Los participantes fueron invitados a formar parte de una ronda de talleres/sesiones de discusión que se hicieron durante 18 meses. Uno de los investigadores recogía por escrito las opiniones de los participantes, mientras el otro moderaba el debate y realizaba preguntas reflexivas sobre el contenido de la propuesta. Posteriormente se invitaba a los participantes a organizarse en pequeños grupos para discutir y registrar en un fomulario individual, breves narrativas sobre casos en los que hubieran experimentado situaciones de complejidad. Resultados: el número de relatos breves incluidos en el análisis final fue de 287. Los factores individuales de complejidad de cuidados incluye cinco dominios: (1) evolutivo, (2) mental y cognitivo, (3) psicoemocional, (4) sociocultural y (5) comorbilidad y complicaciones. La complejidad individual de cuidados se estructura fuentes, factores y especificaciones. Conclusiones: de los cinco ejes de complejidad identificados en el Modelo Vectorial de Complejidad de Safford, cuatro coinciden parcialmente con el análisis presentado. La arquitectura de la complejidad de cuidados debería incluir una consideración multiperspectiva, incluyendo los ejes de complejidad individual, terapéutica-procedimental y organizativa.
Resumo:
Objetivo: explorar la identificación de los factores individuales de complejidad de cuidados en enfermos hospitalizados. Método: se empleó un diseño cualitativo de investigación-acción participativa con el método de análisis directo de contenido de los breves relatos de los participantes, enfermeras y enfermeros de los hospitales del lnstituto Catalán de la Salud, sobre casos en los que hubieran experimentado situaciones de complejidad. La suficiencia muestral se estableció a partir del criterio de saturación de la información. Los participantes fueron invitados a formar parte de una ronda de talleres/sesiones de discusión que se hicieron durante 18 meses. Uno de los investigadores recogía por escrito las opiniones de los participantes, mientras el otro moderaba el debate y realizaba preguntas reflexivas sobre el contenido de la propuesta. Posteriormente se invitaba a los participantes a organizarse en pequeños grupos para discutir y registrar en un fomulario individual, breves narrativas sobre casos en los que hubieran experimentado situaciones de complejidad. Resultados: el número de relatos breves incluidos en el análisis final fue de 287. Los factores individuales de complejidad de cuidados incluye cinco dominios: (1) evolutivo, (2) mental y cognitivo, (3) psicoemocional, (4) sociocultural y (5) comorbilidad y complicaciones. La complejidad individual de cuidados se estructura fuentes, factores y especificaciones. Conclusiones: de los cinco ejes de complejidad identificados en el Modelo Vectorial de Complejidad de Safford, cuatro coinciden parcialmente con el análisis presentado. La arquitectura de la complejidad de cuidados debería incluir una consideración multiperspectiva, incluyendo los ejes de complejidad individual, terapéutica-procedimental y organizativa.
Resumo:
El Impuesto sobre la Renta de las Personas Físicas (IRPF) es uno de los instrumentos claves del sistema tributario español. En este trabajo se estudia el impacto de los principales elementos del Nuevo IRPF, a partir de ESPASIM, el primer modelo integrado de microsimulación de impuestos y subsidios (tax-benefit) para España, que emplea micro datos procedentes de la Encuesta de Presupuestos Familiares (EPF) representativos de la población española. Tomando como sistema de base el impuesto sobre la renta anterior (IRPF 1998), se analiza cómo la introducción de la nueva figura impositiva afecta la tributación en términos de recaudación, número de contribuyentes y de declarantes, los tipos marginales efectivos de imposición y impacto distributivo, tanto para el conjunto de la población como por grupos de hogares. Las estimaciones que se presentan muestran que el Nuevo impuesto conlleva una reducción sustancial de la presión fiscal media por IRPF que va acompañada de una reducción del tipo marginal efectivo medio de 2,12 puntos de porcentaje. El importante coste que en términos recaudatorios suponen la introducción del mínimo vital personal y familiar, las nuevas escala de gravamen y deducción por rendimientos del trabajo por cuenta ajena, no contribuyen a reducir la desigualdad relativa, beneficiando sobretodo a la población situada en los tramos medios y altos de la escala de renta. La reforma no beneficia tampoco ni a los hogares con cargas familiares ni a los perceptores de rendimientos por cuenta ajena, que experimentan (ambos colectivos) una reducción impositiva muy similar a la del conjunto de la población. Igualmente, son los grupos relativamente más pobres -personas solas y hogares monoparentales- los que menos ganan con la reforma. La reducción del número de declarantes (en 2,1 millones) asociada al nuevo impuesto, va acompañada de más complejidad legislativa y de una pérdida de generalidad de este instrumento impositivo.
Resumo:
En aplicaciones como la conformación en frío, donde los metales duros recubiertos con películas de naturaleza cerámica son ampliamente empleados, la existencia de un contacto mecánico repetitivo induce tensiones Hertzianas y origina el fallo por fatiga. En este trabajo, se investigan diversos recubrimientos cerámicos depositados por deposición física desde fase vapor sobre calidades diferentes de metal duro y un acero rápido pulvimetalúrgico para evaluar sus respectivas respuesta al contacto y comportamiento a fatiga. El trabajo experimental incluye la caracterización de los sistemas mediante ensayos de rayado y nanoindentación y la evaluación de las curvas tensión-deformación de indentación esférica de los sustratos, tanto desnudos como recubiertos, poniendo especial atención en determinar las tensiones de contacto críticas asociadas a la deformación plástica y a la aparición de grietas circulares en la superficie recubierta. A este estudio, le siguen numerosos ensayos a fatiga a cargas inferiores a aquéllas identificadas como críticas bajo carga monotónica y para un número de ciclos comprendido entre 1.000 y 1.000.000 de ciclos. Los resultados experimentales indican que las películas cerámicas no parecen desempeñar un papel relevante en la aparición de la cedencia plástica, siendo la deformación plástica global controlada por la deformación del sustrato. No obstante, para tensiones elevadas de indentación durante el régimen plástico, existe la aparición de grietas circulares en los recubrimientos cerámicos. Además, la aparición de las mismas es sensible a la fatiga por contacto. Este análisis mecánico se complementa con una inspección detallada del daño generado en profundidad y superficie.
Resumo:
La presente comunicación pretende abordar el papel que desempeña el ferrocarril en el suministro de cereales panificables en los distintos partidos judiciales de la provincia de Barcelona en la segunda mitad del XIX. Dedicaremos la primera parte de este trabajo a estimar el consumo de cereales panificables en la provincia de Barcelona en la segunda mitad del siglo XIX. A continuación estimaremos y analizaremos la producción y calcularemos que parte del consumo podía cubrir. A partir del déficit productivo calculado para los distintos partidos judiciales, en la segunda parte del trabajo analizaremos el papel desempeñado por el ferrocarril en la cobertura del consumo de cereales de la población. Comparemos el déficit productivo estimado, con las cifras disponibles sobre cargas y descargas de cereales en las distintas estaciones de tren de los partidos judiciales de la provincia de Barcelona, y valoraremos su verosimilitud. Finalmente, evaluaremos a modo de conclusión la relevancia de la aportación de este moderno medio de transporte a la alimentación de la población de la provincia de Barcelona, y en general a la estabilidad política y social y al crecimiento demográfico y económico.
Resumo:
En este trabajo se analizan las relaciones financieras entre el Estado y las Haciendas territoriales vascas desde la perspectiva de su adecuación a la ley del Concierto de 2002. Su principal conclusión es que la contribución del País Vasco a la Hacienda estatal es muy inferior a lo que debería ser de acuerdo con la legislación básica actualmente en vigor. El origen del desajuste está en las leyes quinquenales del Cupo, donde los principios y procedimientos de valoración establecidos en la ley del Concierto se concretan de una forma muy discutible. Los problemas fundamentales que se detectan son dos. Primero, la valoración de las cargas estatales no asumidas por el País Vasco que se recoge en los anexos de las leyes quinquenales está fuertemente sesgada a la baja. Y segundo, el ajuste por IVA se realiza utilizando valores desfasados de los coeficientes que recogen el peso del País Vasco en el consumo nacional y en la base del impuesto. El efecto conjunto de ambos factores ha sido el de rebajar la contribución vasca a los gastos del Estado en 2.800 millones de euros en 2002 y en casi 4.500 millones en 2007.
Resumo:
El desarrollo más reciente de los puentes arco ha llevado a una nueva tipología: los “puentes arco espaciales”. Se entiende por puente arco espacial todo puente arco en el que, por su configuración geométrica y estructural, las cargas gravitatorias generan esfuerzos no contenidos en el plano del arco. Por un lado, aparecen para satisfacer las necesidades funcionales cuando estructuras en arco resultan las más adecuadas para sostener tableros curvos y evitar así apoyos intermedios. Desde un punto de vista estético, surgen como demanda de los nuevos puentes en entornos urbanos, buscando, no sólo una forma cuidada, sino persiguiendo convertirse en emblemas de la ciudad a partir de la originalidad y la innovación. Su proyecto y construcción es posible gracias a las grandes posibilidades que ofrecen los nuevos métodos de cálculo y dibujo por ordenador, en los que, a través del incremento de memoria y rapidez, cada vez se emplean programas más completos y nuevas modelizaciones, más cercanas a la realidad. No menos importante es el desarrollo de los medios auxiliares de construcción y de las herramientas de CAD/CAM, que convierte en construibles por control numérico formas de manufactura impensables. Ello trasciende en infinitas posibilidades de diseño y estructura. Sin embargo, el diseño y construcción de estas nuevas tipologías no ha estado acompañado por el avance en el estado del conocimiento fundamentado en la investigación, ya que se han desarrollado pocos estudios que explican parcialmente la respuesta estructural de estos puentes. Existe, por lo tanto, la necesidad de profundizar en el estado del conocimiento y clarificar su respuesta estructural, así como de plantear, finalmente, criterios de diseño que sirvan de apoyo en las fases de concepción y de proyecto a estas nuevas tipologías.
Resumo:
L’adaptació a l’entrenament aeròbic prolongat provoca a nivell cardíac modificacions estructurals i electrocardiogràfiques que es poden considerar parafisiològiques. Una planificació incorrecta de las càrregues de treball i factors externs estressants poden provocar una desadaptació a l’entrenament i de forma crònica en la Síndrome de Sobreentrenament. Aquesta síndrome es reflex d’un desequilibri del sistema autònom, podent presentar en les seves formes més desenvolupades manifestacions cardiovasculars greus. No es disposen actualment d’un marcador diagnòstic definitiu, sent la anamnesis dirigida el “gold standard”. El tractament consisteix en un descans actiu la durada del qual dependrà de la gravetat clínica.
Resumo:
En este trabajo se estudian los determinantes macroeconómicos de la informalidad laboral en Colombia. Teniendo en cuenta varias definiciones de informalidad, se encuentra que este fenómeno tiene una relación inversa con el nivel de educación de la población ocupada y el grado de desarrollo industrial de las ciudades. También se observa que un sector público muy grande genera un efecto positivo sobre la informalidad, lo cual indica que existen posibles ineficiencias estatales o cargas institucionales que afectan la decisión de formalizarse. Así mismo se evidencia que existe un importante efecto local en la informalidad asociado con la estructura productiva e integración comercial, que dependen de la ubicación geográfica de las ciudades.
Resumo:
Actualmente existen muchas aplicaciones paralelas/distribuidas en las cuales SPMD es el paradigma más usado. Obtener un buen rendimiento en una aplicación paralela de este tipo es uno de los principales desafíos dada la gran cantidad de aplicaciones existentes. Este objetivo no es fácil de resolver ya que existe una gran variedad de configuraciones de hardware, y también la naturaleza de los problemas pueden ser variados así como la forma de implementarlos. En consecuencia, si no se considera adecuadamente la combinación "software/hardware" pueden aparecer problemas inherentes a una aplicación iterativa sin una jerarquía de control definida de acuerdo a este paradigma. En SPMD todos los procesos ejecutan el mismo código pero computan una sección diferente de los datos de entrada. Una solución a un posible problema del rendimiento es proponer una estrategia de balance de carga para homogeneizar el cómputo entre los diferentes procesos. En este trabajo analizamos el benchmark CG con cargas heterogéneas con la finalidad de detectar los posibles problemas de rendimiento en una aplicación real. Un factor que determina el rendimiento en esta aplicación es la cantidad de elementos nonzero contenida en la sección de matriz asignada a cada proceso. Determinamos que es posible definir una estrategia de balance de carga que puede ser implementada de forma dinámica y demostramos experimentalmente que el rendimiento de la aplicación puede mejorarse de forma significativa con dicha estrategia.
Resumo:
Performance prediction and application behavior modeling have been the subject of exten- sive research that aim to estimate applications performance with an acceptable precision. A novel approach to predict the performance of parallel applications is based in the con- cept of Parallel Application Signatures that consists in extract an application most relevant parts (phases) and the number of times they repeat (weights). Executing these phases in a target machine and multiplying its exeuction time by its weight an estimation of the application total execution time can be made. One of the problems is that the performance of an application depends on the program workload. Every type of workload affects differently how an application performs in a given system and so affects the signature execution time. Since the workloads used in most scientific parallel applications have dimensions and data ranges well known and the behavior of these applications are mostly deterministic, a model of how the programs workload affect its performance can be obtained. We create a new methodology to model how a program’s workload affect the parallel application signature. Using regression analysis we are able to generalize each phase time execution and weight function to predict an application performance in a target system for any type of workload within predefined range. We validate our methodology using a synthetic program, benchmarks applications and well known real scientific applications.
Resumo:
El consumo energético es un aspecto cada vez más importante en el diseño de microprocesadores. Este trabajo experimenta con una técnica de control del consumo, el escalado dinámico de tensión y frecuencia (DVFS, siglas en inglés), para determinar cuan efectiva es la misma en la ejecución de programas con diferentes cargas de trabajo, intensivas en cómputo o memoria. Además, se ha extendido la experimentación a varios núcleos de ejecución, permitiendo comprobar en que medida las características de la ejecución en una arquitectura multicore afecta al desempeño de dicha técnica.
Resumo:
En aquest treball s'estudien els mecanismes necessaris que ofereixin, a les aplicacions i al sistema, informació relacionada amb l'execució de les tasques, els recursos que es consumeixen, les càrregues dels iguals, etc. Una de les utilitats que presenta consisteix en la possibilitat de detectar tasques que tenen problemes o que saturen un membre del grup i actuar en conseqüència, eliminant o aturant durant un temps una tasca, delegant-ne l'execució a un altre membre del grup amb més disponibilitat, etc.
Resumo:
Objetivos: 1.-Identificar los factores clínicos y microbiológicos que ayuden a predecir la aparición de exacerbaciones en la EPOC. 2.-Diagnóstico y cuantificación de las especies bacterianas aisladas en esputo (fase de exacerbación y estable) .3.- Tipificación genotípica secuencial de las cepas de H. influenzae y P. aeruginosa. 4.- Impacto del tratamiento antibiótico en la aparición de resistencias en estos patógenos. 5.- Diseño: Estudio prospectivo (3 años). Ámbito del estudio: Hospital Universitario de tercer nivel. Pacientes con EPOC grave atendidos en la Consulta Monográfica de EPOC del Servicio de Neumología. Métodos microbiológicos: Cuantificación de la carga bacteriana en muestras respiratorias en fase estable y en exacerbación. Estudio de la sensibilidad “in vitro”. Tipificación molecular (PFGE y MLST) de H. influenzae y P. aeruginosa. Estudio de los genes de virulencia de H. influenzae mediante PCR. Resultados: Desde Febrero de 2010 a Julio de 2011 se han incluido 77 pacientes. Los microorganismos más frecuentemente aislados en fase de exacerbación fueron: P. aeruginosa (29.3%), H. influenzae (15.92%), M. catarrhalis (12.74%), S. pneumoniae (10.19%) y S. aureus (5.10%). En los 88 episodios por P. aeruginosa se detectaron 38 genotipos diferentes. En los 41 episodios por H. influenzae se detectaron 39 genotipos diferentes. El 10% de los episodios fueron polimicrobianos. Los episodios de EAEPOC y de fase estable tuvieron una distribución de microorganismos similar. Sin embargo, cuando se cuantificaron las cargas bacterianas fueron mayores en EAEPOC (intervalo 4x107 -2x108) que en fase estable (intervalo 2x105 -4x107). Conclusiones: El genotipo de las cepas de P. aeruginosa y H. influenzae aisladas en EAEPOC difieren de un paciente a otro, sin embargo la mayoría de los episodios de cada paciente están causados por un genotipo único.